|
Dissertações |
|
1
|
-
ALESSANDRA ALELUIA ALVES
-
Ama: um sistema especialista de aprendizado para balé adulto através de feedback verbal automático
-
Orientador : GIORDANO RIBEIRO EULALIO CABRAL
-
MEMBROS DA BANCA :
-
MARLINI DORNELES DE LIMA
-
FILIPE CARLOS DE ALBUQUERQUE CALEGARIO
-
GIORDANO RIBEIRO EULALIO CABRAL
-
Data: 18/01/2022
-
-
Mostrar Resumo
-
Com a introdução da computação no balé clássico, podemos pensar em novas possibilidades de ensino-aprendizagem que sejam mais inclusivas e democráticas. Na literatura científica atual, existem trabalhos voltados para o aprendizado do balé, mas pouco se fala do público de balé adulto. Esse público, caracterizado por pessoas com 18 ou mais anos de idade e que não necessariamente possui o objetivo de se tornar bailarino profissional, possui um perfil e objetivo diferentes do tradicional bailarino de uma grande companhia de dança e é cada vez mais frequente de ser encontrado em diversas academias de balé. Portanto, este trabalho trata-se de uma pesquisa baseada em inovação que explorou as possibilidades de uso da tecnologia para auxiliar o aprendizado de balé clássico através do feedback, especializando-se posteriormente no público de balé adulto e fornecendo feedback verbal automatizado. Após uma pesquisa junto ao público-alvo que utilizaria esse tipo de tecnologia que auxiliasse nos treinos de balé em casa, foi desenvolvido um sistema especialista chamado Ama. O primeiro protótipo de Ama contou com uma interface visual e feedback verbal em tempo real e foi avaliado por bailarinos e professores de balé clássico. Os resultados obtidos demonstraram a possibilidade de fornecimento de feedback útil ao bailarino de maneira inclusiva e que atendesse suas necessidades, além das possíveis funcionalidades propostas terem sido consideradas pertinentes pelo público que poderia utilizar a ferramenta futuramente. Assim, conseguimos avançar na área que une dança e tecnologia e no entendimento científico e prático de formas de interação e design de tecnologias voltadas para o aprendizado de balé clássico.
-
Mostrar Abstract
-
Com a introdução da computação no balé clássico, podemos pensar em novas possibilidades de ensino-aprendizagem que sejam mais inclusivas e democráticas. Na literatura científica atual, existem trabalhos voltados para o aprendizado do balé, mas pouco se fala do público de balé adulto. Esse público, caracterizado por pessoas com 18 ou mais anos de idade e que não necessariamente possui o objetivo de se tornar bailarino profissional, possui um perfil e objetivo diferentes do tradicional bailarino de uma grande companhia de dança e é cada vez mais frequente de ser encontrado em diversas academias de balé. Portanto, este trabalho trata-se de uma pesquisa baseada em inovação que explorou as possibilidades de uso da tecnologia para auxiliar o aprendizado de balé clássico através do feedback, especializando-se posteriormente no público de balé adulto e fornecendo feedback verbal automatizado. Após uma pesquisa junto ao público-alvo que utilizaria esse tipo de tecnologia que auxiliasse nos treinos de balé em casa, foi desenvolvido um sistema especialista chamado Ama. O primeiro protótipo de Ama contou com uma interface visual e feedback verbal em tempo real e foi avaliado por bailarinos e professores de balé clássico. Os resultados obtidos demonstraram a possibilidade de fornecimento de feedback útil ao bailarino de maneira inclusiva e que atendesse suas necessidades, além das possíveis funcionalidades propostas terem sido consideradas pertinentes pelo público que poderia utilizar a ferramenta futuramente. Assim, conseguimos avançar na área que une dança e tecnologia e no entendimento científico e prático de formas de interação e design de tecnologias voltadas para o aprendizado de balé clássico.
|
|
2
|
-
WALBER DE MACEDO RODRIGUES
-
Dynamic Ensemble of Classifiers and Security Relevant Methods of Android’s API: An Empirical Study
-
Orientador : GEORGE DARMITON DA CUNHA CAVALCANTI
-
MEMBROS DA BANCA :
-
ANDRÉ CÂMARA ALVES DO NASCIMENTO
-
GEORGE DARMITON DA CUNHA CAVALCANTI
-
RAFAEL MENELAU OLIVEIRA E CRUZ
-
Data: 10/02/2022
-
-
Mostrar Resumo
-
O sistema operacional Android disponibiliza funções e métodos de manuseio de dados sensíveis para proteger os dados dos usuários. Dados sensíveis são todo tipo de dados que podem identificar o usuário, como localização de GPS, dados biométricos e informações bancárias. A literatura de segurança Android propõe extrair features binárias de um método e classificar-lo em uma das classes de Security Relevant Methods, agregando informação de o método manuseia dados sensíveis. Entretanto, existe uma lacuna na literatura onde não são avaliados algoritmos de Ensemble Dinâmico. Os algoritmos de Ensemble Dinâmico são estado da arte para Sistemas de Múltiplos classificadores, que por sua vez, não atacam objetivamente o tipo específico de features binárias. Assim sendo, este trabalho endereça a lacuna em relação a algoritmos de Ensemble Dinâmicos aplicados ao problema de classificação de Security Relevant Methods. Nossas análises mostram que, ao contrário do que é inicialmente posto pela literatura, SVM não é o melhor classificador para esse problema, sendo MLP, Random Forest, Gradient Boosted Decision Trees e META-DES usando \text{Random Forest como geração do pool os melhores resultados. Também constatamos que, em geral, algoritmos de Ensemble Dinâmico possuem uma desvantagem em relação aos classificadores monolíticos. Ademais, essa desvantagem é exarcebada em algoritmos que utilizam classificadores baseados em distância, como o OLP. Quando utlizamos o algoritmo de embedding Triplet Loss, observamos um aumento de performance para o kNN e OLP, mas não de outras técnicas de Ensemble Dinâmico, mostrando que um conjunto de features binárias tem impacto mais significativo sobre esses algoritmos.
-
Mostrar Abstract
-
O sistema operacional Android disponibiliza funções e métodos de manuseio de dados sensíveis para proteger os dados dos usuários. Dados sensíveis são todo tipo de dados que podem identificar o usuário, como localização de GPS, dados biométricos e informações bancárias. A literatura de segurança Android propõe extrair features binárias de um método e classificar-lo em uma das classes de Security Relevant Methods, agregando informação de o método manuseia dados sensíveis. Entretanto, existe uma lacuna na literatura onde não são avaliados algoritmos de Ensemble Dinâmico. Os algoritmos de Ensemble Dinâmico são estado da arte para Sistemas de Múltiplos classificadores, que por sua vez, não atacam objetivamente o tipo específico de features binárias. Assim sendo, este trabalho endereça a lacuna em relação a algoritmos de Ensemble Dinâmicos aplicados ao problema de classificação de Security Relevant Methods. Nossas análises mostram que, ao contrário do que é inicialmente posto pela literatura, SVM não é o melhor classificador para esse problema, sendo MLP, Random Forest, Gradient Boosted Decision Trees e META-DES usando \text{Random Forest como geração do pool os melhores resultados. Também constatamos que, em geral, algoritmos de Ensemble Dinâmico possuem uma desvantagem em relação aos classificadores monolíticos. Ademais, essa desvantagem é exarcebada em algoritmos que utilizam classificadores baseados em distância, como o OLP. Quando utlizamos o algoritmo de embedding Triplet Loss, observamos um aumento de performance para o kNN e OLP, mas não de outras técnicas de Ensemble Dinâmico, mostrando que um conjunto de features binárias tem impacto mais significativo sobre esses algoritmos.
|
|
3
|
-
ALEXANDRE LUIS BOA VIAGEM DE FRANCA
-
Uma Arquitetura Multinível para Fusão de Dados de monitoramento do consumo de energia elétrica a partir de Redes de sensores sem fio.
-
Orientador : FLAVIA DE ALMEIDA BARROS
-
MEMBROS DA BANCA :
-
CARLOS ANDRE GUIMARAES FERRAZ
-
FLAVIA DE ALMEIDA BARROS
-
ANDRÉ CÂMARA ALVES DO NASCIMENTO
-
Data: 11/02/2022
-
-
Mostrar Resumo
-
Em cenários corporativos, o alto consumo de energia elétrica impacta a lucratividade e a qualidade dos produtos e serviços oferecidos. No setor industrial brasileiro, os gastos com energia elétrica podem chegar a 40% dos custos de produção. A utilização racional de energia, ou eficiência energética, torna-se um forte aliado das empresas, sobretudo no setor industrial. Contudo, a eficiência energética requer altos investimentos em automação industrial, que geralmente é invasiva e requer altos investimentos em sua implantação e manutenção. Claramente, obter maior eficiência energética a custo acessível e com portabilidade e escalabilidade apresenta-se como um desafio. Nesse contexto, este trabalho propõe a utilização de redes de sensores sem fio (RSSF), não invasivas e de baixo custo, para monitoramento de equipamentos eletroeletrônicos residenciais ou industriais utilizando a abordagem de IoT (Internet of Things). Os dados coletados são fusionados através de uma arquitetura multinível de fusão de dados projetada neste trabalho, gerando assim informações com maior valor agregado (revelando, por exemplo, as principais grandezas elétricas inerentes à demanda e ao consumo de energia). Com o monitoramento contínuo e em tempo real, é possível identificar falhas e tomar ações corretivas com mais rapidez, evitando desperdícios e gerando economia. As RSSFs foram implantadas em dois contextos distintos: um ambiente residencial, e um ambiente industrial. O estudo de caso realizado em ambiente doméstico focou na implementação de uma RSSF atrelada a uma geladeira, com vistas a monitorar o consumo de energia por um determinado período. O segundo estudo de caso foi desenvolvido em um ambiente industrial, com objetivo foi monitorar remotamente o consumo de energia de um equipamento denominado “extrusora”, em uma pequena indústria de plástico da região Metropolitana do Recife. Em ambos os casos, os resultados foram muito positivos. Além do grande valor gerencial dos resultados obtidos a partir da fusão dos dados, conseguimos também confirmar a escalabilidade e a independência de domínio da arquitetura de fusão proposta nesse trabalho, que foi utilizada em ambos os estudos de caso com pequenas alterações no hardware (mudança de transformadores de corrente, microcontroladores e o rádio).
-
Mostrar Abstract
-
Em cenários corporativos, o alto consumo de energia elétrica impacta a lucratividade e a qualidade dos produtos e serviços oferecidos. No setor industrial brasileiro, os gastos com energia elétrica podem chegar a 40% dos custos de produção. A utilização racional de energia, ou eficiência energética, torna-se um forte aliado das empresas, sobretudo no setor industrial. Contudo, a eficiência energética requer altos investimentos em automação industrial, que geralmente é invasiva e requer altos investimentos em sua implantação e manutenção. Claramente, obter maior eficiência energética a custo acessível e com portabilidade e escalabilidade apresenta-se como um desafio. Nesse contexto, este trabalho propõe a utilização de redes de sensores sem fio (RSSF), não invasivas e de baixo custo, para monitoramento de equipamentos eletroeletrônicos residenciais ou industriais utilizando a abordagem de IoT (Internet of Things). Os dados coletados são fusionados através de uma arquitetura multinível de fusão de dados projetada neste trabalho, gerando assim informações com maior valor agregado (revelando, por exemplo, as principais grandezas elétricas inerentes à demanda e ao consumo de energia). Com o monitoramento contínuo e em tempo real, é possível identificar falhas e tomar ações corretivas com mais rapidez, evitando desperdícios e gerando economia. As RSSFs foram implantadas em dois contextos distintos: um ambiente residencial, e um ambiente industrial. O estudo de caso realizado em ambiente doméstico focou na implementação de uma RSSF atrelada a uma geladeira, com vistas a monitorar o consumo de energia por um determinado período. O segundo estudo de caso foi desenvolvido em um ambiente industrial, com objetivo foi monitorar remotamente o consumo de energia de um equipamento denominado “extrusora”, em uma pequena indústria de plástico da região Metropolitana do Recife. Em ambos os casos, os resultados foram muito positivos. Além do grande valor gerencial dos resultados obtidos a partir da fusão dos dados, conseguimos também confirmar a escalabilidade e a independência de domínio da arquitetura de fusão proposta nesse trabalho, que foi utilizada em ambos os estudos de caso com pequenas alterações no hardware (mudança de transformadores de corrente, microcontroladores e o rádio).
|
|
4
|
-
GERMANA ARRUDA DE QUEIROZ
-
O que devemos aprender sobre ética na engenharia de software e o que estamos estudando formalmente na academia brasileira?
-
Orientador : GEBER LISBOA RAMALHO
-
MEMBROS DA BANCA :
-
CLARISSE SIECKENIUS DE SOUZA
-
GEBER LISBOA RAMALHO
-
PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
-
Data: 11/02/2022
-
-
Mostrar Resumo
-
CONTEXTO: O software está cada vez mais presente em nossas vidas e nos influencia constantemente. Por exemplo, os carros autônomos desenvolvidos e as redes sociais podem introduzir preconceitos, quebrar preferências de privacidade, levar ao vício digital e outras questões semelhantes. OBJETIVO: Este estudo tem como objetivo identificar os dilemas éticos que ocorrem na engenharia de software e verificar como este assunto está sendo ensinado na área de TI. MÉTODO: Foi realizado um estudo de mapeamento sistemático; a pesquisa retornou 744 artigos de quatro bases de dados, dos quais 50 foram aceitos para extração de dados. Além disso, foi realizado um survey na área de educação; obtivemos 93 participantes na pesquisa e ao final foi realizado uma análise documental sobre a disciplina de ética em 20 universidades brasileiras. RESULTADOS: A partir dos dados extraídos na revisão, foi possível responder às questões de pesquisa e compreender os dilemas éticos que estiveram presentes nos últimos cinco anos. Os principais dilemas que podem auxiliar no direcionamento do ensino da ética no ensino superior foram privacidade, conscientização e segurança. Por meio do survey, foram coletados opiniões de alunos e professores universitários: 63% dos alunos relataram que a disciplina de ética é importante para a grade curricular dos cursos de graduação e pós-graduação da área de informática; 61,3% possuíam conhecimentos sobre ética aplicada ao seu campo profissional; 75,3% consideram a ética importante para os profissionais de TI; 35,5% tinham interesse em fazer curso relacionado à ética; 72% não leram o código de ética profissional em nenhuma área da tecnologia da informação; e 47,3% nunca estudaram ética. A percepção dos professores mostrou que 82,3% nunca ensinaram sobre a existência de um código de ética específico em tecnologia da informação; 93,1% afirmaram que o código de ética e conduta profissional é necessário para uma boa conduta profissional; e 72% não leram muito sobre questões éticas. Por meio da análise documental, foi coletada informações sobre assuntos relacionados às universidades brasileiras como carga horária (30-75 horas), ementa e as recomendações do MEC e SBC. CONCLUSÃO: O estudo de mapeamento contribuiu para evidenciar que as principais questões éticas que foram discutidas na literatura científica foram privacidade e transparência, o survey sobre a opinião de alunos e professores contribuiu para melhor compreensão e sugestões de mudanças futuras para obter maior interesse dos alunos e maior motivação profissional dos professores e a análise documental mostra que privacidade é uma questão discutida tanto na academia quanto nas publicações científicas, transparência foi visualizada mais nas publicações e não nas ementas dos cursos universitários, outros dilemas éticos foram visualizados como propriedade intelectual e responsabilidade.
-
Mostrar Abstract
-
CONTEXTO: O software está cada vez mais presente em nossas vidas e nos influencia constantemente. Por exemplo, os carros autônomos desenvolvidos e as redes sociais podem introduzir preconceitos, quebrar preferências de privacidade, levar ao vício digital e outras questões semelhantes. OBJETIVO: Este estudo tem como objetivo identificar os dilemas éticos que ocorrem na engenharia de software e verificar como este assunto está sendo ensinado na área de TI. MÉTODO: Foi realizado um estudo de mapeamento sistemático; a pesquisa retornou 744 artigos de quatro bases de dados, dos quais 50 foram aceitos para extração de dados. Além disso, foi realizado um survey na área de educação; obtivemos 93 participantes na pesquisa e ao final foi realizado uma análise documental sobre a disciplina de ética em 20 universidades brasileiras. RESULTADOS: A partir dos dados extraídos na revisão, foi possível responder às questões de pesquisa e compreender os dilemas éticos que estiveram presentes nos últimos cinco anos. Os principais dilemas que podem auxiliar no direcionamento do ensino da ética no ensino superior foram privacidade, conscientização e segurança. Por meio do survey, foram coletados opiniões de alunos e professores universitários: 63% dos alunos relataram que a disciplina de ética é importante para a grade curricular dos cursos de graduação e pós-graduação da área de informática; 61,3% possuíam conhecimentos sobre ética aplicada ao seu campo profissional; 75,3% consideram a ética importante para os profissionais de TI; 35,5% tinham interesse em fazer curso relacionado à ética; 72% não leram o código de ética profissional em nenhuma área da tecnologia da informação; e 47,3% nunca estudaram ética. A percepção dos professores mostrou que 82,3% nunca ensinaram sobre a existência de um código de ética específico em tecnologia da informação; 93,1% afirmaram que o código de ética e conduta profissional é necessário para uma boa conduta profissional; e 72% não leram muito sobre questões éticas. Por meio da análise documental, foi coletada informações sobre assuntos relacionados às universidades brasileiras como carga horária (30-75 horas), ementa e as recomendações do MEC e SBC. CONCLUSÃO: O estudo de mapeamento contribuiu para evidenciar que as principais questões éticas que foram discutidas na literatura científica foram privacidade e transparência, o survey sobre a opinião de alunos e professores contribuiu para melhor compreensão e sugestões de mudanças futuras para obter maior interesse dos alunos e maior motivação profissional dos professores e a análise documental mostra que privacidade é uma questão discutida tanto na academia quanto nas publicações científicas, transparência foi visualizada mais nas publicações e não nas ementas dos cursos universitários, outros dilemas éticos foram visualizados como propriedade intelectual e responsabilidade.
|
|
5
|
-
ESDRAS SOUTO COSTA
-
Meta Aprendizado para Detecção de Anomalia em Imagens
-
Orientador : GERMANO CRISPIM VASCONCELOS
-
MEMBROS DA BANCA :
-
GEBER LISBOA RAMALHO
-
GERMANO CRISPIM VASCONCELOS
-
JAIRSON BARBOSA RODRIGUES
-
Data: 15/02/2022
-
-
Mostrar Resumo
-
A detecção de anomalias é uma tarefa crucial, tem um enorme impacto na sociedade e no bem-estar das pessoas. Considerada um problema desafiador, uma vez que a definição de ‘anomalia’ é ambígua, ou seja, qualquer evento que não esteja em conformidade com um comportamento considerado ‘normal’ pode ser visto como uma anomalia. Como exemplo, algumas situações enfrentadas diariamente em que algo é ‘anormal’ ou fora do comum: um acidente de trânsito; doenças; uma transação no cartão de crédito suspeita e assim por diante. Apesar dos grandes avanços em trabalhos recentes na detecção automática de anomalias e na área de Redes Neurais Profundas, tais modelos ainda demandam uma grande quantidade de dados para que se tire proveito de sua expressividade e desempenho. Sendo assim, o presente trabalho apresenta uma nova abordagem para a detecção semi-supervisionada de anomalias, quando somente de amostras ‘normais’ são consideradas no treinamento, bem como somente alguns exemplos estão disponíveis. Usando técnicas de meta-aprendizado, em particular MAML, a abordagem proposta é comparada com outros algoritmos na base de dados MVTec AD e demonstrou resultados promissores em tarefas de detecção de anomalias em objetos nunca vistos em treinamento.
-
Mostrar Abstract
-
A detecção de anomalias é uma tarefa crucial, tem um enorme impacto na sociedade e no bem-estar das pessoas. Considerada um problema desafiador, uma vez que a definição de ‘anomalia’ é ambígua, ou seja, qualquer evento que não esteja em conformidade com um comportamento considerado ‘normal’ pode ser visto como uma anomalia. Como exemplo, algumas situações enfrentadas diariamente em que algo é ‘anormal’ ou fora do comum: um acidente de trânsito; doenças; uma transação no cartão de crédito suspeita e assim por diante. Apesar dos grandes avanços em trabalhos recentes na detecção automática de anomalias e na área de Redes Neurais Profundas, tais modelos ainda demandam uma grande quantidade de dados para que se tire proveito de sua expressividade e desempenho. Sendo assim, o presente trabalho apresenta uma nova abordagem para a detecção semi-supervisionada de anomalias, quando somente de amostras ‘normais’ são consideradas no treinamento, bem como somente alguns exemplos estão disponíveis. Usando técnicas de meta-aprendizado, em particular MAML, a abordagem proposta é comparada com outros algoritmos na base de dados MVTec AD e demonstrou resultados promissores em tarefas de detecção de anomalias em objetos nunca vistos em treinamento.
|
|
6
|
-
RENATA REGINA MENEZES DE OLIVEIRA BARBOSA
-
Spotify como Ferramenta de Construção do Gosto: Um Estudo sobre os Efeitos do Consumo de Conteúdos Recomendados por Inteligência Artificial
-
Orientador : RICARDO BASTOS CAVALCANTE PRUDENCIO
-
MEMBROS DA BANCA :
-
FREDERICO ARAUJO DURAO
-
GEBER LISBOA RAMALHO
-
SERGIO RICARDO DE MELO QUEIROZ
-
Data: 15/02/2022
-
-
Mostrar Resumo
-
Nos últimos anos, tem se tornado cada vez mais comum o surgimento de plataformas, em vários setores, que trabalham com sistemas de recomendação. Visto que, do ponto de vista das plataformas, um importante propósito das recomendações é manter os usuários consumindo os conteúdos disponibilizados, utilizando inúmeras informações do comportamento dos usuários, foi observada a necessidade de entender as consequências do seu uso na sociedade. Surgem então alguns questionamentos: poderia essa nova dinâmica ser responsável por conduzir uma mudança no gosto dos usuários? Os conteúdos produzidos para consumo na plataforma também podem sofrer influência? A partir deste contexto, esta dissertação tem como propósito analisar os efeitos do consumo de conteúdos recomendados por inteligência artificial na sociedade. Tendo como bases principais a teoria do gosto (1979) do sociólogo Pierre Bourdieu e o conceito de onívoro cultural de DiMaggio (1987) e Richard Peterson e Albert Simkus (1992), procura-se observar quais as consequências causadas pelo uso de plataformas que utilizam dados do perfil do usuário em sistemas de recomendação que enviam conteúdos para serem consumidos, dado que o gosto não é produto resultante do livre-arbítrio, mas algo construído pelas condições de existência que moldam as preferências do indivíduo ao longo do tempo. Como objeto de estudo a plataforma de streaming musical Spotify foi selecionada, considerando-se sua popularidade no Brasil. Por meio de uma pesquisa quali-quantitativa e da construção de um grupo focal onde o histórico de uso da plataforma foi acompanhado por 5 meses, foi possível observar que o capital cultural, o consumo de conteúdo recomendado e a diversidade de gêneros são fatores de grande influência na equivalência entre o conteúdo já consumido e aquele que será recomendado. Além disso, a falta de similaridade entre os conteúdos de alguns usuários indicam a possibilidade do conteúdo sugerido ser resultado de uma ação publicitária, sem levar em consideração o histórico de consumo do usuário e sim se ele faz parte do público alvo que o artista pretende alcançar. Quanto aos onívoros culturais, o fato do usuário ser considerado um não obteve influência significativa nos resultados. Desta forma, a pesquisa contribui para debates sobre classes, dinâmica de consumo musical e inteligência artificial no século 21.
-
Mostrar Abstract
-
Nos últimos anos, tem se tornado cada vez mais comum o surgimento de plataformas, em vários setores, que trabalham com sistemas de recomendação. Visto que, do ponto de vista das plataformas, um importante propósito das recomendações é manter os usuários consumindo os conteúdos disponibilizados, utilizando inúmeras informações do comportamento dos usuários, foi observada a necessidade de entender as consequências do seu uso na sociedade. Surgem então alguns questionamentos: poderia essa nova dinâmica ser responsável por conduzir uma mudança no gosto dos usuários? Os conteúdos produzidos para consumo na plataforma também podem sofrer influência? A partir deste contexto, esta dissertação tem como propósito analisar os efeitos do consumo de conteúdos recomendados por inteligência artificial na sociedade. Tendo como bases principais a teoria do gosto (1979) do sociólogo Pierre Bourdieu e o conceito de onívoro cultural de DiMaggio (1987) e Richard Peterson e Albert Simkus (1992), procura-se observar quais as consequências causadas pelo uso de plataformas que utilizam dados do perfil do usuário em sistemas de recomendação que enviam conteúdos para serem consumidos, dado que o gosto não é produto resultante do livre-arbítrio, mas algo construído pelas condições de existência que moldam as preferências do indivíduo ao longo do tempo. Como objeto de estudo a plataforma de streaming musical Spotify foi selecionada, considerando-se sua popularidade no Brasil. Por meio de uma pesquisa quali-quantitativa e da construção de um grupo focal onde o histórico de uso da plataforma foi acompanhado por 5 meses, foi possível observar que o capital cultural, o consumo de conteúdo recomendado e a diversidade de gêneros são fatores de grande influência na equivalência entre o conteúdo já consumido e aquele que será recomendado. Além disso, a falta de similaridade entre os conteúdos de alguns usuários indicam a possibilidade do conteúdo sugerido ser resultado de uma ação publicitária, sem levar em consideração o histórico de consumo do usuário e sim se ele faz parte do público alvo que o artista pretende alcançar. Quanto aos onívoros culturais, o fato do usuário ser considerado um não obteve influência significativa nos resultados. Desta forma, a pesquisa contribui para debates sobre classes, dinâmica de consumo musical e inteligência artificial no século 21.
|
|
7
|
-
MOISÉS NEVES CAMÊLO
-
G-Priv: um guia para especificação de requisitos de privacidade em conformidade com a LGPD.
-
Orientador : CARINA FROTA ALVES
-
MEMBROS DA BANCA :
-
EDNA DIAS CANEDO
-
CARINA FROTA ALVES
-
JESSYKA FLAVYANNE FERREIRA VILELA
-
Data: 22/02/2022
-
-
Mostrar Resumo
-
A Lei Geral de Proteção de Dados (LGPD) visa proteger os dados pessoais, inclusive nos meios digitais, por pessoa natural ou por pessoa jurídica de direito público ou privado. Atualmente, as organizações precisam implementar várias medidas para garantir que seus sistemas de software estejam em conformidade com a lei. No entanto, a LGPD assim como outras legislações são de difícil entendimento por parte dos profissionais de TI, principalmente para extrair e operacionalizar requisitos legais. Dessa forma, esta pesquisa visa auxiliar analistas de requisitos na especificação dos requisitos de privacidade para garantir sua conformidade com a LGPD. Para atingir este objetivo, foram realizadas entrevistas exploratórias, com o intuito de investigar o ponto de vista de analistas de requisitos ressaltando possíveis desafios enfrentados na especificação de requisitos de privacidade. As entrevistas revelaram os principais achados classificados em cinco categorias: Conceitos de Privacidade, Processo de Conformidade, Obstáculos na Conformidade, Tradeoff entre Privacidade e Transparência, Rotina de Trabalho. A partir da análise dos dados coletados nas entrevistas, foi elaborado um guia chamado G-Priv para apoiar a especificação de requisitos de privacidade em conformidade com a LGPD. O guia proposto possui atividades bem definidas, templates e um catálogo com padrões de requisitos de privacidade. Ao final da pesquisa, executamos um survey com 18 participantes com o objetivo de avaliar a aceitação do G-Priv e dos artefatos propostos no guia. O survey foi conduzido através de um questionário utilizado no formulário no Google Forms, como também foi disponibilizada uma documentação detalhada do guia, apresentando de forma sistemática as suas etapas, interações entre os atores e os templates disponibilizados. Com base na avaliação, o G-Priv foi considerado de fácil entendimento, principalmente na definição dos papeis e responsabilidades dos atores envolvidos nas quatro etapas do guia. Os participantes do survey também ressaltaram a agilidade de utilização do guia. Sendo assim, consideramos que o guia proposto pode auxiliar analistas de requisitos na especificação dos requisitos de privacidade em conformidade com a LGPD.
-
Mostrar Abstract
-
A Lei Geral de Proteção de Dados (LGPD) visa proteger os dados pessoais, inclusive nos meios digitais, por pessoa natural ou por pessoa jurídica de direito público ou privado. Atualmente, as organizações precisam implementar várias medidas para garantir que seus sistemas de software estejam em conformidade com a lei. No entanto, a LGPD assim como outras legislações são de difícil entendimento por parte dos profissionais de TI, principalmente para extrair e operacionalizar requisitos legais. Dessa forma, esta pesquisa visa auxiliar analistas de requisitos na especificação dos requisitos de privacidade para garantir sua conformidade com a LGPD. Para atingir este objetivo, foram realizadas entrevistas exploratórias, com o intuito de investigar o ponto de vista de analistas de requisitos ressaltando possíveis desafios enfrentados na especificação de requisitos de privacidade. As entrevistas revelaram os principais achados classificados em cinco categorias: Conceitos de Privacidade, Processo de Conformidade, Obstáculos na Conformidade, Tradeoff entre Privacidade e Transparência, Rotina de Trabalho. A partir da análise dos dados coletados nas entrevistas, foi elaborado um guia chamado G-Priv para apoiar a especificação de requisitos de privacidade em conformidade com a LGPD. O guia proposto possui atividades bem definidas, templates e um catálogo com padrões de requisitos de privacidade. Ao final da pesquisa, executamos um survey com 18 participantes com o objetivo de avaliar a aceitação do G-Priv e dos artefatos propostos no guia. O survey foi conduzido através de um questionário utilizado no formulário no Google Forms, como também foi disponibilizada uma documentação detalhada do guia, apresentando de forma sistemática as suas etapas, interações entre os atores e os templates disponibilizados. Com base na avaliação, o G-Priv foi considerado de fácil entendimento, principalmente na definição dos papeis e responsabilidades dos atores envolvidos nas quatro etapas do guia. Os participantes do survey também ressaltaram a agilidade de utilização do guia. Sendo assim, consideramos que o guia proposto pode auxiliar analistas de requisitos na especificação dos requisitos de privacidade em conformidade com a LGPD.
|
|
8
|
-
MATHEUS BARBOSA DE OLIVEIRA
-
Detecção de conflitos semânticos via análise estática de subistituição de atribuição
-
Orientador : PAULO HENRIQUE MONTEIRO BORBA
-
MEMBROS DA BANCA :
-
EDUARDO FIGUEIREDO
-
MARCIO DE MEDEIROS RIBEIRO
-
PAULO HENRIQUE MONTEIRO BORBA
-
Data: 23/02/2022
-
-
Mostrar Resumo
-
O processo de desenvolvimento de software atual, exceto em casos especiais, é feito de forma colaborativa. Na medida que novos requisitos são levantados, novas tarefas são definidas e alocadas a desenvolvedores diferentes. Os desenvolvedores, no que lhes concerne, adicionam suas modificações em repositórios ou versões separadas e isoladas do código, e posteriormente essas modificações precisam ser integradas em um repositório ou versão central. Esse processo de integração de código é propenso a erros, especialmente se as alterações em diferentes ramos entrarem em conflito. Alguns desses conflitos são mais simples e podem ser detectados pelas ferramentas atuais de controle de versão como o Git, no entanto, ainda necessitam de intervenção humana para resolvê-los, o que afeta a produtividade da equipe. Mas esse não é o único problema, existem também os conflitos semânticos que requerem a compreensão do comportamento do software, que está além dos recursos da maioria das ferramentas de mesclagem existentes. Isso faz com que esses conflitos dificilmente sejam percebidos por revisões ou detectados em testes e chegam até o usuário final como defeito no software. Esse tipo de conflito ocorre quando, no código integrado, as mudanças introduzidas pela versão de um dos desenvolvedores interferem de forma inesperada com as mudanças introduzidas pela versão de outro desenvolvedor, fazendo com o que um contrato pretendido por uma das versões deixe de ser cumprido. Sendo assim, se fazem necessárias ferramentas que possam detectar conflitos desse tipo no processo de integração, de modo a evitar bugs e facilitar a resolução dos mesmos. Nesse sentido, esse trabalho propõe uma análise de substituição de atribuição (Override an Assignment (OA)), que visa detectar interferências entre as alterações introduzidas por dois desenvolvedores diferentes, onde caminhos de gravação, sem atribuições intermediárias, para um alvo comum indicam interferência. Também foi realizada a implementação e avaliação de duas abordagens (interprocedural e intraprocedural) para a análise proposta. Para avaliar as implementações da análise proposta foi usado um conjunto de 72 cenários de integração de código, em que ambas versões integradas modificaram o mesmo método. Esses cenários foram extraídos de projetos open-source Java, minerados por uma ferramenta de mineração de cenários de integração do Github.
-
Mostrar Abstract
-
O processo de desenvolvimento de software atual, exceto em casos especiais, é feito de forma colaborativa. Na medida que novos requisitos são levantados, novas tarefas são definidas e alocadas a desenvolvedores diferentes. Os desenvolvedores, no que lhes concerne, adicionam suas modificações em repositórios ou versões separadas e isoladas do código, e posteriormente essas modificações precisam ser integradas em um repositório ou versão central. Esse processo de integração de código é propenso a erros, especialmente se as alterações em diferentes ramos entrarem em conflito. Alguns desses conflitos são mais simples e podem ser detectados pelas ferramentas atuais de controle de versão como o Git, no entanto, ainda necessitam de intervenção humana para resolvê-los, o que afeta a produtividade da equipe. Mas esse não é o único problema, existem também os conflitos semânticos que requerem a compreensão do comportamento do software, que está além dos recursos da maioria das ferramentas de mesclagem existentes. Isso faz com que esses conflitos dificilmente sejam percebidos por revisões ou detectados em testes e chegam até o usuário final como defeito no software. Esse tipo de conflito ocorre quando, no código integrado, as mudanças introduzidas pela versão de um dos desenvolvedores interferem de forma inesperada com as mudanças introduzidas pela versão de outro desenvolvedor, fazendo com o que um contrato pretendido por uma das versões deixe de ser cumprido. Sendo assim, se fazem necessárias ferramentas que possam detectar conflitos desse tipo no processo de integração, de modo a evitar bugs e facilitar a resolução dos mesmos. Nesse sentido, esse trabalho propõe uma análise de substituição de atribuição (Override an Assignment (OA)), que visa detectar interferências entre as alterações introduzidas por dois desenvolvedores diferentes, onde caminhos de gravação, sem atribuições intermediárias, para um alvo comum indicam interferência. Também foi realizada a implementação e avaliação de duas abordagens (interprocedural e intraprocedural) para a análise proposta. Para avaliar as implementações da análise proposta foi usado um conjunto de 72 cenários de integração de código, em que ambas versões integradas modificaram o mesmo método. Esses cenários foram extraídos de projetos open-source Java, minerados por uma ferramenta de mineração de cenários de integração do Github.
|
|
9
|
-
HELDER PAIXAO FELIX FILHO
-
Análise didaticamente estruturada das correspondências entre Lógicas de Descrições e Lógicas Modais.
-
Orientador : FREDERICO LUIZ GONCALVES DE FREITAS
-
MEMBROS DA BANCA :
-
ANJOLINA GRISI DE OLIVEIRA
-
CLEYTON MÁRIO DE OLIVEIRA RODRIGUES
-
RUAN VASCONCELOS BEZERRA CARVALHO
-
Data: 23/02/2022
-
-
Mostrar Resumo
-
Este trabalho se propõe a apresentar uma análise sobre a correspondência entre ramificações da Lógica Modal com ramificações da Lógica de Descrições. Além disso, este texto tem como principal proposta, pela falta de um material mais palatável, preencher esta lacuna e tornar mais acessível um assunto naturalmente denso lógica e matematicamente. A apresentação didática dos formalismos é feita nos capítulos iniciais; da Lógica de Descrições foi escolhida a linguagem ALC e da Lógica Modal, o sistema K. É demonstrado por que a correspondência não ocorre a princípio, por isso o sistema K é enriquecido para a versão multimodal K_m. Posteriormente é apresentada a Lógica Híbrida: ramificação modal que completa a correspondência com uma base de conhecimento de ALC. Por fim, são escolhidas ramificações que apresentam correspondência entre si: da Lógica de Descrições a linguagem ALC_reg e a Lógica Dinâmica Proposicional, que é ramificação da Lógica Modal.
-
Mostrar Abstract
-
Este trabalho se propõe a apresentar uma análise sobre a correspondência entre ramificações da Lógica Modal com ramificações da Lógica de Descrições. Além disso, este texto tem como principal proposta, pela falta de um material mais palatável, preencher esta lacuna e tornar mais acessível um assunto naturalmente denso lógica e matematicamente. A apresentação didática dos formalismos é feita nos capítulos iniciais; da Lógica de Descrições foi escolhida a linguagem ALC e da Lógica Modal, o sistema K. É demonstrado por que a correspondência não ocorre a princípio, por isso o sistema K é enriquecido para a versão multimodal K_m. Posteriormente é apresentada a Lógica Híbrida: ramificação modal que completa a correspondência com uma base de conhecimento de ALC. Por fim, são escolhidas ramificações que apresentam correspondência entre si: da Lógica de Descrições a linguagem ALC_reg e a Lógica Dinâmica Proposicional, que é ramificação da Lógica Modal.
|
|
10
|
-
MATEUS NUNES DE BARROS MAGALHAES
-
Uma Avaliação da Redundância e do Particionamento de Dados Convencionais e Geoespaciais em Data Warehouses Orientados a Colunas
-
Orientador : ROBSON DO NASCIMENTO FIDALGO
-
MEMBROS DA BANCA :
-
ANDREZA LEITE DE ALENCAR
-
LUCIANO DE ANDRADE BARBOSA
-
ROBSON DO NASCIMENTO FIDALGO
-
Data: 24/02/2022
-
-
Mostrar Resumo
-
A crescente demanda por processamento analítico alinhada a expansão dos ambientes de Big Data colocou em xeque a capacidade do modelo relacional de atender tais aplicações, sem comprometer o desempenho das mesmas ou incorrer em custos exorbitantes. Os bancos de dados NoSQL foram escolhidos como uma alternativa viável para suprir tais necessidades. Eles relaxam os controles de consistência, integridade e transacionais característicos de bancos relacionais para oferecerem mais disponibilidade, poder de processamento paralelo e escalabilidade horizontal. Estudos mostraram que a classe de bancos de dados NoSQL orientados a colunas apresentam bons desempenhos para o uso com finalidades analíticas, pois, os dados de cada coluna são armazenados contiguamente e separados fisicamente das demais colunas. O planejamento de esquemas para os bancos de dados orientados a colunas foi objeto de diversas pesquisas, as quais, avaliaram abordagens normalizadas e desnormalizadas, bem como, as formas mais adequadas de se promover a separação física dos dados de cada coluna. No entanto, esses estudos não consideraram cenários que envolvam dados geoespaciais presentes na base e no escopo das consultas analíticas. Com o intuito de investigar as influências da redundância e do particionamento de dados convencionais e geoespaciais em GDWs orientados a colunas e utilizados com finalidades analíticas, propusemos 40 esquemas que adotam abordagens distintas para modelar os relacionamentos entre fatos e dimensões, entre dimensões convencionais e geoespaciais, e entre as próprias dimensões geoespaciais. Utilizamos o benchmark denominado Spadawan para gerar os dados em conformidade com os esquemas propostos, para os fatores de escala 1 e 10, e avaliar o volume de dados, tempo de ingestão e tempo para a execução de uma carga de consultas geoespaciais em um cluster computacional composto por 4 nós. Nossos resultados evidenciaram que a desnormalização das dimensões convencionais foi a abordagem que mais contribuiu positivamente para a redução dos tempos de execução, apesar de elevar o volume de armazenamento demandado. A normalização das dimensões geográficas de menor seletividade contribuiu com a redução dos tempos de execução, enquanto, a normalização ou desnormalização das mais seletivas não ocasionou impactos positivos ou negativos expressivamente.
-
Mostrar Abstract
-
A crescente demanda por processamento analítico alinhada a expansão dos ambientes de Big Data colocou em xeque a capacidade do modelo relacional de atender tais aplicações, sem comprometer o desempenho das mesmas ou incorrer em custos exorbitantes. Os bancos de dados NoSQL foram escolhidos como uma alternativa viável para suprir tais necessidades. Eles relaxam os controles de consistência, integridade e transacionais característicos de bancos relacionais para oferecerem mais disponibilidade, poder de processamento paralelo e escalabilidade horizontal. Estudos mostraram que a classe de bancos de dados NoSQL orientados a colunas apresentam bons desempenhos para o uso com finalidades analíticas, pois, os dados de cada coluna são armazenados contiguamente e separados fisicamente das demais colunas. O planejamento de esquemas para os bancos de dados orientados a colunas foi objeto de diversas pesquisas, as quais, avaliaram abordagens normalizadas e desnormalizadas, bem como, as formas mais adequadas de se promover a separação física dos dados de cada coluna. No entanto, esses estudos não consideraram cenários que envolvam dados geoespaciais presentes na base e no escopo das consultas analíticas. Com o intuito de investigar as influências da redundância e do particionamento de dados convencionais e geoespaciais em GDWs orientados a colunas e utilizados com finalidades analíticas, propusemos 40 esquemas que adotam abordagens distintas para modelar os relacionamentos entre fatos e dimensões, entre dimensões convencionais e geoespaciais, e entre as próprias dimensões geoespaciais. Utilizamos o benchmark denominado Spadawan para gerar os dados em conformidade com os esquemas propostos, para os fatores de escala 1 e 10, e avaliar o volume de dados, tempo de ingestão e tempo para a execução de uma carga de consultas geoespaciais em um cluster computacional composto por 4 nós. Nossos resultados evidenciaram que a desnormalização das dimensões convencionais foi a abordagem que mais contribuiu positivamente para a redução dos tempos de execução, apesar de elevar o volume de armazenamento demandado. A normalização das dimensões geográficas de menor seletividade contribuiu com a redução dos tempos de execução, enquanto, a normalização ou desnormalização das mais seletivas não ocasionou impactos positivos ou negativos expressivamente.
|
|
11
|
-
CAIO AUGUSTO PEREIRA BURGARDT
-
Detecção de malware no macOS usando aprendizado supervisionado
-
Orientador : DIVANILSON RODRIGO DE SOUSA CAMPELO
-
MEMBROS DA BANCA :
-
DANIEL CARVALHO DA CUNHA
-
DIVANILSON RODRIGO DE SOUSA CAMPELO
-
RAFAEL TIMOTEO DE SOUSA JUNIOR
-
Data: 25/02/2022
-
-
Mostrar Resumo
-
O desenvolvimento de malware para macOS cresceu significativamente nos últimos anos. Os invasores se tornaram mais sofisticados e mais direcionados com o surgimento de novas famílias de malware perigosas para o macOS. No entanto, como o problema de detecção de malware é muito dependente da plataforma, as soluções propostas anteriormente para outros sistemas operacionais não podem ser usadas diretamente no macOS. A detecção de malware é um dos principais pilares da segurança de endpoints. Infelizmente, houve muito poucos trabalhos sobre a segurança de endpoint do macOS, fazendo dessa área território pouco investigado. Atualmente, o único mecanismo de detecção de malware no macOS é um sistema baseado em assinatura com menos de 200 regras em 2021. Trabalhos recentes que tentaram melhorar a detecção de malwares no macOS têm limitações de metodologia, como a falta de um grande conjunto de dados de malware do macOS e problemas que surgem com conjuntos de dados em classes desequilibradas. Nessa dissertação, trazemos o problema de detecção de malware para o sistema operacional macOS e avaliamos como algoritmos de aprendizado de máquina supervisionados podem ser usados para melhorar a segurança de endpoint do ecossistema macOS. Criamos um novo e maior conjunto de dados de 631 malwares e 10.141 softwares benignos usando fontes públicas e extraindo informações do formato Mach-O. Avaliamos o desempenho de sete algoritmos de aprendizado de máquina diferentes, duas estratégias de amostragem e quatro técnicas de redução de recursos na detecção de malwares no macOS. Como resultado, apresentamos modelos melhores que as proteções nativas do macOS, com taxas de detecção superiores a 90% e mantendo uma taxa de alarmes falsos inferior a 1%. Nossos modelos demonstram com sucesso que a segurança do macOS pode ser aprimorada usando características estáticas de executáveis nativos em combinação com algoritmos populares de aprendizagem de máquina.
-
Mostrar Abstract
-
O desenvolvimento de malware para macOS cresceu significativamente nos últimos anos. Os invasores se tornaram mais sofisticados e mais direcionados com o surgimento de novas famílias de malware perigosas para o macOS. No entanto, como o problema de detecção de malware é muito dependente da plataforma, as soluções propostas anteriormente para outros sistemas operacionais não podem ser usadas diretamente no macOS. A detecção de malware é um dos principais pilares da segurança de endpoints. Infelizmente, houve muito poucos trabalhos sobre a segurança de endpoint do macOS, fazendo dessa área território pouco investigado. Atualmente, o único mecanismo de detecção de malware no macOS é um sistema baseado em assinatura com menos de 200 regras em 2021. Trabalhos recentes que tentaram melhorar a detecção de malwares no macOS têm limitações de metodologia, como a falta de um grande conjunto de dados de malware do macOS e problemas que surgem com conjuntos de dados em classes desequilibradas. Nessa dissertação, trazemos o problema de detecção de malware para o sistema operacional macOS e avaliamos como algoritmos de aprendizado de máquina supervisionados podem ser usados para melhorar a segurança de endpoint do ecossistema macOS. Criamos um novo e maior conjunto de dados de 631 malwares e 10.141 softwares benignos usando fontes públicas e extraindo informações do formato Mach-O. Avaliamos o desempenho de sete algoritmos de aprendizado de máquina diferentes, duas estratégias de amostragem e quatro técnicas de redução de recursos na detecção de malwares no macOS. Como resultado, apresentamos modelos melhores que as proteções nativas do macOS, com taxas de detecção superiores a 90% e mantendo uma taxa de alarmes falsos inferior a 1%. Nossos modelos demonstram com sucesso que a segurança do macOS pode ser aprimorada usando características estáticas de executáveis nativos em combinação com algoritmos populares de aprendizagem de máquina.
|
|
12
|
-
DENINI GABRIEL SILVA
-
Usando Ruído para Detectar Testes Flakiness
-
Orientador : MARCELO BEZERRA D AMORIM
-
MEMBROS DA BANCA :
-
LEOPOLDO MOTTA TEIXEIRA
-
MARCELO BEZERRA D AMORIM
-
MARCIO DE MEDEIROS RIBEIRO
-
Data: 25/02/2022
-
-
Mostrar Resumo
-
Diz-se que um teste é flaky quando passa ou falha de forma não determinística em diferentes execuções na mesma configuração (por exemplo, código). O teste flaky afeta negativamente o teste de regressão, pois as observações de falha não são necessariamente uma indicação de bugs no programa. Técnicas estáticas e dinâmicas para detecção de testes flaky têm sido propostas na literatura, mas são limitadas. Estudos anteriores mostraram que a flakiness do teste é causada principalmente por comportamento concorrente. Com base nessa observação, levantamos a hipótese de que a adição de ruído no ambiente pode interferir na ordenação dos eventos do programa e, consequentemente, influenciar nas saídas dos testes. Propomos o Shaker, uma técnica prática para detectar testes flaky comparando as saídas de várias execuções de teste em ambientes ruidosos. Comparado com uma execução de teste regular, uma execução de teste com o Shaker é mais lenta à medida que o ambiente é carregado, ou seja, o processo de teste compete por recursos (por exemplo, memória ou cpu) com tarefas estressantes que o Shaker cria. No entanto, conjecturas que o Shaker compensa ao detectar falhas em menos execuções em comparação com a alternativa de executar o conjunto de testes várias vezes em um ambiente regular (sem ruído). . Por exemplo, descobrimos que (1) Shaker é 96% preciso; é quase tão preciso quanto o ReRun, que por definição não relata falsos positivos, que (2) o recall do Shaker é muito maior em comparação com o do ReRun (0,95 versus 0,65), e que (3) o Shaker detecta testes irregulares com muito mais eficiência do que ReRun, apesar da sobrecarga de execução imposta pela abordagem. Em resumo, os resultados indicam que o ruído é uma abordagem promissora para detectar descamação.
-
Mostrar Abstract
-
Diz-se que um teste é flaky quando passa ou falha de forma não determinística em diferentes execuções na mesma configuração (por exemplo, código). O teste flaky afeta negativamente o teste de regressão, pois as observações de falha não são necessariamente uma indicação de bugs no programa. Técnicas estáticas e dinâmicas para detecção de testes flaky têm sido propostas na literatura, mas são limitadas. Estudos anteriores mostraram que a flakiness do teste é causada principalmente por comportamento concorrente. Com base nessa observação, levantamos a hipótese de que a adição de ruído no ambiente pode interferir na ordenação dos eventos do programa e, consequentemente, influenciar nas saídas dos testes. Propomos o Shaker, uma técnica prática para detectar testes flaky comparando as saídas de várias execuções de teste em ambientes ruidosos. Comparado com uma execução de teste regular, uma execução de teste com o Shaker é mais lenta à medida que o ambiente é carregado, ou seja, o processo de teste compete por recursos (por exemplo, memória ou cpu) com tarefas estressantes que o Shaker cria. No entanto, conjecturas que o Shaker compensa ao detectar falhas em menos execuções em comparação com a alternativa de executar o conjunto de testes várias vezes em um ambiente regular (sem ruído). . Por exemplo, descobrimos que (1) Shaker é 96% preciso; é quase tão preciso quanto o ReRun, que por definição não relata falsos positivos, que (2) o recall do Shaker é muito maior em comparação com o do ReRun (0,95 versus 0,65), e que (3) o Shaker detecta testes irregulares com muito mais eficiência do que ReRun, apesar da sobrecarga de execução imposta pela abordagem. Em resumo, os resultados indicam que o ruído é uma abordagem promissora para detectar descamação.
|
|
13
|
-
JOÃO ALEXANDRE DA SILVA NETO
-
DAOS: A drift adaptive system for offloading CEP in Edge Computing
-
Orientador : KIEV SANTOS DA GAMA
-
MEMBROS DA BANCA :
-
FERNANDO ANTONIO MOTA TRINTA
-
KIEV SANTOS DA GAMA
-
ROBERTO SOUTO MAIOR DE BARROS
-
Data: 25/02/2022
-
-
Mostrar Resumo
-
Complex Event Processing (CEP) é um paradigma utilizado para identificar padrões em um fluxo de eventos, viabilizando aplicações para detecção de fraudes financeiras ou anomalias em redes de computadores. Além disso, outro paradigma chamado Edge Computing é utilizado para estender o CEP e possibilitar que o mesmo seja implantado em dispositivos que ficam mais próximos da origem dos eventos. Consequentemente, isso viabiliza aplicações críticas, onde o tempo de resposta é um fator importante. Um dos desafios nesse cenário é manter essas aplicações sendo executadas na borda com um uso otimizado de recursos e atendendo aos requisitos de tempo de resposta. Para resolver isso, soluções do estado-da-arte sugerem estratégias de offloading computacional para distribuir o processamento entre os dispositivos de borda e uma instância mais robusta na cloud. As técnicas tradicionais de offloading usam um mecanismo baseado em políticas, comparando o uso atual de recursos com limites manualmente especificados. No entanto, essas técnicas são pouco adaptáveis à mudanças ao longo do tempo, exigindo que as políticas sejam constantemente reconfiguradas por especialistas do domínio. Uma solução para isso é utilizar aprendizagem de máquina para aprender com os dados contextuais dos dispositivos e auxiliar o processo de decisão de maneira inteligente. Contudo, os dispositivos de borda possuem limitações de recursos quando comparado com a cloud, dificultando o uso de modelos tradicionais de aprendizagem. Por essa razão, são escolhidos modelos que aprendem de maneira incremental, não dependem de histórico de dados e se adaptam à ocorrência de concept drifts. Portanto, este trabalho propõe a solução DAOS (Drift Adaptive Offloading System), que tem como objetivo utilizar aprendizagem online e detecção de concept drifts no processo de tomada de decisão de offloading, visando otimizar a execução de aplicações CEP na borda. Além disso, ele adota um mecanismo de fallback para utilizar políticas estáticas enquanto os modelos de inteligência não forem confiáveis. Essa proposta é analisada através de uma avaliação de performance que compara o DAOS com a abordagem puramente baseada em políticas, variando a complexidade da aplicação e a taxa de transferência dos dados. A avaliação mostrou que existe uma diferença estatisticamente significativa entre as duas abordagens, evidenciando que as técnicas adotadas pelo DAOS melhoram as decisões de offloading de aplicações CEP na borda.
-
Mostrar Abstract
-
Complex Event Processing (CEP) é um paradigma utilizado para identificar padrões em um fluxo de eventos, viabilizando aplicações para detecção de fraudes financeiras ou anomalias em redes de computadores. Além disso, outro paradigma chamado Edge Computing é utilizado para estender o CEP e possibilitar que o mesmo seja implantado em dispositivos que ficam mais próximos da origem dos eventos. Consequentemente, isso viabiliza aplicações críticas, onde o tempo de resposta é um fator importante. Um dos desafios nesse cenário é manter essas aplicações sendo executadas na borda com um uso otimizado de recursos e atendendo aos requisitos de tempo de resposta. Para resolver isso, soluções do estado-da-arte sugerem estratégias de offloading computacional para distribuir o processamento entre os dispositivos de borda e uma instância mais robusta na cloud. As técnicas tradicionais de offloading usam um mecanismo baseado em políticas, comparando o uso atual de recursos com limites manualmente especificados. No entanto, essas técnicas são pouco adaptáveis à mudanças ao longo do tempo, exigindo que as políticas sejam constantemente reconfiguradas por especialistas do domínio. Uma solução para isso é utilizar aprendizagem de máquina para aprender com os dados contextuais dos dispositivos e auxiliar o processo de decisão de maneira inteligente. Contudo, os dispositivos de borda possuem limitações de recursos quando comparado com a cloud, dificultando o uso de modelos tradicionais de aprendizagem. Por essa razão, são escolhidos modelos que aprendem de maneira incremental, não dependem de histórico de dados e se adaptam à ocorrência de concept drifts. Portanto, este trabalho propõe a solução DAOS (Drift Adaptive Offloading System), que tem como objetivo utilizar aprendizagem online e detecção de concept drifts no processo de tomada de decisão de offloading, visando otimizar a execução de aplicações CEP na borda. Além disso, ele adota um mecanismo de fallback para utilizar políticas estáticas enquanto os modelos de inteligência não forem confiáveis. Essa proposta é analisada através de uma avaliação de performance que compara o DAOS com a abordagem puramente baseada em políticas, variando a complexidade da aplicação e a taxa de transferência dos dados. A avaliação mostrou que existe uma diferença estatisticamente significativa entre as duas abordagens, evidenciando que as técnicas adotadas pelo DAOS melhoram as decisões de offloading de aplicações CEP na borda.
|
|
14
|
-
LARISSA RODRIGUES DA COSTA
-
NFR4TRUST: CATÁLOGO DE REQUISITOS NÃO-FUNCIONAIS DE CONFIANÇA PARA ROBÔS SOCIALMENTE ASSISTIVOS
-
Orientador : JAELSON FREIRE BRELAZ DE CASTRO
-
MEMBROS DA BANCA :
-
JULIO CESAR SAMPAIO DO PRADO LEITE
-
JAELSON FREIRE BRELAZ DE CASTRO
-
JUDITH KELNER
-
Data: 03/03/2022
-
-
Mostrar Resumo
-
Contexto: No campo de pesquisa da Robótica Socialmente Assistiva (Socially As-sistive Robotics - SAR) o estudo da Interação Humano-Robô (Human Robot-Interaction- HRI) tem o importante papel de indagar a forma como o aspecto humano e robótico colaboram entre si e qual o espaço do robô na vida humana. Alguns aspectos vêm sendo bastante estudados na literatura, dentre eles a confiança, que é considerada crucial para uma interação bem sucedida entre Homem-Robô. A Engenharia de Requisitos pode contribuir para compreender, modelar e analisar quais requisitos são fundamentais, melhorando assim a aceitação da utilização desses robôs. Objetivo: Essa pesquisa propôs a construção de um catálogo de Requisitos Não-Funcionais de confiança para Robôs Socialmente Assistivos (Socially Assistive Robots - SARs) chamado NFR4TRUST, que pode ajudara elicitar e especificar requisitos não-funcionais que melhoram a confiança humana na utilização de robôs neste domínio. Método: Foi realizado um levantamento bibliográfico visando verificar o estado da arte em HRI no contexto de confiança e a partir deste estudo, foi construída uma proposta de taxonomia de confiança para SARs que auxilia na descoberta de requisitos. A validação do catálogo proposto foi realizada através de uma Prova de Conceito (PoC), entrevista com especialistas das áreas relacionadas e um questionário para obter a opinião de engenheiros de requisitos. O uso do catálogo NFR4TRUST foi ilustrado através de sua aplicação na definição de requisitos de confiança de um robô socialmente assistivo que auxilia na reabilitação de membros superiores. Resultados: Com este trabalho criamos o Catálogo NFR4TRUST que apresenta um conjunto de Requisitos Não-Funcionais relacionados a confiança que podem ser levados em consideração em desenvolvimento de projetos com Robôs Socialmente Assistivos e sua utilização pode melhorar a confiança no robô. Conclusão: Os resultados deste trabalho apontaram que com a utilização do catálogo NFR4TRUST é possível apoiar as etapas de elicitação e especificação em projetos de SARs permitindo identificar preocupações iniciais sobre a perspectiva de confiança do usuário e projetar formas de mitigá-las.
-
Mostrar Abstract
-
Contexto: No campo de pesquisa da Robótica Socialmente Assistiva (Socially As-sistive Robotics - SAR) o estudo da Interação Humano-Robô (Human Robot-Interaction- HRI) tem o importante papel de indagar a forma como o aspecto humano e robótico colaboram entre si e qual o espaço do robô na vida humana. Alguns aspectos vêm sendo bastante estudados na literatura, dentre eles a confiança, que é considerada crucial para uma interação bem sucedida entre Homem-Robô. A Engenharia de Requisitos pode contribuir para compreender, modelar e analisar quais requisitos são fundamentais, melhorando assim a aceitação da utilização desses robôs. Objetivo: Essa pesquisa propôs a construção de um catálogo de Requisitos Não-Funcionais de confiança para Robôs Socialmente Assistivos (Socially Assistive Robots - SARs) chamado NFR4TRUST, que pode ajudara elicitar e especificar requisitos não-funcionais que melhoram a confiança humana na utilização de robôs neste domínio. Método: Foi realizado um levantamento bibliográfico visando verificar o estado da arte em HRI no contexto de confiança e a partir deste estudo, foi construída uma proposta de taxonomia de confiança para SARs que auxilia na descoberta de requisitos. A validação do catálogo proposto foi realizada através de uma Prova de Conceito (PoC), entrevista com especialistas das áreas relacionadas e um questionário para obter a opinião de engenheiros de requisitos. O uso do catálogo NFR4TRUST foi ilustrado através de sua aplicação na definição de requisitos de confiança de um robô socialmente assistivo que auxilia na reabilitação de membros superiores. Resultados: Com este trabalho criamos o Catálogo NFR4TRUST que apresenta um conjunto de Requisitos Não-Funcionais relacionados a confiança que podem ser levados em consideração em desenvolvimento de projetos com Robôs Socialmente Assistivos e sua utilização pode melhorar a confiança no robô. Conclusão: Os resultados deste trabalho apontaram que com a utilização do catálogo NFR4TRUST é possível apoiar as etapas de elicitação e especificação em projetos de SARs permitindo identificar preocupações iniciais sobre a perspectiva de confiança do usuário e projetar formas de mitigá-las.
|
|
15
|
-
RENATO ATOUGUIA LEITE
-
SAAS PROCESS - Um Processo de Desenvolvimento para Software Como Serviço
-
Orientador : ALEXANDRE MARCOS LINS DE VASCONCELOS
-
MEMBROS DA BANCA :
-
ALEXANDRE MARCOS LINS DE VASCONCELOS
-
RAFAEL PRIKLADNICKI
-
VINICIUS CARDOSO GARCIA
-
Data: 03/03/2022
-
-
Mostrar Resumo
-
Estima-se que mais de 50% do custo em torno de um software ocorra na fase de evolução, podendo chegar a 90% em alguns casos. Considerando modelos de desenvolvimento, surgiram modelos de negócio sustentados na evolução de plataformas, como o Software as a Service – SaaS. Nesse modelo de entrega, métodos ágeis têm tido um papel importante, entregando software com time-to-market adequado, mas com desafios relacionados às mudanças constantes de backlogs. Isso porque novas features precisam de entregas contínuas e imediatas que o modelo de serviço naturalmente carrega consigo. Desta forma, analisar o impacto do modelo de entrega de software como serviço sobre as metodologias ágeis e propor um novo processo de desenvolvimento de software, considerando aspectos de documentação, qualidade de código, auto-gestão dos times e a instanciação de processos definidos nas metodologias comumente adotadas pela indústria, foi o objetivo desse trabalho. Para execução da pesquisa se fez uso de um mapeamento sistemático da literatura para evidenciar o uso de metodologias ágeis durante a atividade de evolução de software em processos de manutenção. Adicionalmente, foram aplicados questionários e entrevistas junto a atores que possuam papéis de gerência de equipes e priorização de backlogs. Como última etapa e a fim de confrontar os dados, foi analisado os resultados de uma pesquisa-ação executada durante toda extensão do trabalho em uma empresa de software paraibana. O resultado consistiu em uma generalização interpretativa com ênfase qualitativa do case observado e das evidências coletadas através demais métodos. Conforme o mapeamento sistemático da literatura, evidenciou-se que os processos de desenvolvimento de software que fazem uso de metodologias ágeis tradicionais, como Scrum, geram tensões nos times que executam manutenção de software, por não permitirem mudanças nas janelas de entregas e escopos, características essas encontradas em ambientes no modelo SaaS, onde as atividades de manutenção precisam ser resolvidas com rapidez. Neste contexto, o uso das técnicas e ferramentas, como metodologia se apresentam em maior consonância aos métodos tradicionais isolados, uma vez que trabalham com o conceito de entrega contínua, DevOps e times autogerenciados.
-
Mostrar Abstract
-
Estima-se que mais de 50% do custo em torno de um software ocorra na fase de evolução, podendo chegar a 90% em alguns casos. Considerando modelos de desenvolvimento, surgiram modelos de negócio sustentados na evolução de plataformas, como o Software as a Service – SaaS. Nesse modelo de entrega, métodos ágeis têm tido um papel importante, entregando software com time-to-market adequado, mas com desafios relacionados às mudanças constantes de backlogs. Isso porque novas features precisam de entregas contínuas e imediatas que o modelo de serviço naturalmente carrega consigo. Desta forma, analisar o impacto do modelo de entrega de software como serviço sobre as metodologias ágeis e propor um novo processo de desenvolvimento de software, considerando aspectos de documentação, qualidade de código, auto-gestão dos times e a instanciação de processos definidos nas metodologias comumente adotadas pela indústria, foi o objetivo desse trabalho. Para execução da pesquisa se fez uso de um mapeamento sistemático da literatura para evidenciar o uso de metodologias ágeis durante a atividade de evolução de software em processos de manutenção. Adicionalmente, foram aplicados questionários e entrevistas junto a atores que possuam papéis de gerência de equipes e priorização de backlogs. Como última etapa e a fim de confrontar os dados, foi analisado os resultados de uma pesquisa-ação executada durante toda extensão do trabalho em uma empresa de software paraibana. O resultado consistiu em uma generalização interpretativa com ênfase qualitativa do case observado e das evidências coletadas através demais métodos. Conforme o mapeamento sistemático da literatura, evidenciou-se que os processos de desenvolvimento de software que fazem uso de metodologias ágeis tradicionais, como Scrum, geram tensões nos times que executam manutenção de software, por não permitirem mudanças nas janelas de entregas e escopos, características essas encontradas em ambientes no modelo SaaS, onde as atividades de manutenção precisam ser resolvidas com rapidez. Neste contexto, o uso das técnicas e ferramentas, como metodologia se apresentam em maior consonância aos métodos tradicionais isolados, uma vez que trabalham com o conceito de entrega contínua, DevOps e times autogerenciados.
|
|
16
|
-
DENISSON AUGUSTO BASTOS LEAL
-
Ensembles Dinâmicos para Detecção de Concept Drift em Séries Temporais
-
Orientador : ADRIANO LORENA INACIO DE OLIVEIRA
-
MEMBROS DA BANCA :
-
ADRIANO LORENA INACIO DE OLIVEIRA
-
JARLEY PALMEIRA NOBREGA
-
PAULO SALGADO GOMES DE MATTOS NETO
-
Data: 03/03/2022
-
-
Mostrar Resumo
-
Séries temporais são medições realizadas em um intervalo fixo de tempo, que podem ser usadas em diversos tipos de problemas. Elas são estudadas por diversas áreas a fim de compreender as características de sua geração. Existe uma área mais específica de previsão de séries temporais que busca capturar a tendência e encontrar um padrão dos movimentos em situações que já ocorreram para prever a próxima observação da série. Porém, ao longo do tempo podem acontecer alguns eventos que mudam todo o contexto da série, o concept drift, e o conhecimento armazenado da série pode não refletir mais a realidade da série após esse evento. Então, quando um modelo de aprendizado de máquina é treinado para realizar previsões e um concept drift acontece, esse modelo passa a ficar defasado e para a atualização do modelo, alguns pontos do novo conceito precisam ser capturados e armazenados, até serem suficientes para um novo treinamento. Durante esse período de coleta de dados os modelos aumentam exponencialmente seu erro, afetando o desempenho geral do sistema de previsão e dependendo da frequência em que o concept drift aconteça, pode inviabilizar o seu uso. O objetivo deste trabalho é propor um método para previsão de séries temporais na presença de concept drift, minimizando o impacto da redução do desempenho preditivo durante o processo de adaptação ao novo conceito. Para isso foram propostos três métodos que usam o conceito antigo para melhorar o desempenho nessa fase de adaptação. Os métodos usam PSO para otimização do treinamento de partículas ELM, que são usadas na previsão e como sensores para detecção concept drift. O primeiro método usa um ensemble com todas as partículas treinadas. O segundo usa uma combinação, usando o algoritmo guloso, das melhores partículas quando o concept drift é detectado até a sua adaptação. E o terceiro usa a melhor combinação das partículas desde o início e atualiza a combinação depois da detecção de um concept drift. Todos os métodos propostos fazem adaptação para o novo conceito depois de ter dados suficientes para o treinamento. Nos experimentos foram usadas sete séries, sendo elas quatro geradas sinteticamente com concept drift conhecidos e três séries reais de índices do mercado financeiro com concept drift desconhecidos. Os resultados do experimento foram comparados com métodos disponíveis na literatura e os métodos propostos que se adaptam usando uma combinação das melhores partículas conseguiram resultados melhores com significância estatística. Mostrando que, o período de adaptação do método ao novo conceito é relevante no erro geral da previsão e que o treinamento anterior pode ajudar a reduzir esse erro.
-
Mostrar Abstract
-
Séries temporais são medições realizadas em um intervalo fixo de tempo, que podem ser usadas em diversos tipos de problemas. Elas são estudadas por diversas áreas a fim de compreender as características de sua geração. Existe uma área mais específica de previsão de séries temporais que busca capturar a tendência e encontrar um padrão dos movimentos em situações que já ocorreram para prever a próxima observação da série. Porém, ao longo do tempo podem acontecer alguns eventos que mudam todo o contexto da série, o concept drift, e o conhecimento armazenado da série pode não refletir mais a realidade da série após esse evento. Então, quando um modelo de aprendizado de máquina é treinado para realizar previsões e um concept drift acontece, esse modelo passa a ficar defasado e para a atualização do modelo, alguns pontos do novo conceito precisam ser capturados e armazenados, até serem suficientes para um novo treinamento. Durante esse período de coleta de dados os modelos aumentam exponencialmente seu erro, afetando o desempenho geral do sistema de previsão e dependendo da frequência em que o concept drift aconteça, pode inviabilizar o seu uso. O objetivo deste trabalho é propor um método para previsão de séries temporais na presença de concept drift, minimizando o impacto da redução do desempenho preditivo durante o processo de adaptação ao novo conceito. Para isso foram propostos três métodos que usam o conceito antigo para melhorar o desempenho nessa fase de adaptação. Os métodos usam PSO para otimização do treinamento de partículas ELM, que são usadas na previsão e como sensores para detecção concept drift. O primeiro método usa um ensemble com todas as partículas treinadas. O segundo usa uma combinação, usando o algoritmo guloso, das melhores partículas quando o concept drift é detectado até a sua adaptação. E o terceiro usa a melhor combinação das partículas desde o início e atualiza a combinação depois da detecção de um concept drift. Todos os métodos propostos fazem adaptação para o novo conceito depois de ter dados suficientes para o treinamento. Nos experimentos foram usadas sete séries, sendo elas quatro geradas sinteticamente com concept drift conhecidos e três séries reais de índices do mercado financeiro com concept drift desconhecidos. Os resultados do experimento foram comparados com métodos disponíveis na literatura e os métodos propostos que se adaptam usando uma combinação das melhores partículas conseguiram resultados melhores com significância estatística. Mostrando que, o período de adaptação do método ao novo conceito é relevante no erro geral da previsão e que o treinamento anterior pode ajudar a reduzir esse erro.
|
|
17
|
-
MARIA CECILIA CAVALCANTI JUCA
-
Como startups e corporações se envolvem em iniciativas de inovação aberta? Um estudo exploratório
-
Orientador : CARINA FROTA ALVES
-
MEMBROS DA BANCA :
-
CARINA FROTA ALVES
-
GIORDANO RIBEIRO EULALIO CABRAL
-
IVAN DO CARMO MACHADO
-
Data: 03/03/2022
-
-
Mostrar Resumo
-
Nos últimos anos, a crescente pressão do mercado e o constante surgimento de novas tecnologias levaram as empresas a realizar transformações digitais para criar valor e entregar melhores produtos ou serviços para os clientes. As corporações enfrentam vários desafios quando se trata de incorporar novas tecnologias ou acelerar e digitalizar seus processos bem estabelecidos. Por outro lado, as startups são reconhecidas por sua capacidade de inovação, disposição para assumir riscos, soluções escaláveis e processos ágeis. Na busca por velocidade e inovação, as corporações estão se engajando com startups para atingir objetivos complementares. As corporações desejam o potencial criativo das startups, enquanto as startups precisam de recursos abundantes nas corporações. Portanto, identificamos o crescente interesse de corporações e startups em se envolverem por meio de iniciativas de inovação aberta. Esta pesquisa explora como a inovação aberta é realizada na perspectiva de startups e corporações. Identificamos uma oportunidade de explorar as relações startup-corporação no Porto Digital, um dos ecossistemas de inovação mais relevantes do Brasil. Em um estudo exploratório, realizamos entrevistas semiestruturadas em oito startups e cinco corporações para entender a dinâmica de seus relacionamentos durante iniciativas de inovação aberta. Todas as oito startups fazem parte do Porto Digital, e as corporações foram selecionadas devido ao relacionamento com as startups estudadas. Nossos resultados revelam os principais direcionadores, benefícios e desafios envolvidos no engajamento entre startups e corporações. Por fim, apresentamos um conjunto de recomendações para estabelecer e fomentar as relações startup-corporação.
-
Mostrar Abstract
-
Nos últimos anos, a crescente pressão do mercado e o constante surgimento de novas tecnologias levaram as empresas a realizar transformações digitais para criar valor e entregar melhores produtos ou serviços para os clientes. As corporações enfrentam vários desafios quando se trata de incorporar novas tecnologias ou acelerar e digitalizar seus processos bem estabelecidos. Por outro lado, as startups são reconhecidas por sua capacidade de inovação, disposição para assumir riscos, soluções escaláveis e processos ágeis. Na busca por velocidade e inovação, as corporações estão se engajando com startups para atingir objetivos complementares. As corporações desejam o potencial criativo das startups, enquanto as startups precisam de recursos abundantes nas corporações. Portanto, identificamos o crescente interesse de corporações e startups em se envolverem por meio de iniciativas de inovação aberta. Esta pesquisa explora como a inovação aberta é realizada na perspectiva de startups e corporações. Identificamos uma oportunidade de explorar as relações startup-corporação no Porto Digital, um dos ecossistemas de inovação mais relevantes do Brasil. Em um estudo exploratório, realizamos entrevistas semiestruturadas em oito startups e cinco corporações para entender a dinâmica de seus relacionamentos durante iniciativas de inovação aberta. Todas as oito startups fazem parte do Porto Digital, e as corporações foram selecionadas devido ao relacionamento com as startups estudadas. Nossos resultados revelam os principais direcionadores, benefícios e desafios envolvidos no engajamento entre startups e corporações. Por fim, apresentamos um conjunto de recomendações para estabelecer e fomentar as relações startup-corporação.
|
|
18
|
-
RAPHAEL CRESPO PEREIRA
-
Otimização de Combinação de Modelos para Previsão de Consumo de Energia
-
Orientador : PAULO SALGADO GOMES DE MATTOS NETO
-
MEMBROS DA BANCA :
-
LUCIANO DE ANDRADE BARBOSA
-
MANOEL HENRIQUE DA NÓBREGA MARINHO
-
PAULO SALGADO GOMES DE MATTOS NETO
-
Data: 07/03/2022
-
-
Mostrar Resumo
-
A previsão do consumo de energia elétrica é um processo que permite a melhoria de tomada de decisões auxiliando na gestão e gerenciamento de consumo em edifícios de pequeno porte, graças aos avanços dos medidores inteligentes. Na literatura pode-se observar que a previsão de consumo de energia é um problema desafiador por ser um tipo de série temporal composta de correlações lineares e não-lineares. Por este motivo, os modelos estatísticos clássicos que são amplamente utilizados na literatura, possuem uma capacidade limitada de identificar todos os padrões da série, já que tais modelos são construídos considerando uma correlação linear dos dados. Assim, a utilização de modelos não-lineares baseados em Aprendizagem de Máquina (AM), se mostram bons candidatos por serem capazes de identificar os padrões não- lineares. Além da utilização destes modelos, existem trabalhos que mostram um ganho de desempenho com a utilização de Sistemas Híbridos, na qual realizam a combinação dos modelos lineares estatísticos com modelos não-lineares de AM. Tal combinação considera que o resíduo dos modelos lineares, ou seja, a série composta pela diferença entre o real e o previsto, possui padrões não-lineares que não foram captados. Este trabalho propõe uma nova abordagem baseada na utilização de Sistemas Híbridos Inteligentes composta por três modelos, sendo eles: modelo linear para realizar a extração dos padrões lineares da série temporal, modelo não-linear para realizar a extração dos padrões não-lineares presentes na série de resíduos e um modelo de combinação que considera que existe uma relação não linear entre a série temporal, a série de resíduos, a previsão da série temporal e a previsão da série de resíduos. Para contornar os problemas de seleção dos dados que serão utilizados como entrada (lags) e a escolha subótima dos hiperparâmetros dos modelos de AM, a metodologia proposta possui 2 etapas de otimização, sendo uma delas na seleção da quantidade de lags e dos hiperparâmetros do modelo de resíduos; e a outra no modelo de combinação, realizando a seleção dos hiperparâmetros e da quantidade de lags de cada uma das quatro séries utilizadas como dados de entrada (Real, Resíduos, Previsão da Real e Previsão dos Resíduos). Desta forma o sistema se mostra flexível por permitir explorar diferentes combinações das séries e assim avaliar unificadamente diferentes propostas de combinações que são encontradas na literatura. Nos experimentos realizados foram utilizados o ARIMA como modelo linear e LSTM como modelo não-linear. Para o modelo de combinação foram testados o XGBoost e SVR e o Tree Parzen Estimator como algoritmo de otimização. Os resultados encontrados apresentaram um desempenho superior ao estado da arte para previsão do consumo de energia, a partir de dados de medidores inteligentes utilizando as métricas clássicas de avaliação de modelos de previsão de série temporal.
-
Mostrar Abstract
-
A previsão do consumo de energia elétrica é um processo que permite a melhoria de tomada de decisões auxiliando na gestão e gerenciamento de consumo em edifícios de pequeno porte, graças aos avanços dos medidores inteligentes. Na literatura pode-se observar que a previsão de consumo de energia é um problema desafiador por ser um tipo de série temporal composta de correlações lineares e não-lineares. Por este motivo, os modelos estatísticos clássicos que são amplamente utilizados na literatura, possuem uma capacidade limitada de identificar todos os padrões da série, já que tais modelos são construídos considerando uma correlação linear dos dados. Assim, a utilização de modelos não-lineares baseados em Aprendizagem de Máquina (AM), se mostram bons candidatos por serem capazes de identificar os padrões não- lineares. Além da utilização destes modelos, existem trabalhos que mostram um ganho de desempenho com a utilização de Sistemas Híbridos, na qual realizam a combinação dos modelos lineares estatísticos com modelos não-lineares de AM. Tal combinação considera que o resíduo dos modelos lineares, ou seja, a série composta pela diferença entre o real e o previsto, possui padrões não-lineares que não foram captados. Este trabalho propõe uma nova abordagem baseada na utilização de Sistemas Híbridos Inteligentes composta por três modelos, sendo eles: modelo linear para realizar a extração dos padrões lineares da série temporal, modelo não-linear para realizar a extração dos padrões não-lineares presentes na série de resíduos e um modelo de combinação que considera que existe uma relação não linear entre a série temporal, a série de resíduos, a previsão da série temporal e a previsão da série de resíduos. Para contornar os problemas de seleção dos dados que serão utilizados como entrada (lags) e a escolha subótima dos hiperparâmetros dos modelos de AM, a metodologia proposta possui 2 etapas de otimização, sendo uma delas na seleção da quantidade de lags e dos hiperparâmetros do modelo de resíduos; e a outra no modelo de combinação, realizando a seleção dos hiperparâmetros e da quantidade de lags de cada uma das quatro séries utilizadas como dados de entrada (Real, Resíduos, Previsão da Real e Previsão dos Resíduos). Desta forma o sistema se mostra flexível por permitir explorar diferentes combinações das séries e assim avaliar unificadamente diferentes propostas de combinações que são encontradas na literatura. Nos experimentos realizados foram utilizados o ARIMA como modelo linear e LSTM como modelo não-linear. Para o modelo de combinação foram testados o XGBoost e SVR e o Tree Parzen Estimator como algoritmo de otimização. Os resultados encontrados apresentaram um desempenho superior ao estado da arte para previsão do consumo de energia, a partir de dados de medidores inteligentes utilizando as métricas clássicas de avaliação de modelos de previsão de série temporal.
|
|
19
|
-
ARTHUR DO REGO BARROS MENDONCA
-
Avaliação Experimental de uma Arquitetura de Microsserviços para o Gerenciamento de Notas Fiscais Eletrônicas
-
Orientador : VALERIA CESARIO TIMES ALVES
-
MEMBROS DA BANCA :
-
RICARDO RODRIGUES CIFERRI
-
ANA CAROLINA BRANDAO SALGADO
-
VALERIA CESARIO TIMES ALVES
-
Data: 08/03/2022
-
-
Mostrar Resumo
-
Notas fiscais eletrônicas são documentos digitais no formato XML que registram operações de circulação de mercadorias ou prestação de serviços. Por meio de convênios de cooperação, os órgãos de arrecadação e controle fiscal têm intensificado o compartilhamento das notas fiscais que envolvem compras governamentais com os órgãos de controle da Administração Pública, como tribunais de contas e o Ministério Público. No entanto, o gerenciamento desses dados em SGBDs relacionais se mostra desafiador, principalmente pelo volume de dados gerado e pela variedade de formatos da NF-e, em cujo leiaute estão previstos campos multivalorados e opcionais. O leiaute é frequentemente modificado, o que leva à necessidade de retrabalho na modelagem dos dados. Neste trabalho, se descreve a arquitetura ControleNF, uma arquitetura que utiliza microsserviços, uma REST API e SGBD NoSQL para o gerenciamento das notas fiscais por órgãos de controle. A arquitetura é avaliada do ponto de vista qualitativo, através dos critérios de manutenibilidade e portabilidade, previstos no ISO/IEC 25010, e quantitativo, em que os aspectos de desempenho e escalabilidade são mensurados através de uma avaliação experimental. Embora a avaliação qualitativa aponte possíveis ganhos relativos à facilidade de manutenção e à portabilidade da arquitetura, o desempenho mensurado no experimento foi consideravelmente inferior àquele observado na arquitetura tradicional que utiliza SGBDs relacionais. Uma investigação detalhada é realizada e possíveis causas da perda de desempenho são relatadas.
-
Mostrar Abstract
-
Notas fiscais eletrônicas são documentos digitais no formato XML que registram operações de circulação de mercadorias ou prestação de serviços. Por meio de convênios de cooperação, os órgãos de arrecadação e controle fiscal têm intensificado o compartilhamento das notas fiscais que envolvem compras governamentais com os órgãos de controle da Administração Pública, como tribunais de contas e o Ministério Público. No entanto, o gerenciamento desses dados em SGBDs relacionais se mostra desafiador, principalmente pelo volume de dados gerado e pela variedade de formatos da NF-e, em cujo leiaute estão previstos campos multivalorados e opcionais. O leiaute é frequentemente modificado, o que leva à necessidade de retrabalho na modelagem dos dados. Neste trabalho, se descreve a arquitetura ControleNF, uma arquitetura que utiliza microsserviços, uma REST API e SGBD NoSQL para o gerenciamento das notas fiscais por órgãos de controle. A arquitetura é avaliada do ponto de vista qualitativo, através dos critérios de manutenibilidade e portabilidade, previstos no ISO/IEC 25010, e quantitativo, em que os aspectos de desempenho e escalabilidade são mensurados através de uma avaliação experimental. Embora a avaliação qualitativa aponte possíveis ganhos relativos à facilidade de manutenção e à portabilidade da arquitetura, o desempenho mensurado no experimento foi consideravelmente inferior àquele observado na arquitetura tradicional que utiliza SGBDs relacionais. Uma investigação detalhada é realizada e possíveis causas da perda de desempenho são relatadas.
|
|
20
|
-
MILTON VASCONCELOS DA GAMA NETO
-
Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais
-
Orientador : GERMANO CRISPIM VASCONCELOS
-
MEMBROS DA BANCA :
-
PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
-
GERMANO CRISPIM VASCONCELOS
-
JAIRSON BARBOSA RODRIGUES
-
Data: 10/03/2022
-
-
Mostrar Resumo
-
As soluções de Inteligência Artificial (IA), mais especificamente de Aprendizagem de Máquina (AM), têm alcançado crescentes níveis de desempenho devido à capacidade computacional, disponibilidade de dados e aparecimento de novos métodos. Ao mesmo tempo, os desafios são cada vez mais complexos. Essa complexidade tem aumentado a dificuldade de interpretar o funcionamento interno que conduz os modelos de AM na recomendação das decisões. Com objetivo de aumentar a interpretabilidade e manter a acurácia desses modelos complexos, surgiu a área de Explainable AI (XAI), com papel importante para impulsionar a ética, responsabilidade e performance nas soluções de IA. Este trabalho apresenta uma análise do estado da arte da área, e realiza uma comparação entre as principais técnicas da literatura através de experimentos em uma base de dados reais para interpretar um modelo treinado para classificar o desempenho escolar, domínio que a interpretação dos resultados dos modelos é fundamental. Os resultados apontam as vantagens e desvantagens das abordagens, discussões sobre as saídas fornecidas, bem como uma forma de combinar algumas estratégias. Diferente de alguns trabalhos comparativos, a análise em uma mesma base de dados fornece uma visão mais justa das explicações geradas. Em decorrência das limitações encontradas nas abordagens investigadas, é proposto um novo método, o Textual SHAP. O método busca endereçar necessidades da área, como por exemplo, considerar a perspectiva do usuário leigo como foco da explicabilidade. O método extrai as principais informações do gráfico da interpretação global do SHAP, técnica do estado da arte de XAI, e converte para um formato mais simples por meio de textos. Foi realizada uma avaliação com pessoas com conhecimento no domínio da educação e sem familiaridade com IA. Os resultados demonstraram que a abordagem proposta é menos complexa de interpretar e fornece maior nível de compreensão do que é exposto para os usuários. Com a abordagem de explicação textual, o método proposto apresenta potencial para alcançar explicações compreensivas e eficazes, contribuindo para os avanços das abordagens centradas nos humanos.
-
Mostrar Abstract
-
As soluções de Inteligência Artificial (IA), mais especificamente de Aprendizagem de Máquina (AM), têm alcançado crescentes níveis de desempenho devido à capacidade computacional, disponibilidade de dados e aparecimento de novos métodos. Ao mesmo tempo, os desafios são cada vez mais complexos. Essa complexidade tem aumentado a dificuldade de interpretar o funcionamento interno que conduz os modelos de AM na recomendação das decisões. Com objetivo de aumentar a interpretabilidade e manter a acurácia desses modelos complexos, surgiu a área de Explainable AI (XAI), com papel importante para impulsionar a ética, responsabilidade e performance nas soluções de IA. Este trabalho apresenta uma análise do estado da arte da área, e realiza uma comparação entre as principais técnicas da literatura através de experimentos em uma base de dados reais para interpretar um modelo treinado para classificar o desempenho escolar, domínio que a interpretação dos resultados dos modelos é fundamental. Os resultados apontam as vantagens e desvantagens das abordagens, discussões sobre as saídas fornecidas, bem como uma forma de combinar algumas estratégias. Diferente de alguns trabalhos comparativos, a análise em uma mesma base de dados fornece uma visão mais justa das explicações geradas. Em decorrência das limitações encontradas nas abordagens investigadas, é proposto um novo método, o Textual SHAP. O método busca endereçar necessidades da área, como por exemplo, considerar a perspectiva do usuário leigo como foco da explicabilidade. O método extrai as principais informações do gráfico da interpretação global do SHAP, técnica do estado da arte de XAI, e converte para um formato mais simples por meio de textos. Foi realizada uma avaliação com pessoas com conhecimento no domínio da educação e sem familiaridade com IA. Os resultados demonstraram que a abordagem proposta é menos complexa de interpretar e fornece maior nível de compreensão do que é exposto para os usuários. Com a abordagem de explicação textual, o método proposto apresenta potencial para alcançar explicações compreensivas e eficazes, contribuindo para os avanços das abordagens centradas nos humanos.
|
|
21
|
-
PEDRO VINICIUS BATISTA CLERICUZI
-
Desenvolvimento de um Sistema de Gerenciamento de Uso de Equipamentos em um Laboratório baseado em RFID
-
Orientador : EDNA NATIVIDADE DA SILVA BARROS
-
MEMBROS DA BANCA :
-
ADRIANO AUGUSTO DE MORAES SARMENTO
-
EDNA NATIVIDADE DA SILVA BARROS
-
VICTOR WANDERLEY COSTA DE MEDEIROS
-
Data: 10/03/2022
-
-
Mostrar Resumo
-
Novas tecnologias voltadas para o controle no uso de bens têm surgido ano após ano para tornar o controle patrimonial cada vez mais ágil e confiável. Este trabalho teve como objetivo o desenvolvimento de um sistema de monitoramento de uso dos equipamentos de um laboratório usando a tecnologia RFID. O sistema foi desenvolvido a fim de possibilitar que os alunos do Centro de Informática (CIn) da Universidade Federal de Pernambuco (UFPE) usem o laboratório de hardware a qualquer hora sem a supervisão de terceiros e os equipamentos contidos nele estejam sempre seguros e sob supervisão automatizada. No contexto atual isso não é possível, as baias são abertas apenas com chave e só quem tem acesso a elas são os monitores e funcionários. Isso é um problema porque o CIn funciona 24h todos os dias, sendo o laboratório de hardware um dos poucos que funcionam apenas em dias e horários específicos. A solução desenvolvida usa como meio de acesso às baias crachás com tags RFID, tecnologia essa que é amplamente utilizada no CIn. Para os equipamentos, também foram utilizados leitores RFID dentro das baias para garantir que os equipamentos estejam no local correto após seu uso. Todas as informações do monitoramento e log de uso ficam armazenadas em um sistema na nuvem, desenvolvido no contexto deste trabalho. O sistema em nuvem permite identificar os usuários dos equipamentos, enviar notificações de uso e efetuar reservas para uso do laboratório em horários não comerciais.
-
Mostrar Abstract
-
Novas tecnologias voltadas para o controle no uso de bens têm surgido ano após ano para tornar o controle patrimonial cada vez mais ágil e confiável. Este trabalho teve como objetivo o desenvolvimento de um sistema de monitoramento de uso dos equipamentos de um laboratório usando a tecnologia RFID. O sistema foi desenvolvido a fim de possibilitar que os alunos do Centro de Informática (CIn) da Universidade Federal de Pernambuco (UFPE) usem o laboratório de hardware a qualquer hora sem a supervisão de terceiros e os equipamentos contidos nele estejam sempre seguros e sob supervisão automatizada. No contexto atual isso não é possível, as baias são abertas apenas com chave e só quem tem acesso a elas são os monitores e funcionários. Isso é um problema porque o CIn funciona 24h todos os dias, sendo o laboratório de hardware um dos poucos que funcionam apenas em dias e horários específicos. A solução desenvolvida usa como meio de acesso às baias crachás com tags RFID, tecnologia essa que é amplamente utilizada no CIn. Para os equipamentos, também foram utilizados leitores RFID dentro das baias para garantir que os equipamentos estejam no local correto após seu uso. Todas as informações do monitoramento e log de uso ficam armazenadas em um sistema na nuvem, desenvolvido no contexto deste trabalho. O sistema em nuvem permite identificar os usuários dos equipamentos, enviar notificações de uso e efetuar reservas para uso do laboratório em horários não comerciais.
|
|
22
|
-
ASSIS TIAGO DE OLIVEIRA FILHO
-
UMA ANÁLISE EXPERIMENTAL DE DESEMPENHO DO PROTOCOLO QUIC
-
Orientador : KELVIN LOPES DIAS
-
MEMBROS DA BANCA :
-
DJAMEL FAWZI HADJ SADOK
-
GLAUCO ESTACIO GONÇALVES
-
NELSON SOUTO ROSA
-
Data: 10/03/2022
-
-
Mostrar Resumo
-
O protocolo Quick UDP Internet Connection (QUIC) foi apresentado pelo Google inicialmente em 2012 como uma solução para alguns dos problemas estruturais da Internet evidenciados principalmente pelas limitações do protocolo Transmission Control Protocol (TCP) frente às novas necessidades das aplicações e serviços Web. Diante desse cenário, mesmo que esse protocolo venha sendo considerada progressivamente favorável, algumas questões ainda estão em aberto, como por exemplo à avaliação do seu efetivo ganho em relação ao modelo já estabelecido (TCP + HTTP/2) utilizado na atualidade para navegação Web. Sendo assim, este trabalho utilizou o método de pesquisa considerando o estudo de caso. Ficando ao fim deste evidenciado, através da análise dos resultados que o QUIC apresenta melhor desempenho em relação ao TCP apenas casos específicos, como por exemplo em redes com grande quantidade de atraso e perda de pacotes. Possibilitando, portanto, a visualização, de forma evidente, que a proposta do QUIC ainda não é suficientemente robusta e que necessita se desenvolver para ser efetivamente aplicada.
-
Mostrar Abstract
-
O protocolo Quick UDP Internet Connection (QUIC) foi apresentado pelo Google inicialmente em 2012 como uma solução para alguns dos problemas estruturais da Internet evidenciados principalmente pelas limitações do protocolo Transmission Control Protocol (TCP) frente às novas necessidades das aplicações e serviços Web. Diante desse cenário, mesmo que esse protocolo venha sendo considerada progressivamente favorável, algumas questões ainda estão em aberto, como por exemplo à avaliação do seu efetivo ganho em relação ao modelo já estabelecido (TCP + HTTP/2) utilizado na atualidade para navegação Web. Sendo assim, este trabalho utilizou o método de pesquisa considerando o estudo de caso. Ficando ao fim deste evidenciado, através da análise dos resultados que o QUIC apresenta melhor desempenho em relação ao TCP apenas casos específicos, como por exemplo em redes com grande quantidade de atraso e perda de pacotes. Possibilitando, portanto, a visualização, de forma evidente, que a proposta do QUIC ainda não é suficientemente robusta e que necessita se desenvolver para ser efetivamente aplicada.
|
|
23
|
-
RODRIGO LUDERMIR DE OLIVEIRA
-
Detecção de Posicionamento em Tweets sobre Covid-19 no Brasil utilizando métodos de Aprendizagem de Máquina
-
Orientador : CLEBER ZANCHETTIN
-
MEMBROS DA BANCA :
-
ADRIANO LORENA INACIO DE OLIVEIRA
-
CLEBER ZANCHETTIN
-
RENATO VIMIEIRO
-
Data: 10/03/2022
-
-
Mostrar Resumo
-
A onipresença da pandemia de Covid-19 durante os últimos dois anos acarretou na urgência de ações responsivas contra o avanço da contaminação do novo coronavírus e em estratégias de imunização da população, através de políticas de saúde pública e medidas sanitárias preventivas por parte das autoridades responsáveis e também da sociedade civil. No Brasil, de modo semelhante a outros países, esse processo foi profundamente politizado, suscitando discussões polarizadas que inundaram as redes sociais - ocupando agora, mais do que nunca, diante do isolamento social, o centro das discussões sociais e políticas - com opiniões e posicionamentos acerca das medidas adotadas contra a Covid-19 e suas repercussões. Enquanto um paradigma emergente no campo de mineração de opiniões nas redes sociais, sistemas de detecção de posicionamento têm produzido resultados frutíferos. Isso ocorre principalmente em aplicações que utilizam métodos de Processamento de Linguagem Natural e Análise de Redes, sobretudo quando são implementados para classificar o posicionamento de usuários e/ou textos implicados em temas sociais e políticos. A tarefa de detecção de posicionamentos, no entanto, alcança um maior desempenho quando os objetos de classificação, sejam usuários ou textos, estão segmentados por um tópico alvo sobre o qual os posicionamentos foram direcionados. Desse modo, esta dissertação investiga a utilização de métodos de aprendizagem de máquina no desenvolvimento de sistemas de detecção de posicionamento em Tweets - publicações na rede social Twitter - de usuários brasileiros comentando as medidas relacionadas ao Covid-19, exercidas por eles próprios e pelo governo brasileiro em seus diferentes órgãos e níveis de atuação. O trabalho envolve quatro partes principais: (1) Construção da base de dados, na qual houve o levantamento de aproximadamente 6 milhões de Tweets e Retweets em português que mencionam palavras relacionadas ao Covid-19 entre Janeiro de 2020 e Outubro de 2021, das quais cerca de 350 mil Tweets foram rotulados (pseudo-labels), através de métodos de anotação fraca (weak supervision), em 'favoráveis' ou 'contrários' às medidas do governo federal frente à pandemia. (2) Limpeza, análise exploratória e segmentação da base rotulada por tópicos mais relevantes e frequentes: Vacinação, Lockdown, Tratamento Precoce, Uso de Máscaras, CPI da Covid e atuação dos Governadores e Prefeitos. (3) Avaliação de modelos tradicionais de Aprendizagem de Máquina na detecção de posicionamentos. (4) Avaliação de modelos de aprendizagem profunda, sobretudo Transformers, na mesma tarefa. Uma arquitetura específica foi investigada em detalhes através de três abordagens de aprendizagem distintas, mas complementares. Utilizando o modelo de linguagem de domínio geral em português-brasileiro BERTimbau, que segue a arquitetura base do BERT, foram realizados experimentos com: (1) adaptação de domínio, usando os dados não rotulados; (2) uso de dados relacionais dos usuários (rede de interações - retweets, mentions e replies); (3) Aprendizado via Multi-tasking, realizando o ajuste-fino em todos os tópicos ao mesmo tempo. Os experimentos realizados demonstraram que os modelos inicializados usando BERTimbau e treinados combinando as três abordagens citadas acima se sobressaem sobre os demais em seu desempenho diante da variedade de tópicos relacionados ao Covid-19 no contexto brasileiro.
-
Mostrar Abstract
-
A onipresença da pandemia de Covid-19 durante os últimos dois anos acarretou na urgência de ações responsivas contra o avanço da contaminação do novo coronavírus e em estratégias de imunização da população, através de políticas de saúde pública e medidas sanitárias preventivas por parte das autoridades responsáveis e também da sociedade civil. No Brasil, de modo semelhante a outros países, esse processo foi profundamente politizado, suscitando discussões polarizadas que inundaram as redes sociais - ocupando agora, mais do que nunca, diante do isolamento social, o centro das discussões sociais e políticas - com opiniões e posicionamentos acerca das medidas adotadas contra a Covid-19 e suas repercussões. Enquanto um paradigma emergente no campo de mineração de opiniões nas redes sociais, sistemas de detecção de posicionamento têm produzido resultados frutíferos. Isso ocorre principalmente em aplicações que utilizam métodos de Processamento de Linguagem Natural e Análise de Redes, sobretudo quando são implementados para classificar o posicionamento de usuários e/ou textos implicados em temas sociais e políticos. A tarefa de detecção de posicionamentos, no entanto, alcança um maior desempenho quando os objetos de classificação, sejam usuários ou textos, estão segmentados por um tópico alvo sobre o qual os posicionamentos foram direcionados. Desse modo, esta dissertação investiga a utilização de métodos de aprendizagem de máquina no desenvolvimento de sistemas de detecção de posicionamento em Tweets - publicações na rede social Twitter - de usuários brasileiros comentando as medidas relacionadas ao Covid-19, exercidas por eles próprios e pelo governo brasileiro em seus diferentes órgãos e níveis de atuação. O trabalho envolve quatro partes principais: (1) Construção da base de dados, na qual houve o levantamento de aproximadamente 6 milhões de Tweets e Retweets em português que mencionam palavras relacionadas ao Covid-19 entre Janeiro de 2020 e Outubro de 2021, das quais cerca de 350 mil Tweets foram rotulados (pseudo-labels), através de métodos de anotação fraca (weak supervision), em 'favoráveis' ou 'contrários' às medidas do governo federal frente à pandemia. (2) Limpeza, análise exploratória e segmentação da base rotulada por tópicos mais relevantes e frequentes: Vacinação, Lockdown, Tratamento Precoce, Uso de Máscaras, CPI da Covid e atuação dos Governadores e Prefeitos. (3) Avaliação de modelos tradicionais de Aprendizagem de Máquina na detecção de posicionamentos. (4) Avaliação de modelos de aprendizagem profunda, sobretudo Transformers, na mesma tarefa. Uma arquitetura específica foi investigada em detalhes através de três abordagens de aprendizagem distintas, mas complementares. Utilizando o modelo de linguagem de domínio geral em português-brasileiro BERTimbau, que segue a arquitetura base do BERT, foram realizados experimentos com: (1) adaptação de domínio, usando os dados não rotulados; (2) uso de dados relacionais dos usuários (rede de interações - retweets, mentions e replies); (3) Aprendizado via Multi-tasking, realizando o ajuste-fino em todos os tópicos ao mesmo tempo. Os experimentos realizados demonstraram que os modelos inicializados usando BERTimbau e treinados combinando as três abordagens citadas acima se sobressaem sobre os demais em seu desempenho diante da variedade de tópicos relacionados ao Covid-19 no contexto brasileiro.
|
|
24
|
-
ELISA DE FÁTIMA ANDRADE SOARES
-
Um Mapeamento Sistemático de Problemas de Otimização no Compartilhamento de Caronas
-
Orientador : VALERIA CESARIO TIMES ALVES
-
MEMBROS DA BANCA :
-
FRANCISCO CHAGAS DE LIMA JÚNIOR
-
SERGIO CASTELO BRANCO SOARES
-
VALERIA CESARIO TIMES ALVES
-
Data: 10/03/2022
-
-
Mostrar Resumo
-
O compartilhamento de caronas (CC) é um serviço de mobilidade compartilhada que traz diversos benefícios ambientais, econômicos e sociais. Sistemas de Compartilhamento de Caronas englobam diferentes problemas e, para solucioná-los técnicas de otimização são empregadas para realizar a intermediação entre motoristas e passageiros que tenham horários e itinerários semelhantes. Para efetivação das caronas é indispensável o uso de algoritmos para definição das rotas dos participantes. Além disso, para obter os melhores resultados desse tipo de serviço são considerados alguns desafios, como: maximizar o número de participantes, determinar as melhores rotas e minimizar os custos da viagem. Nesse contexto, o objetivo desta pesquisa é investigar os problemas de otimização existentes no compartilhamento de caronas e, também, identificar os métodos, as ferramentas, os algoritmos e as técnicas utilizados para solucionar tais problemas. Para esta pesquisa, um protocolo foi elaborado para a condução de um Mapeamento Sistemático da Literatura (MSL), método utilizado para identificar, classificar, analisar e sintetizar as evidências encontradas através dos estudos selecionados que abordam o compartilhamento de caronas. Nesse mapeamento sistemático, foram analisados 138 artigos publicados no período entre 2012 e 2020, e resultados dessa análise mostram os problemas e as soluções de otimização voltadas para o compartilhamento de carona. Diante das análises e dos resultados desta pesquisa, constata-se que há um interesse crescente de pesquisadores nos últimos anos por essa área. Conforme os estudos selecionados, conclui-se que 134 autores consideram o compartilhamento de caronas somo sendo do tipo dinâmico, assim como grande parte deles utilizam a abordagem exata e definem problemas de otimização multiobjetivo para serem solucionados. Por fim, foi identificado que quinze métodos e algoritmos diferentes foram empregados na resolução de problemas otimização para o compartilhamento de caronas.
-
Mostrar Abstract
-
O compartilhamento de caronas (CC) é um serviço de mobilidade compartilhada que traz diversos benefícios ambientais, econômicos e sociais. Sistemas de Compartilhamento de Caronas englobam diferentes problemas e, para solucioná-los técnicas de otimização são empregadas para realizar a intermediação entre motoristas e passageiros que tenham horários e itinerários semelhantes. Para efetivação das caronas é indispensável o uso de algoritmos para definição das rotas dos participantes. Além disso, para obter os melhores resultados desse tipo de serviço são considerados alguns desafios, como: maximizar o número de participantes, determinar as melhores rotas e minimizar os custos da viagem. Nesse contexto, o objetivo desta pesquisa é investigar os problemas de otimização existentes no compartilhamento de caronas e, também, identificar os métodos, as ferramentas, os algoritmos e as técnicas utilizados para solucionar tais problemas. Para esta pesquisa, um protocolo foi elaborado para a condução de um Mapeamento Sistemático da Literatura (MSL), método utilizado para identificar, classificar, analisar e sintetizar as evidências encontradas através dos estudos selecionados que abordam o compartilhamento de caronas. Nesse mapeamento sistemático, foram analisados 138 artigos publicados no período entre 2012 e 2020, e resultados dessa análise mostram os problemas e as soluções de otimização voltadas para o compartilhamento de carona. Diante das análises e dos resultados desta pesquisa, constata-se que há um interesse crescente de pesquisadores nos últimos anos por essa área. Conforme os estudos selecionados, conclui-se que 134 autores consideram o compartilhamento de caronas somo sendo do tipo dinâmico, assim como grande parte deles utilizam a abordagem exata e definem problemas de otimização multiobjetivo para serem solucionados. Por fim, foi identificado que quinze métodos e algoritmos diferentes foram empregados na resolução de problemas otimização para o compartilhamento de caronas.
|
|
25
|
-
VITORIA MARIA DA SILVA MACIEL
-
Um Modelo de Suporte para Conformidade de Data Lake com a LGPD
-
Orientador : BERNADETTE FARIAS LOSCIO
-
MEMBROS DA BANCA :
-
BERNADETTE FARIAS LOSCIO
-
JESSYKA FLAVYANNE FERREIRA VILELA
-
PRISCILLA KELLY MACHADO VIEIRA AZÊVEDO
-
Data: 10/03/2022
-
-
Mostrar Resumo
-
Na era do Big Data, um grande volume de dados estruturados, semi-estruturados, e principalmente não estruturados é gerado muito mais rápido por tecnologias digitais e sistemas de informação. Neste contexto, Data Lakes surgiram como uma alternativa aos tradicionais Data Warehouses, tornando-se uma das soluções de Big Data mais utilizadas para análise e gerenciamento distribuído de grande volumes de dados. A ideia principal do Data Lake é ingerir dados brutos e processá-los durante seu uso, caracterizando a abordagem \textit{schema on-read}. Durante seu ciclo de vida em um Data Lake, um dado pode passar por inúmeras transformações, levando a questões de rastreabilidade. Com a LGPD em vigor, as organizações precisam ter ao seu dispor além das mudanças ocorridas, informações sobre quem modificou os dados, onde modificou e as dependências geradas. Visando atender esse problema, alguns modelos de metadados foram propostos na literatura. No entanto, nenhum deles foca em apresentar metadados que descrevam a linhagem dos dados. Sendo assim, essa dissertação propõe um Modelo de Suporte para Conformidade de Data Lake com a LGPD (Data Lake Compliance Model - DLCM), que tem como objetivo descrever os conjuntos de dados no Data Lake e os tratamentos aplicados sobre eles.
-
Mostrar Abstract
-
Na era do Big Data, um grande volume de dados estruturados, semi-estruturados, e principalmente não estruturados é gerado muito mais rápido por tecnologias digitais e sistemas de informação. Neste contexto, Data Lakes surgiram como uma alternativa aos tradicionais Data Warehouses, tornando-se uma das soluções de Big Data mais utilizadas para análise e gerenciamento distribuído de grande volumes de dados. A ideia principal do Data Lake é ingerir dados brutos e processá-los durante seu uso, caracterizando a abordagem \textit{schema on-read}. Durante seu ciclo de vida em um Data Lake, um dado pode passar por inúmeras transformações, levando a questões de rastreabilidade. Com a LGPD em vigor, as organizações precisam ter ao seu dispor além das mudanças ocorridas, informações sobre quem modificou os dados, onde modificou e as dependências geradas. Visando atender esse problema, alguns modelos de metadados foram propostos na literatura. No entanto, nenhum deles foca em apresentar metadados que descrevam a linhagem dos dados. Sendo assim, essa dissertação propõe um Modelo de Suporte para Conformidade de Data Lake com a LGPD (Data Lake Compliance Model - DLCM), que tem como objetivo descrever os conjuntos de dados no Data Lake e os tratamentos aplicados sobre eles.
|
|
26
|
-
HÉLIO GONÇALVES DE SOUZA JUNIOR
-
Comparação de métodos de inferência dos rejeitados em modelos de Credit Scoring
-
Orientador : GERMANO CRISPIM VASCONCELOS
-
MEMBROS DA BANCA :
-
GERMANO CRISPIM VASCONCELOS
-
RENATA MARIA CARDOSO RODRIGUES DE SOUZA
-
ROSALVO FERREIRA DE OLIVEIRA NETO
-
Data: 11/03/2022
-
-
Mostrar Resumo
-
Os modelos de Credit Scoring oferecem benefícios para os credores e tomadores por muitos anos. No entanto, na prática, esses modelos são normalmente construídos em uma amostra da população de clientes aprovados e não consideram os que foram rejeitados. Isso tende a causar um viés amostral. Inferência dos rejeitados é um método para estimar como os requerentes rejeitados teriam se comportado se tivessem sido concedidos e incorporando essas informações na reconstrução do modelo de Credit Scoring. Nesta dissertação vão ser comparados 4 (cinco) métodos de inferência dos negados: Reclassificação, Augmentation, Cluster e Parcelamento. E também a inclusão de um algoritmo de deep learning, o Deep Embedded Clustering (DEC). Os métodos serão avaliados por diversas métricas de performance, tais como: AUC, KS, F1, acurácia, DTI, teste não paramétrico de Kruskal-Wallis e um teste post-hoc de Nemenyi. Os métodos são analisados em 3 (três) conjuntos de dados reais com diversos perfis de taxa de reprovação, para verificar se o efeito do comportamento da aprovação impacta na performance dos métodos. Os experimentos realizados evidenciaram que existe diferença significativa entre os métodos estudados e também que o método de DEC teve desempenho superior que os demais métodos para a maioria das métricas avaliadas.
-
Mostrar Abstract
-
Os modelos de Credit Scoring oferecem benefícios para os credores e tomadores por muitos anos. No entanto, na prática, esses modelos são normalmente construídos em uma amostra da população de clientes aprovados e não consideram os que foram rejeitados. Isso tende a causar um viés amostral. Inferência dos rejeitados é um método para estimar como os requerentes rejeitados teriam se comportado se tivessem sido concedidos e incorporando essas informações na reconstrução do modelo de Credit Scoring. Nesta dissertação vão ser comparados 4 (cinco) métodos de inferência dos negados: Reclassificação, Augmentation, Cluster e Parcelamento. E também a inclusão de um algoritmo de deep learning, o Deep Embedded Clustering (DEC). Os métodos serão avaliados por diversas métricas de performance, tais como: AUC, KS, F1, acurácia, DTI, teste não paramétrico de Kruskal-Wallis e um teste post-hoc de Nemenyi. Os métodos são analisados em 3 (três) conjuntos de dados reais com diversos perfis de taxa de reprovação, para verificar se o efeito do comportamento da aprovação impacta na performance dos métodos. Os experimentos realizados evidenciaram que existe diferença significativa entre os métodos estudados e também que o método de DEC teve desempenho superior que os demais métodos para a maioria das métricas avaliadas.
|
|
27
|
-
VALDI FERREIRA DO NASCIMENTO JUNIOR
-
Mineração de dados de crowdsourcing para investigar o uso de energia em dispositivos Android
-
Orientador : FERNANDO JOSE CASTOR DE LIMA FILHO
-
MEMBROS DA BANCA :
-
FERNANDO JOSE CASTOR DE LIMA FILHO
-
IVAN DO CARMO MACHADO
-
VINICIUS CARDOSO GARCIA
-
Data: 11/03/2022
-
-
Mostrar Resumo
-
Um dos fatores essenciais para o sucesso de uma aplicação ou modelo é o consumo de energia, que impacta diretamente na autonomia e na satisfação da usabilidade de dispositivos móveis e seus aplicativos. Em geral, os estudos relacionados à área são realizados em laboratório, por meio de simulações, com um número limitado de dispositivos e aplicações. Portanto, este estudo investiga o uso dados coletados através de crowndsourcing desses dispositivos para prever seu comportamento e entender os fatores que mais impactam o seu consumo de energia. Para isso foram desenvolvidos modelos de regressão utilizando dados de uso real de dispositivos móveis em larga escala, capazes de correlacionar diversos fatores como configurações, aplicações e processos do sistema do contexto móvel com o tempo de consumo de energia de 1% do nível da bateria usando. Foram estudados os 100 modelos mais populares e suas configurações, juntamente com os aplicativos e processos, presentes no banco de dados GreebHub, uma iniciativa colaborativa e voluntária para coletar dados para estudos de dispositivos móveis Android. No estudo foram utilizados algoritmos de regressão baseados em árvore (Decision Tree, Random Forest e XGboot), avaliados com auxilio das métricas de regressão do Scikit-Learn, e com a importância das features (feature importance) sendo medida utilizando a abordagem SHAP (SHapley Additive exPlanations). Os resultados indicam um grau de dificuldade elevado ao estudar as relações contidas nos dados, pois a precisão das predições varia bastante de acordo com o modelo de dispositivo a ser estudado, refletindo a heterogeneidade do contexto. Além disso, foi detectada uma variação muito grande no impacto dos aplicativos e processos de um modelo de dispositivo pra outro, e que as configurações foram consideradas mais relevantes que ambos no consumo de energia.
-
Mostrar Abstract
-
Um dos fatores essenciais para o sucesso de uma aplicação ou modelo é o consumo de energia, que impacta diretamente na autonomia e na satisfação da usabilidade de dispositivos móveis e seus aplicativos. Em geral, os estudos relacionados à área são realizados em laboratório, por meio de simulações, com um número limitado de dispositivos e aplicações. Portanto, este estudo investiga o uso dados coletados através de crowndsourcing desses dispositivos para prever seu comportamento e entender os fatores que mais impactam o seu consumo de energia. Para isso foram desenvolvidos modelos de regressão utilizando dados de uso real de dispositivos móveis em larga escala, capazes de correlacionar diversos fatores como configurações, aplicações e processos do sistema do contexto móvel com o tempo de consumo de energia de 1% do nível da bateria usando. Foram estudados os 100 modelos mais populares e suas configurações, juntamente com os aplicativos e processos, presentes no banco de dados GreebHub, uma iniciativa colaborativa e voluntária para coletar dados para estudos de dispositivos móveis Android. No estudo foram utilizados algoritmos de regressão baseados em árvore (Decision Tree, Random Forest e XGboot), avaliados com auxilio das métricas de regressão do Scikit-Learn, e com a importância das features (feature importance) sendo medida utilizando a abordagem SHAP (SHapley Additive exPlanations). Os resultados indicam um grau de dificuldade elevado ao estudar as relações contidas nos dados, pois a precisão das predições varia bastante de acordo com o modelo de dispositivo a ser estudado, refletindo a heterogeneidade do contexto. Além disso, foi detectada uma variação muito grande no impacto dos aplicativos e processos de um modelo de dispositivo pra outro, e que as configurações foram consideradas mais relevantes que ambos no consumo de energia.
|
|
28
|
-
HORHANNA ALMEIDA DE OLIVEIRA
-
Um processo de concepção e prototipação rápida de visualizações animadas de música
-
Orientador : GIORDANO RIBEIRO EULALIO CABRAL
-
MEMBROS DA BANCA :
-
FILIPE CARLOS DE ALBUQUERQUE CALEGARIO
-
GIORDANO RIBEIRO EULALIO CABRAL
-
PEDRO MARTINS ALESSIO
-
Data: 11/03/2022
-
-
Mostrar Resumo
-
A produção de animações para área de Visualização de Informação Musical, ainda é escassa e possui desafios pela necessidade de domínios de softwares de edição exigindo capacidades técnicas e conhecimentos específicos relacionados a cada área. Nesse trabalho, trazemos uma revisão sistemática da área da visualização, mais especificamente visualização da informação, visualização de música e Animação. Mapeando os processos de concepção de visualizações, elaboramos um modelo experimental para ideação, prototipação, construção e validação de animações de informações musicais, realizado com especialistas em música. E através de sessões desenvolvendo protótipos rápidos obtivemos resultados qualitativos com coleta de feedbacks de especialistas em música. Concluímos que é notável a importância da animação, como uma aliada nos processos de concepção e criação de uma visualização musical, pois facilita a representação e acompanhamento do tempo para comunicar elementos estruturais da música, todos eles dispostos dinamicamente em uma área gráfica.
-
Mostrar Abstract
-
A produção de animações para área de Visualização de Informação Musical, ainda é escassa e possui desafios pela necessidade de domínios de softwares de edição exigindo capacidades técnicas e conhecimentos específicos relacionados a cada área. Nesse trabalho, trazemos uma revisão sistemática da área da visualização, mais especificamente visualização da informação, visualização de música e Animação. Mapeando os processos de concepção de visualizações, elaboramos um modelo experimental para ideação, prototipação, construção e validação de animações de informações musicais, realizado com especialistas em música. E através de sessões desenvolvendo protótipos rápidos obtivemos resultados qualitativos com coleta de feedbacks de especialistas em música. Concluímos que é notável a importância da animação, como uma aliada nos processos de concepção e criação de uma visualização musical, pois facilita a representação e acompanhamento do tempo para comunicar elementos estruturais da música, todos eles dispostos dinamicamente em uma área gráfica.
|
|
29
|
-
HYGOR JARDIM DA SILVA
-
Plataforma Integrada 4G, IMS e 5G baseada em software e hardware abertos e de baixo custo
-
Orientador : KELVIN LOPES DIAS
-
MEMBROS DA BANCA :
-
TASSIO COSTA DE CARVALHO
-
KELVIN LOPES DIAS
-
RENATO MARIZ DE MORAES
-
Data: 11/03/2022
-
-
Mostrar Resumo
-
A difusão dos paradigmas de softwarização e virtualização de redes, bem como de tecnologias de rádio definido por software (SDR – Software-Defined Radio), estão fomentando o desenvolvimento protótipos para sistemas móveis de quinta geração (5G), tanto pela academia quanto pela indústria. Este novo cenário influenciou a transição dos clássicos sistemas monolíticos baseado em hardware proprietário, das gerações anteriores (2G/3G/4G), para uma nova filosofia com inúmeros projetos de código aberto relacionados às redes de acesso por rádio (RAN) e de núcleo constituintes de sistemas 4G e 5G. Entretanto, a interoperabilidade entre soluções RAN e de núcleo distintas, e avaliações de desempenho fim-a-fim, bem como o suporte a sistemas tradicionais, como o amplamente difundido IMS (IP Multimedia Subsystem) para chamadas VoLTE (Voice over LTE) 4G, são aspectos pouco entendidos, implementados parcialmente, ou mesmo ainda não avaliados. Esta dissertação tem como objetivo analisar a compatibilidade das implementações de código aberto para sistemas celulares com os padrões preconizados pelo 3GPP (Third Generation Partnership Project); realizar a implementação de protótipos utilizando software e hardware abertos; conceber uma abordagem de virtualização e implantação utilizando contêineres para os serviços do núcleo da rede, da RAN e integração com sistema IMS. O estudo considerou plataformas de computação de propósito geral, juntamente com placas SDR para implantar a rede. Smartphones e cartões SIM com suporte 4G, VoLTE e 5G foram utilizados para realizar os experimentos e a coleta dos resultados. Como parte dos resultados da avaliação, a infraestrutura composta pelo núcleo Open5Gs, RAN srsLTE e IMS OpenIMSCore em conjunto com Kamailio (P-CSCF, I-CSCF, S-CSCF) se mostrou capaz de estabelecer chamadas VoLTE com duração até 1h. Os resultados do estudo também mostraram que a plataforma OAI (OpenAirInterface) alcançou um desempenho 15% superior ao da plataforma srsRAN. Com isto, este trabalho concebeu e descreveu uma infraestrutura de baixo custo capaz de executar todo um ambiente de redes móveis 4G/5G e prover funcionalidades do sistema IMS, como ligações VoLTE.
-
Mostrar Abstract
-
A difusão dos paradigmas de softwarização e virtualização de redes, bem como de tecnologias de rádio definido por software (SDR – Software-Defined Radio), estão fomentando o desenvolvimento protótipos para sistemas móveis de quinta geração (5G), tanto pela academia quanto pela indústria. Este novo cenário influenciou a transição dos clássicos sistemas monolíticos baseado em hardware proprietário, das gerações anteriores (2G/3G/4G), para uma nova filosofia com inúmeros projetos de código aberto relacionados às redes de acesso por rádio (RAN) e de núcleo constituintes de sistemas 4G e 5G. Entretanto, a interoperabilidade entre soluções RAN e de núcleo distintas, e avaliações de desempenho fim-a-fim, bem como o suporte a sistemas tradicionais, como o amplamente difundido IMS (IP Multimedia Subsystem) para chamadas VoLTE (Voice over LTE) 4G, são aspectos pouco entendidos, implementados parcialmente, ou mesmo ainda não avaliados. Esta dissertação tem como objetivo analisar a compatibilidade das implementações de código aberto para sistemas celulares com os padrões preconizados pelo 3GPP (Third Generation Partnership Project); realizar a implementação de protótipos utilizando software e hardware abertos; conceber uma abordagem de virtualização e implantação utilizando contêineres para os serviços do núcleo da rede, da RAN e integração com sistema IMS. O estudo considerou plataformas de computação de propósito geral, juntamente com placas SDR para implantar a rede. Smartphones e cartões SIM com suporte 4G, VoLTE e 5G foram utilizados para realizar os experimentos e a coleta dos resultados. Como parte dos resultados da avaliação, a infraestrutura composta pelo núcleo Open5Gs, RAN srsLTE e IMS OpenIMSCore em conjunto com Kamailio (P-CSCF, I-CSCF, S-CSCF) se mostrou capaz de estabelecer chamadas VoLTE com duração até 1h. Os resultados do estudo também mostraram que a plataforma OAI (OpenAirInterface) alcançou um desempenho 15% superior ao da plataforma srsRAN. Com isto, este trabalho concebeu e descreveu uma infraestrutura de baixo custo capaz de executar todo um ambiente de redes móveis 4G/5G e prover funcionalidades do sistema IMS, como ligações VoLTE.
|
|
30
|
-
IVONILDO PEREIRA GOMES NETO
-
Um Instrumento de Inspeção da Aderência de Soluções Iot à LGPD
-
Orientador : SERGIO CASTELO BRANCO SOARES
-
MEMBROS DA BANCA :
-
LUIS JORGE ENRIQUE RIVERO CABREJOS
-
KIEV SANTOS DA GAMA
-
SERGIO CASTELO BRANCO SOARES
-
Data: 15/03/2022
-
-
Mostrar Resumo
-
Introdução: Com os atuais avanços digitais, a sociedade torna-se mais dependente da tecnologia. Para acompanhar estes avanços, o investimento na segurança das informações passa a ser cada vez mais necessário. Isto não é diferente para no contexto da IoT (do inglês, Internet of things), pois ela traz diversos benefícios para o cotidiano tanto de pessoas como empresas, pois diversos projetos na IoT tratam diversos dados pessoais. Diante disso, se faz necessária certa proteção de informações relacionadas. Atualmente no Brasil, a gestão de segurança de informação é regida pela LGPD (Lei Geral de Proteção dos Dados). Objetivo: Visando verificar a adequação de projetos com a LGPD, pesquisadores da UFMA propuseram um mecanismo de auxílio à averiguação de adequação à LGPD. Desta forma, este trabalho visa propor uma extensão a esse mecanismo para auxiliar à averiguação de adequação à LGPD considerando as características específicas de IoT. Metodologia: O mecanismo foi avaliado em uma instituição privada ligada à inovação industrial. Consideramos que esse é o perfil do público-alvo do mecanismo proposto. A avaliação foi conduzida como um estudo de caso onde, após inspeção de possíveis falhas de segurança no sistema da empresa, foi aplicado um questionário de pós-inspeção com o mecanismo proposto. Este questionário avaliou a facilidade em usá-lo e a intenção dos participantes em utilizá-lo em outros sistemas. Por fim, ocorreu um focus group, onde foram discutidos benefícios, pontos críticos e melhorias aplicáveis ao checklist. Resultados: Foram apresentadas opiniões positivas sobre o uso do mecanismo proposto, os participantes conseguiram utilizá-lo sem grandes problemas. Além disso, foi possível encontrar defeitos de segurança nos sistemas. Os participantes consideraram o mecanismo como de grande utilidade para guiar os profissionais nas soluções dos defeitos encontrados. Conclusões: Conclui-se que o mecanismo proposto é capaz de auxiliar profissionais na averiguação de adequação à LGPD em projetos que envolvem IoT à LGPD. O estudo foi realizado em uma instituição específica, identificando defeitos reais de uma empresa, porém, os resultados não podem ser generalizados. É necessário replicações do estudo para identificar se esses resultados se aplicam a outras empresas.
-
Mostrar Abstract
-
Introdução: Com os atuais avanços digitais, a sociedade torna-se mais dependente da tecnologia. Para acompanhar estes avanços, o investimento na segurança das informações passa a ser cada vez mais necessário. Isto não é diferente para no contexto da IoT (do inglês, Internet of things), pois ela traz diversos benefícios para o cotidiano tanto de pessoas como empresas, pois diversos projetos na IoT tratam diversos dados pessoais. Diante disso, se faz necessária certa proteção de informações relacionadas. Atualmente no Brasil, a gestão de segurança de informação é regida pela LGPD (Lei Geral de Proteção dos Dados). Objetivo: Visando verificar a adequação de projetos com a LGPD, pesquisadores da UFMA propuseram um mecanismo de auxílio à averiguação de adequação à LGPD. Desta forma, este trabalho visa propor uma extensão a esse mecanismo para auxiliar à averiguação de adequação à LGPD considerando as características específicas de IoT. Metodologia: O mecanismo foi avaliado em uma instituição privada ligada à inovação industrial. Consideramos que esse é o perfil do público-alvo do mecanismo proposto. A avaliação foi conduzida como um estudo de caso onde, após inspeção de possíveis falhas de segurança no sistema da empresa, foi aplicado um questionário de pós-inspeção com o mecanismo proposto. Este questionário avaliou a facilidade em usá-lo e a intenção dos participantes em utilizá-lo em outros sistemas. Por fim, ocorreu um focus group, onde foram discutidos benefícios, pontos críticos e melhorias aplicáveis ao checklist. Resultados: Foram apresentadas opiniões positivas sobre o uso do mecanismo proposto, os participantes conseguiram utilizá-lo sem grandes problemas. Além disso, foi possível encontrar defeitos de segurança nos sistemas. Os participantes consideraram o mecanismo como de grande utilidade para guiar os profissionais nas soluções dos defeitos encontrados. Conclusões: Conclui-se que o mecanismo proposto é capaz de auxiliar profissionais na averiguação de adequação à LGPD em projetos que envolvem IoT à LGPD. O estudo foi realizado em uma instituição específica, identificando defeitos reais de uma empresa, porém, os resultados não podem ser generalizados. É necessário replicações do estudo para identificar se esses resultados se aplicam a outras empresas.
|
|
31
|
-
JUSCELINO SEBASTIAO AVELINO JUNIOR
-
Uma abordagem de seleção dinâmica de classificadores para predição de defeitos de software
-
Orientador : GEORGE DARMITON DA CUNHA CAVALCANTI
-
MEMBROS DA BANCA :
-
ARAKEN DE MEDEIROS SANTOS
-
GEORGE DARMITON DA CUNHA CAVALCANTI
-
RAFAEL MENELAU OLIVEIRA E CRUZ
-
Data: 16/03/2022
-
-
Mostrar Resumo
-
A predição de defeitos é uma tarefa que visa alocar recursos e informações para predizer módulos de software propensos a defeitos. Contudo, devido a necessidade de quantidades suficientemente grandes de dados requeridas pelos modelos, pesquisadores tem se concentrado em pesquisas sobre Cross-Project Defect Prediction (CPDP). Essa abordagem envolve construir modelos usando um conjunto de treinamento composto por informações de diversos projetos externos. Diversas abordagens CPDP propostas na literatura utilizam abordagens tradicionais como, por exemplo, normalização/transformação dos dados através do logaritmo ou uso de algoritmos de aprendizagem de máquina, entretanto, essas abordagens não possuem nenhum mecanismo capaz de selecionar um classificador ou um conjunto de classificadores mais apto em predizer uma determinada amostra de teste. Logo, a seleção dinâmica de classificadores é uma abordagem ao qual seleciona classificadores básicos em tempo real de acordo com cada amostra de teste a ser classificada. Neste contexto e considerando as limitações das abordagens CPDP tradicionais, propomos uma abordagem CPDP que, com base nos dados de treinamento, seleciona a melhor configuração de parâmetros (técnica de seleção dinâmica de classificadores, classificador básico e tamanho do pool de classificadores) para classificaras novas amostras de entrada (dados de teste). A abordagem proposta é composta por três etapas: Definição do Alvo, Superprodução e Avaliação do Modelo. Portanto, nessa dissertação são almejados quatro principais pontos. Primeiro, é conduzida uma análise experimental para investigar o comportamento da abordagem proposta na predição de defeitos de software. Segundo, são realizadas comparações entre a abordagem proposta versus abordagens CPDP da literatura. Neste contexto, foram investigados quais métodos apresentam melhor desempenho para os mesmos conjuntos de dados ou projetos de software. Terceiro, para verificar a precisão de classificação dos métodos CPDP, foi analisada a qualidade da performance dos método sem relação à algumas escalas da área sob a curva ROC (ROC-AUC). Quarto, foi realizada uma análise experimental para verificar quando utilizar a abordagem proposta. Neste ponto, utilizamos um meta-classificador (árvore de decisão) que, através de regras de decisão, define quais características dos dados a abordagem proposta deve ser aplicada e, consequentemente, apresentar maior desempenho.
-
Mostrar Abstract
-
A predição de defeitos é uma tarefa que visa alocar recursos e informações para predizer módulos de software propensos a defeitos. Contudo, devido a necessidade de quantidades suficientemente grandes de dados requeridas pelos modelos, pesquisadores tem se concentrado em pesquisas sobre Cross-Project Defect Prediction (CPDP). Essa abordagem envolve construir modelos usando um conjunto de treinamento composto por informações de diversos projetos externos. Diversas abordagens CPDP propostas na literatura utilizam abordagens tradicionais como, por exemplo, normalização/transformação dos dados através do logaritmo ou uso de algoritmos de aprendizagem de máquina, entretanto, essas abordagens não possuem nenhum mecanismo capaz de selecionar um classificador ou um conjunto de classificadores mais apto em predizer uma determinada amostra de teste. Logo, a seleção dinâmica de classificadores é uma abordagem ao qual seleciona classificadores básicos em tempo real de acordo com cada amostra de teste a ser classificada. Neste contexto e considerando as limitações das abordagens CPDP tradicionais, propomos uma abordagem CPDP que, com base nos dados de treinamento, seleciona a melhor configuração de parâmetros (técnica de seleção dinâmica de classificadores, classificador básico e tamanho do pool de classificadores) para classificaras novas amostras de entrada (dados de teste). A abordagem proposta é composta por três etapas: Definição do Alvo, Superprodução e Avaliação do Modelo. Portanto, nessa dissertação são almejados quatro principais pontos. Primeiro, é conduzida uma análise experimental para investigar o comportamento da abordagem proposta na predição de defeitos de software. Segundo, são realizadas comparações entre a abordagem proposta versus abordagens CPDP da literatura. Neste contexto, foram investigados quais métodos apresentam melhor desempenho para os mesmos conjuntos de dados ou projetos de software. Terceiro, para verificar a precisão de classificação dos métodos CPDP, foi analisada a qualidade da performance dos método sem relação à algumas escalas da área sob a curva ROC (ROC-AUC). Quarto, foi realizada uma análise experimental para verificar quando utilizar a abordagem proposta. Neste ponto, utilizamos um meta-classificador (árvore de decisão) que, através de regras de decisão, define quais características dos dados a abordagem proposta deve ser aplicada e, consequentemente, apresentar maior desempenho.
|
|
32
|
-
GEORGE DE VASCONCELOS CARVALHO NETO
-
Mineração de subgrupos aplicada a dados de metilação de pacientes com câncer de mama
-
Orientador : RICARDO BASTOS CAVALCANTE PRUDENCIO
-
MEMBROS DA BANCA :
-
DANYELLY BRUNESKA GONDIM MARTINS
-
MARCELO RODRIGO PORTELA FERREIRA
-
RICARDO BASTOS CAVALCANTE PRUDENCIO
-
Data: 25/03/2022
-
-
Mostrar Resumo
-
O câncer de mama é um dos tipos de câncer mais prevalentes em mulheres, com uma ênfase crescente na pesquisa relacionada ao câncer, muitos trabalhos foram realizados para classificar o diagnóstico, a sobrevivência ou a recorrência desse tipo de câncer. Como um dos biomarcadores epigenéticos mais descritos em cânceres humanos, a metilação do DNA desempenha um papel essencial na regulação da expressão gênica e tem sido implicada no prognóstico e na terapêutica de muitos cânceres. Nesse estudo exploramos os perfis de metilação de DNA capturando grupos heterogêneos de pacientes com câncer de mama para melhorar o prognóstico desses pacientes no nível epigenético. Perfis de metilação do DNA de um estudo caso-controle com 235 indivíduos com câncer de mama e 424 indivíduos normais saudáveis foram obtidos do banco de dados Gene Expression Omnibus (GEO). Os marcadores diferencialmente metilados foram identificados por teste T moderado. Novas características foram adicionadas aos dados usando ferramentas de predição de idade biológica, tipos celular e condição de fumante. Subgrupos de pacientes foram encontrados usando as ferramentas de mineração de subgrupos Beam search e SSDP+. Um total de 20 subgrupos foram selecionados, sendo 10 subgrupos encontrados pelo Beam search e 10 pelo SSDP+. Onde o algoritmo Beam search encontrou subgrupos com mais elementos e alto grau de redundância englobando diferentes genes relacionados previamente ao câncer de mama, enquanto o SSDP+ encontrou subgrupos com menos elementos e alto grau de diversidade, mas que por englobar menos regiões não tiveram genes previamente relacionados a câncer de mama. Nosso estudo identificou múltiplos painéis de metilação de DNA associados a grupos específicos de pacientes com câncer de mama que podem, se validados clinicamente, ser úteis para a previsão do risco de câncer de mama no futuro.
-
Mostrar Abstract
-
O câncer de mama é um dos tipos de câncer mais prevalentes em mulheres, com uma ênfase crescente na pesquisa relacionada ao câncer, muitos trabalhos foram realizados para classificar o diagnóstico, a sobrevivência ou a recorrência desse tipo de câncer. Como um dos biomarcadores epigenéticos mais descritos em cânceres humanos, a metilação do DNA desempenha um papel essencial na regulação da expressão gênica e tem sido implicada no prognóstico e na terapêutica de muitos cânceres. Nesse estudo exploramos os perfis de metilação de DNA capturando grupos heterogêneos de pacientes com câncer de mama para melhorar o prognóstico desses pacientes no nível epigenético. Perfis de metilação do DNA de um estudo caso-controle com 235 indivíduos com câncer de mama e 424 indivíduos normais saudáveis foram obtidos do banco de dados Gene Expression Omnibus (GEO). Os marcadores diferencialmente metilados foram identificados por teste T moderado. Novas características foram adicionadas aos dados usando ferramentas de predição de idade biológica, tipos celular e condição de fumante. Subgrupos de pacientes foram encontrados usando as ferramentas de mineração de subgrupos Beam search e SSDP+. Um total de 20 subgrupos foram selecionados, sendo 10 subgrupos encontrados pelo Beam search e 10 pelo SSDP+. Onde o algoritmo Beam search encontrou subgrupos com mais elementos e alto grau de redundância englobando diferentes genes relacionados previamente ao câncer de mama, enquanto o SSDP+ encontrou subgrupos com menos elementos e alto grau de diversidade, mas que por englobar menos regiões não tiveram genes previamente relacionados a câncer de mama. Nosso estudo identificou múltiplos painéis de metilação de DNA associados a grupos específicos de pacientes com câncer de mama que podem, se validados clinicamente, ser úteis para a previsão do risco de câncer de mama no futuro.
|
|
33
|
-
JESSICA TAIS DE SOUZA REINALDO
-
Using Item Response Theory to evaluate feature relevance in missing
-
Orientador : RICARDO BASTOS CAVALCANTE PRUDENCIO
-
MEMBROS DA BANCA :
-
RAFAEL GOMES MANTOVANI
-
GEORGE DARMITON DA CUNHA CAVALCANTI
-
RICARDO BASTOS CAVALCANTE PRUDENCIO
-
Data: 29/03/2022
-
-
Mostrar Resumo
-
A Teoria de Resposta ao Item (em inglês, Item Response Theory - IRT) tem sido historicamente usada para avaliar as habilidades latentes de respondentes humanos a um conjunto de itens. Recentemente, esforços têm sido feitos para propor soluções que utilizem a TRI para resolver problemas de classificação, onde os respondentes são classificadores e os itens são as instâncias de um conjunto de dados. O β^3-IRT oferece uma ferramenta poderosa para analisar conjuntos de dados e classificadores, pois formula o problema de TRI com duas variáveis latentes (2-PL), onde as instâncias são descritas em termos de dificuldade e discriminação, e os classificadores têm um habilidade associada. A formulação do β^3-IRT permite utilizar a predição da probabilidade de cada classificador para cada instância, o que é uma abordagem muito mais rica em informação do que modelos anteriores que propunham utilizar simplesmente uma resposta dicotômica, isto é, apenas mapeando erros e acertos de cada classificador na predição de cada instância. Uma aplicação possível de TRI em problemas de classificação é utiliza-la para resolver problemas em que faltam dados no momento do teste. A falta de dados é um problema desafiador na classificação, principalmente quando ocorre no momento de teste, ou seja, quando um classificador que já foi treinado com os dados completos precisa ser usado para fornecer uma previsão para uma nova instância, para a qual está faltando o valor de alguma variável. Nesses casos, antes de aplicar o classificador, deve-se decidir se vale a pena adquirindo o valor real do recurso ou apenas imputando o valor ausente. A imputação pode ser uma alternativa melhor, por exemplo, se a coleta de recursos for muito cara e/ou não se espera que o recurso seja realmente relevante para melhorar a qualidade do classificador predição. Neste trabalho, propomos um workflow onde esses dados faltantes em tempo de teste são preenchidos com valores imputados com diferentes técnicas de imputação, baseado nos dados de treinamento disponíveis, a fim de avaliar o quanto esses dados faltantes podem afetar a habilidade dos classificadores e a dificuldade e discriminação das instâncias em um conjunto de dados. Essa abordagem representa uma alternativa às técnicas de seleção de atributos que é capaz de fornecer uma visão geral da relevância dos recursos tanto em nível global quanto individualmente para cada instância. A análise do desempenho de classificadores e como a falta de dados impacta os modelos e as instâncias do ponto de vista da TRI ainda não foi investigada na literatura.
-
Mostrar Abstract
-
A Teoria de Resposta ao Item (em inglês, Item Response Theory - IRT) tem sido historicamente usada para avaliar as habilidades latentes de respondentes humanos a um conjunto de itens. Recentemente, esforços têm sido feitos para propor soluções que utilizem a TRI para resolver problemas de classificação, onde os respondentes são classificadores e os itens são as instâncias de um conjunto de dados. O β^3-IRT oferece uma ferramenta poderosa para analisar conjuntos de dados e classificadores, pois formula o problema de TRI com duas variáveis latentes (2-PL), onde as instâncias são descritas em termos de dificuldade e discriminação, e os classificadores têm um habilidade associada. A formulação do β^3-IRT permite utilizar a predição da probabilidade de cada classificador para cada instância, o que é uma abordagem muito mais rica em informação do que modelos anteriores que propunham utilizar simplesmente uma resposta dicotômica, isto é, apenas mapeando erros e acertos de cada classificador na predição de cada instância. Uma aplicação possível de TRI em problemas de classificação é utiliza-la para resolver problemas em que faltam dados no momento do teste. A falta de dados é um problema desafiador na classificação, principalmente quando ocorre no momento de teste, ou seja, quando um classificador que já foi treinado com os dados completos precisa ser usado para fornecer uma previsão para uma nova instância, para a qual está faltando o valor de alguma variável. Nesses casos, antes de aplicar o classificador, deve-se decidir se vale a pena adquirindo o valor real do recurso ou apenas imputando o valor ausente. A imputação pode ser uma alternativa melhor, por exemplo, se a coleta de recursos for muito cara e/ou não se espera que o recurso seja realmente relevante para melhorar a qualidade do classificador predição. Neste trabalho, propomos um workflow onde esses dados faltantes em tempo de teste são preenchidos com valores imputados com diferentes técnicas de imputação, baseado nos dados de treinamento disponíveis, a fim de avaliar o quanto esses dados faltantes podem afetar a habilidade dos classificadores e a dificuldade e discriminação das instâncias em um conjunto de dados. Essa abordagem representa uma alternativa às técnicas de seleção de atributos que é capaz de fornecer uma visão geral da relevância dos recursos tanto em nível global quanto individualmente para cada instância. A análise do desempenho de classificadores e como a falta de dados impacta os modelos e as instâncias do ponto de vista da TRI ainda não foi investigada na literatura.
|
|
34
|
-
HEITOR DE CASTRO FELIX
-
OGNet-AD: Um método para detecção de falhas em equipamentos através da detecção de anomalias em imagens com GAN baseado na OGNet
-
Orientador : VERONICA TEICHRIEB
-
MEMBROS DA BANCA :
-
CLEBER ZANCHETTIN
-
FRANCISCO PAULO MAGALHAES SIMOES
-
PERICLES BARBOSA CUNHA DE MIRANDA
-
Data: 13/04/2022
-
-
Mostrar Resumo
-
A aplicação de visão computacional com Deep Learning (DL) vem sendo utilizada para resolver problemas complexos. Um desses problemas é a inspeção automática de objetos industriais. A inspeção pode ocorrer em cenário controlado, como mostrado no dataset MVTec AD ou em um cenário não controlado, como ocorre em torres de linhas de transmissão de energia. Um dos maiores desafios na inspeção automática é a disponibilidade limitada de dados de falhas para o treinamento dos classificadores tradicionais baseados em DL. Pois, em aplicações de inspeção industrial, há poucos dados de falhas e baixa diversidade nos exemplos. Mesmo em linhas de transmissão de energia, que são essenciais para vida humana moderna, não existem datasets de inspeção para o treinamento supervisionado de classificadores. Portanto, abordagens de treinamento não supervisionado são usadas para contornar a escassez de dados, como detecção de anomalias e One-Class Classification (OCC). Nessas abordagens, os treinamentos dos modelos são realizados apenas com os dados dos equipamentos em seus estados normais, sem defeitos. Este trabalho investiga a detecção de anomalias com o uso da OGNet, uma técnica de estado da arte de OCC e busca adaptá-la para a detecção de anomalias, criando uma nova rede, a OGNet-AD. A nova rede e a OGNet foram avaliadas quantitativamente em um ambiente controlado com MVTec AD e em um ambiente não controlado com um dataset privado de inspeção de linhas de transmissão de energia, o DILTE. Como resultado da pesquisa, verificou-se que a OGNet pode ser utilizada para detecção de anomalias e compara-se com técnicas tradicionais desse contexto. A OGNet-AD conseguiu superar a OGNet tanto no cenário controlado do MVTec-AD quanto no cenário não controlado do DILTE, com média de AUC-ROC de 87,4 contra 84,7 da OGNet no MVTec-AD e 77 contra 72 no DILTE, comprovando os benefícios das modificações realizadas no modelo. Apesar da evolução da OGNet-AD, a técnica também foi comparada com técnicas elaboradas para detecção de anomalias, não superando ainda a técnica do estado da arte. Além dos testes quantitativos, uma técnica de Explainable Artificial Inteligente foi explorada para a validação qualitativa da OGNet-AD. A validação foi realizada utilizando a Grad-CAM para visualizar as regiões que influenciam nas decisões da rede. A validação qualitativa mostrou-se eficiente para analisar o uso da OGNet-AD, principalmente em cenários com poucos dados para realização da validação quantitativa tradicional.
-
Mostrar Abstract
-
A aplicação de visão computacional com Deep Learning (DL) vem sendo utilizada para resolver problemas complexos. Um desses problemas é a inspeção automática de objetos industriais. A inspeção pode ocorrer em cenário controlado, como mostrado no dataset MVTec AD ou em um cenário não controlado, como ocorre em torres de linhas de transmissão de energia. Um dos maiores desafios na inspeção automática é a disponibilidade limitada de dados de falhas para o treinamento dos classificadores tradicionais baseados em DL. Pois, em aplicações de inspeção industrial, há poucos dados de falhas e baixa diversidade nos exemplos. Mesmo em linhas de transmissão de energia, que são essenciais para vida humana moderna, não existem datasets de inspeção para o treinamento supervisionado de classificadores. Portanto, abordagens de treinamento não supervisionado são usadas para contornar a escassez de dados, como detecção de anomalias e One-Class Classification (OCC). Nessas abordagens, os treinamentos dos modelos são realizados apenas com os dados dos equipamentos em seus estados normais, sem defeitos. Este trabalho investiga a detecção de anomalias com o uso da OGNet, uma técnica de estado da arte de OCC e busca adaptá-la para a detecção de anomalias, criando uma nova rede, a OGNet-AD. A nova rede e a OGNet foram avaliadas quantitativamente em um ambiente controlado com MVTec AD e em um ambiente não controlado com um dataset privado de inspeção de linhas de transmissão de energia, o DILTE. Como resultado da pesquisa, verificou-se que a OGNet pode ser utilizada para detecção de anomalias e compara-se com técnicas tradicionais desse contexto. A OGNet-AD conseguiu superar a OGNet tanto no cenário controlado do MVTec-AD quanto no cenário não controlado do DILTE, com média de AUC-ROC de 87,4 contra 84,7 da OGNet no MVTec-AD e 77 contra 72 no DILTE, comprovando os benefícios das modificações realizadas no modelo. Apesar da evolução da OGNet-AD, a técnica também foi comparada com técnicas elaboradas para detecção de anomalias, não superando ainda a técnica do estado da arte. Além dos testes quantitativos, uma técnica de Explainable Artificial Inteligente foi explorada para a validação qualitativa da OGNet-AD. A validação foi realizada utilizando a Grad-CAM para visualizar as regiões que influenciam nas decisões da rede. A validação qualitativa mostrou-se eficiente para analisar o uso da OGNet-AD, principalmente em cenários com poucos dados para realização da validação quantitativa tradicional.
|
|
35
|
-
STHEFANIE DAL MAGRO
-
ENGENHARIA DE REQUISITOS EM SISTEMAS CRÍTICOS DE SEGURANÇA: uma abordagem para auxiliar na descoberta de requisitos iniciais de segurança
-
Orientador : JAELSON FREIRE BRELAZ DE CASTRO
-
MEMBROS DA BANCA :
-
CARLA TACIANA LIMA LOURENCO SILVA SCHUENEMANN
-
JAELSON FREIRE BRELAZ DE CASTRO
-
JOHNNY CARDOSO MARQUES
-
Data: 28/04/2022
-
-
Mostrar Resumo
-
Sistemas Críticos de Segurança (SCSs) são considerados sistemas que caso falhem podem levar à perda de vida, perdas financeiras e danos ao meio ambiente. A Engenharia de Requisitos é essencial no desenvolvimento destes sistemas, tendo em vista que a utilização de requisitos inadequados ou incompreendidos são reconhecidos como a principal causa de acidentes e catástrofes relacionados com a segurança. Portanto, os requisitos iniciais de segurança dos SCSs devem ser cuidadosamente identificados e adequadamente modelados. No entanto, a literatura apresenta poucas técnicas de elicitação e modelagem. Ademais, de acordo com Vilela et al. (2020) é mais econômico corrigir problemas na fase da Engenharia de Requisitos do que na etapa de desenvolvimento do sistema em de requisitos voltadas para o domínio de SCSs. Esta pesquisa propõe o desenvolvimento de uma abordagem para auxiliar na descoberta de requisitos iniciais de segurança no contexto de sistemas críticos de segurança que posteriormente serão modelados através da notação iStar4Safety. Inicialmente, foi realizado um levantamento para aquisição de conhecimento acerca do tema, depois foram identificadas as técnicas de elicitação de requisitos para SCSs existentes na literatura. Em seguida, foi desenvolvida uma nova abordagem para elicitação de requisitos iniciais de segurança, uma ferramenta para dar apoio a abordagem e regras de mapeamento em iStar4Safety. Por último, foi realizada uma avaliação da proposta através de um quasi-experimento. Sendo assim, este trabalho propôs a abordagem Elicit4Safety que visa auxiliar na descoberta e modelagem dos perigos e requisitos iniciais de segurança no contexto dos SCSs, além do desenvolvimento de uma ferramenta que dá suporte a abordagem. De acordo com os resultados encontrados na análise de dados qualitativa e quantitativa, obtidos através aplicação de testes estatísticos e um questionário aplicado aos sujeitos experimentais, é possível observar que a abordagem Elicit4Safety é fácil de entender e de ser utilizada.
-
Mostrar Abstract
-
Sistemas Críticos de Segurança (SCSs) são considerados sistemas que caso falhem podem levar à perda de vida, perdas financeiras e danos ao meio ambiente. A Engenharia de Requisitos é essencial no desenvolvimento destes sistemas, tendo em vista que a utilização de requisitos inadequados ou incompreendidos são reconhecidos como a principal causa de acidentes e catástrofes relacionados com a segurança. Portanto, os requisitos iniciais de segurança dos SCSs devem ser cuidadosamente identificados e adequadamente modelados. No entanto, a literatura apresenta poucas técnicas de elicitação e modelagem. Ademais, de acordo com Vilela et al. (2020) é mais econômico corrigir problemas na fase da Engenharia de Requisitos do que na etapa de desenvolvimento do sistema em de requisitos voltadas para o domínio de SCSs. Esta pesquisa propõe o desenvolvimento de uma abordagem para auxiliar na descoberta de requisitos iniciais de segurança no contexto de sistemas críticos de segurança que posteriormente serão modelados através da notação iStar4Safety. Inicialmente, foi realizado um levantamento para aquisição de conhecimento acerca do tema, depois foram identificadas as técnicas de elicitação de requisitos para SCSs existentes na literatura. Em seguida, foi desenvolvida uma nova abordagem para elicitação de requisitos iniciais de segurança, uma ferramenta para dar apoio a abordagem e regras de mapeamento em iStar4Safety. Por último, foi realizada uma avaliação da proposta através de um quasi-experimento. Sendo assim, este trabalho propôs a abordagem Elicit4Safety que visa auxiliar na descoberta e modelagem dos perigos e requisitos iniciais de segurança no contexto dos SCSs, além do desenvolvimento de uma ferramenta que dá suporte a abordagem. De acordo com os resultados encontrados na análise de dados qualitativa e quantitativa, obtidos através aplicação de testes estatísticos e um questionário aplicado aos sujeitos experimentais, é possível observar que a abordagem Elicit4Safety é fácil de entender e de ser utilizada.
|
|
36
|
-
GERALDO PIRES CORDEIRO JÚNIOR
-
Reconhecimento de espécies de mosquitos por meio de métodos computacionais inteligentes baseados em aprendizagem profunda
-
Orientador : LEANDRO MACIEL ALMEIDA
-
MEMBROS DA BANCA :
-
FERNANDO MACIANO DE PAULA NETO
-
LEANDRO MACIEL ALMEIDA
-
ROSÂNGELA MARIA RODRIGUES BARBOSA
-
Data: 18/05/2022
-
-
Mostrar Resumo
-
As doenças transmitidas por mosquitos vetores expressam um grande perigo à sociedade. Arboviroses como Dengue, Zika, Febre Amarela, Chikungunya, causaram alto número de mortes nas últimas décadas, além de diminuírem a qualidade de vida das pessoas, causarem outras doenças, como é o caso de microcefalia em recém-nascidos por conta da Zika, e impactarem a economia. Ações que visem o controle dos vetores se mostraram eficazes no combate a essas doenças. Entretanto, em áreas em que essas doenças são endêmicas, os vetores coexistem com outros mosquitos que não transmitem doenças, sendo essencial a identificação desses mosquitos, para que se possa analisar a densidade e entender mais sobre a população deles. Todavia é necessário a atuação de um especialista, sendo muitas vezes um trabalho cansativo. Observando a importância da identificação desses vetores e os problemas das atuais técnicas de identificação, esse estudo propõe um modelo computacional inteligente para a classificação automática de mosquitos vetores, baseado em imagens. Para isso foi construída uma base com 5432 imagens de mosquitos de 3 espécies: Aedes aegypti, Aedes albopictus e Culex quinquefasciatus. Foram utilizadas três redes convolucionais: VGG16, ResNet50 e EfficientNetB0. O modelo de Deep Learning que obteve maior resultado foi a VGG16, com acurácia de 95%, mostrando-se eficiente na identificação das espécies estudadas.
-
Mostrar Abstract
-
As doenças transmitidas por mosquitos vetores expressam um grande perigo à sociedade. Arboviroses como Dengue, Zika, Febre Amarela, Chikungunya, causaram alto número de mortes nas últimas décadas, além de diminuírem a qualidade de vida das pessoas, causarem outras doenças, como é o caso de microcefalia em recém-nascidos por conta da Zika, e impactarem a economia. Ações que visem o controle dos vetores se mostraram eficazes no combate a essas doenças. Entretanto, em áreas em que essas doenças são endêmicas, os vetores coexistem com outros mosquitos que não transmitem doenças, sendo essencial a identificação desses mosquitos, para que se possa analisar a densidade e entender mais sobre a população deles. Todavia é necessário a atuação de um especialista, sendo muitas vezes um trabalho cansativo. Observando a importância da identificação desses vetores e os problemas das atuais técnicas de identificação, esse estudo propõe um modelo computacional inteligente para a classificação automática de mosquitos vetores, baseado em imagens. Para isso foi construída uma base com 5432 imagens de mosquitos de 3 espécies: Aedes aegypti, Aedes albopictus e Culex quinquefasciatus. Foram utilizadas três redes convolucionais: VGG16, ResNet50 e EfficientNetB0. O modelo de Deep Learning que obteve maior resultado foi a VGG16, com acurácia de 95%, mostrando-se eficiente na identificação das espécies estudadas.
|
|
37
|
-
JESSICA FELICIANO COUTINHO
-
Avaliação de técnicas de Combinação de Embeddings para a Análise de Sentimentos de Produtos escritos em Português-BR
-
Orientador : LEANDRO MACIEL ALMEIDA
-
MEMBROS DA BANCA :
-
JOÃO FAUSTO LORENZATO DE OLIVEIRA
-
LEANDRO MACIEL ALMEIDA
-
LUCIANO DE ANDRADE BARBOSA
-
Data: 26/05/2022
-
-
Mostrar Resumo
-
A Análise de Sentimentos é uma área de pesquisa voltada para a determinação da polaridade do sentimento presente em um texto, buscando identificar se a informação é de caráter positivo, negativo ou neutro, dentre outras formas de classificação. Com o expressivo volume de informações textuais que circulam na web diariamente, o processo de análises automáticas dos sentimentos torna-se ainda mais necessário. Para conteúdos relacionados à avaliação de produtos e serviços, a detecção de sentimentos é de grande relevância, uma vez que entender a mensagem que um consumidor está querendo passar sobre um produto é essencial para as empresas por diversos fatores, dentre eles campanhas de marketing e melhoria no relacionamento com seus clientes. Nesse cenário, o estudo das formas de melhorar a representação das informações textuais, de modo que elas sejam processadas através de modelos de aprendizagem de máquina, é de extrema importância para contribuir com o aumento de performance na classificação dos sentimentos presentes nos textos. Diante disto, o presente trabalho realiza um estudo experimental do comportamento de diferentes técnicas de vetorização de textos, com foco nos embeddings: vetores representativos compostos por valores reais capazes de armazenar informações sintáticas e semânticas das palavras. Para isso, são avaliados diferentes tipos de vetores de embeddings e três formas de combinação desses vetores, que são utilizados no processo de classificação de cinco diferentes algoritmos de aprendizagem de máquina. Além disso, também é utilizado um algoritmo de aprendizagem profundo onde a etapa de embedding é realizada pela própria camada da rede neural. Com o intuito de contribuir com a Análise de Sentimentos de textos em Português-BR, foram estudadas quatro bases de dados neste idioma: Buscapé, B2W, Olist e UTL Movies. Essas bases são compostas por avaliações de usuários reais da web sobre produtos e serviços. Os resultados encontrados nessa pesquisa mostraram que nem todos os algoritmos de aprendizagem de máquina sofrem impacto diante da mudança na técnica de vetorização, porém quando pelo menos duas técnicas são combinadas a partir da concatenação entre seus vetores de pesos, é possível obter melhoria na performance de algoritmos comumente utilizados na área de aprendizagem de máquina, como a MLP e o XGBoost
-
Mostrar Abstract
-
A Análise de Sentimentos é uma área de pesquisa voltada para a determinação da polaridade do sentimento presente em um texto, buscando identificar se a informação é de caráter positivo, negativo ou neutro, dentre outras formas de classificação. Com o expressivo volume de informações textuais que circulam na web diariamente, o processo de análises automáticas dos sentimentos torna-se ainda mais necessário. Para conteúdos relacionados à avaliação de produtos e serviços, a detecção de sentimentos é de grande relevância, uma vez que entender a mensagem que um consumidor está querendo passar sobre um produto é essencial para as empresas por diversos fatores, dentre eles campanhas de marketing e melhoria no relacionamento com seus clientes. Nesse cenário, o estudo das formas de melhorar a representação das informações textuais, de modo que elas sejam processadas através de modelos de aprendizagem de máquina, é de extrema importância para contribuir com o aumento de performance na classificação dos sentimentos presentes nos textos. Diante disto, o presente trabalho realiza um estudo experimental do comportamento de diferentes técnicas de vetorização de textos, com foco nos embeddings: vetores representativos compostos por valores reais capazes de armazenar informações sintáticas e semânticas das palavras. Para isso, são avaliados diferentes tipos de vetores de embeddings e três formas de combinação desses vetores, que são utilizados no processo de classificação de cinco diferentes algoritmos de aprendizagem de máquina. Além disso, também é utilizado um algoritmo de aprendizagem profundo onde a etapa de embedding é realizada pela própria camada da rede neural. Com o intuito de contribuir com a Análise de Sentimentos de textos em Português-BR, foram estudadas quatro bases de dados neste idioma: Buscapé, B2W, Olist e UTL Movies. Essas bases são compostas por avaliações de usuários reais da web sobre produtos e serviços. Os resultados encontrados nessa pesquisa mostraram que nem todos os algoritmos de aprendizagem de máquina sofrem impacto diante da mudança na técnica de vetorização, porém quando pelo menos duas técnicas são combinadas a partir da concatenação entre seus vetores de pesos, é possível obter melhoria na performance de algoritmos comumente utilizados na área de aprendizagem de máquina, como a MLP e o XGBoost
|
|
38
|
-
KARL VANDESMAN DE MATOS SOUSA
-
Desenvolvimento de base de dados e algoritmo de classificação antecipada de exames RT-qPCR para COVID-19
-
Orientador : ADENILTON JOSÉ DA SILVA
-
MEMBROS DA BANCA :
-
ADENILTON JOSÉ DA SILVA
-
ANDRÉ CÂMARA ALVES DO NASCIMENTO
-
GEORGE GOMES CABRAL
-
Data: 02/06/2022
-
-
Mostrar Resumo
-
A doença denominada COVID-19, causada pelo vírus SARS-CoV-2, foi a responsável por gerar uma pandemia, preocupando diversos órgãos e instituições ao redor do mundo de forma a combatê-la e reduzir o seu impacto. Um dos fatores importantes para esse combate, é o diagnóstico da doença, que deve considerar a assertividade e o tempo levado para sua conclu- são. Este trabalho atuou nos dados quantitativos gerados pelo exame RT-qPCR, obtidos pela disponibilização feita pelo Núcleo de Pesquisa em Inovação Terapêutica (NUPIT) da Universidade Federal de Pernambuco. Os arquivos de saída do exame foram filtrados e ajustados de forma a se ter uma base de dados disponível para treinamento de algoritmos de aprendizagem supervisionada, totalizando 75.716 linhas com 45 características temporais (ciclos de máquina) e um alvo a ser classificado como positivo ou negativo. Esses dados formam uma série temporal, sendo cada característica um valor de fluorescência do processo da reação química do RT-qPCR, de forma a detectar genes do SARS-CoV-2. Foram elencados diferentes algoritmos da literatura, desde mais genéricos para classificação, a outros mais complexos, utilizando comitês, e considerando a ordenação temporal das características do problema. Primeiramente, esses algoritmos foram treinados com a totalidade dos ciclos, para se ter uma referência do desempenho que poderia ser obtido. Posteriormente, foram realizados treinamentos com uma redução desse número de ciclos, com o intuito de antecipar o exame e consequentemente diminuir o tempo necessário para sua conclusão. Para comparar os desempenhos, foram analisadas as métricas AUROC (do inglês, Area Under the Receiver Operating Characteristic), acurácia, especificidade e sensibilidade, com média e desvio padrão calculadas em cima de cem reamostragens da base de dados. Para o cenário de redução de 30 ciclos, foi realizada a otimização de hiperparâmetros dos três algoritmos que se destacaram na etapa anterior: um baseado em redes neurais, MLP (Multilayer Perceptron) e dois comitês de classificadores, o XGBoost e o Time Series Forest (TSF), sendo que este último considera a relação temporal das características. Testes estatísticos realizados indicaram um maior desempenho do TSF (AUROC 98,98 ± 0, 07%) e do MLP (98,94 ± 0, 19%) para 30 ciclos, uma melhoria de desempenho graças à otimização, mas ainda com desempenho inferior ao algoritmo treinado com 35 ciclos com valores padrões de hiperparâmetros. Com isso, este trabalho fornece respaldo para a redução do tempo do RT-qPCR aplicado para COVID-19, por meio de algoritmos de aprendizagem de máquina.
-
Mostrar Abstract
-
A doença denominada COVID-19, causada pelo vírus SARS-CoV-2, foi a responsável por gerar uma pandemia, preocupando diversos órgãos e instituições ao redor do mundo de forma a combatê-la e reduzir o seu impacto. Um dos fatores importantes para esse combate, é o diagnóstico da doença, que deve considerar a assertividade e o tempo levado para sua conclu- são. Este trabalho atuou nos dados quantitativos gerados pelo exame RT-qPCR, obtidos pela disponibilização feita pelo Núcleo de Pesquisa em Inovação Terapêutica (NUPIT) da Universidade Federal de Pernambuco. Os arquivos de saída do exame foram filtrados e ajustados de forma a se ter uma base de dados disponível para treinamento de algoritmos de aprendizagem supervisionada, totalizando 75.716 linhas com 45 características temporais (ciclos de máquina) e um alvo a ser classificado como positivo ou negativo. Esses dados formam uma série temporal, sendo cada característica um valor de fluorescência do processo da reação química do RT-qPCR, de forma a detectar genes do SARS-CoV-2. Foram elencados diferentes algoritmos da literatura, desde mais genéricos para classificação, a outros mais complexos, utilizando comitês, e considerando a ordenação temporal das características do problema. Primeiramente, esses algoritmos foram treinados com a totalidade dos ciclos, para se ter uma referência do desempenho que poderia ser obtido. Posteriormente, foram realizados treinamentos com uma redução desse número de ciclos, com o intuito de antecipar o exame e consequentemente diminuir o tempo necessário para sua conclusão. Para comparar os desempenhos, foram analisadas as métricas AUROC (do inglês, Area Under the Receiver Operating Characteristic), acurácia, especificidade e sensibilidade, com média e desvio padrão calculadas em cima de cem reamostragens da base de dados. Para o cenário de redução de 30 ciclos, foi realizada a otimização de hiperparâmetros dos três algoritmos que se destacaram na etapa anterior: um baseado em redes neurais, MLP (Multilayer Perceptron) e dois comitês de classificadores, o XGBoost e o Time Series Forest (TSF), sendo que este último considera a relação temporal das características. Testes estatísticos realizados indicaram um maior desempenho do TSF (AUROC 98,98 ± 0, 07%) e do MLP (98,94 ± 0, 19%) para 30 ciclos, uma melhoria de desempenho graças à otimização, mas ainda com desempenho inferior ao algoritmo treinado com 35 ciclos com valores padrões de hiperparâmetros. Com isso, este trabalho fornece respaldo para a redução do tempo do RT-qPCR aplicado para COVID-19, por meio de algoritmos de aprendizagem de máquina.
|
|
39
|
-
MATEUS GONCALVES MACHADO
-
DyLam: A Dynamic Reward Weighting Method for Reinforcement Learning Policy Gradient Algorithms
-
Orientador : HANSENCLEVER DE FRANCA BASSANI
-
MEMBROS DA BANCA :
-
ANNA HELENA REALI COSTA
-
HANSENCLEVER DE FRANCA BASSANI
-
TSANG ING REN
-
Data: 07/06/2022
-
-
Mostrar Resumo
-
Aprendizagem por Reforço (AR) é um subcampo emergente de Aprendizagem de Máquina no qual um agente interage com um ambiente e aproveita suas experiências para aprender, por tentativa e erro, quais ações são as mais adequadas para cada estado. A cada passo o agente recebe um sinal de recompensa positivo ou negativo, que é o principal feedback utilizado para o aprendizado. A AR encontra aplicações em diversas áreas, como robótica, bolsa de valores e até mesmo em sistemas de refrigeração, apresentando desempenho sobre-humano no aprendizado de jogos de tabuleiro (Xadrez e Go) e videogames (jogos de Atari, Dota2 e StarCraft2). No entanto, os métodos AR ainda lutam em ambientes com recompensas escassas. Por exemplo, um agente pode receber poucas recompensas por gols em um jogo de futebol. Assim, é difícil associar recompensas (gols) com ações. Os pesquisadores frequentemente introduzem várias recompensas intermediárias para ajudar no aprendizado e contornar esse problema. No entanto, combinar adequadamente várias recompensas para compor o sinal de recompensa único usado pelos métodos AR frequentemente não é uma tarefa fácil. Este trabalho visa resolver este problema específico através da introdução do DyLam. Ele estende os métodos de gradiente de política existentes decompondo a função de recompensa usada no ambiente e ponderando dinamicamente cada componente em função do desempenho do agente na tarefa associada. Provamos a convergência do método proposto e mostramos empiricamente que ele supera métodos concorrentes nos ambientes avaliados em termos de velocidade de aprendizado e, em alguns casos, desempenho final.
-
Mostrar Abstract
-
Aprendizagem por Reforço (AR) é um subcampo emergente de Aprendizagem de Máquina no qual um agente interage com um ambiente e aproveita suas experiências para aprender, por tentativa e erro, quais ações são as mais adequadas para cada estado. A cada passo o agente recebe um sinal de recompensa positivo ou negativo, que é o principal feedback utilizado para o aprendizado. A AR encontra aplicações em diversas áreas, como robótica, bolsa de valores e até mesmo em sistemas de refrigeração, apresentando desempenho sobre-humano no aprendizado de jogos de tabuleiro (Xadrez e Go) e videogames (jogos de Atari, Dota2 e StarCraft2). No entanto, os métodos AR ainda lutam em ambientes com recompensas escassas. Por exemplo, um agente pode receber poucas recompensas por gols em um jogo de futebol. Assim, é difícil associar recompensas (gols) com ações. Os pesquisadores frequentemente introduzem várias recompensas intermediárias para ajudar no aprendizado e contornar esse problema. No entanto, combinar adequadamente várias recompensas para compor o sinal de recompensa único usado pelos métodos AR frequentemente não é uma tarefa fácil. Este trabalho visa resolver este problema específico através da introdução do DyLam. Ele estende os métodos de gradiente de política existentes decompondo a função de recompensa usada no ambiente e ponderando dinamicamente cada componente em função do desempenho do agente na tarefa associada. Provamos a convergência do método proposto e mostramos empiricamente que ele supera métodos concorrentes nos ambientes avaliados em termos de velocidade de aprendizado e, em alguns casos, desempenho final.
|
|
40
|
-
PAULO J DE MORAES VASCONCELOS
-
Identificação de fungos anemófilos, em ambientes abertos, através de um nariz eletrônico e modelos de Inteligência Artificial
-
Orientador : LEANDRO MACIEL ALMEIDA
-
MEMBROS DA BANCA :
-
CLEBER ZANCHETTIN
-
PAULO SALGADO GOMES DE MATTOS NETO
-
REGINALDO GONCALVES DE LIMA NETO
-
Data: 15/06/2022
-
-
Mostrar Resumo
-
Os fungos dispersam-se na natureza através do ar atmosférico ou por outras vias, como água, insetos, humanos e animais. Os fungos que são dispersados através do ar atmosférico são denominados fungos anemófilos. Sendo assim, a microbiota fúngica anemófila pode ser semelhante ou diferente em cada cidade ou região. Em indústrias como farmacêutica e de alimentos, a preservação da qualidade do ar dos ambientes é ponto importante para a garantia asséptica dos produtos. Hospitais constituem ambientes que necessitam de maior atenção, no que diz respeito ao monitoramento ambiental das áreas críticas. Por outro lado, em climatizadores de ar, o acúmulo de umidade e material orgânico pode torná-los poderosas fontes dispersoras de bioaerossóis. Outra problemática na disseminação de fungos é a produção de micotoxinas. Para conhecer o objeto desse trabalho apresenta-se um estudo sobre os fungos anemófilos, uma breve discursão sobre Inteligência Artificial, em seguida é apresentado o nariz eletrônico utilizado nos experimentos, apresenta-se e explica-se os princípios de funcionamento dos modelos de aprendizagem de máquina testados como solução do problema. Relata-se a exploração dos dados levantados e experimentos das bases de dados de leituras do nariz eletrônico. Os resultados foram satisfatórios em duas bases e insatisfatório em uma base. O classificador InceptionTime obteve o melhor desempenho em uma das bases, atingindo acurácia 97,7% no conjunto de teste. Em outra base o classificador HIVE-COTE 2.0 obteve os melhores resultados alcançando acurácia 96,4% no conjunto de teste. Na última base testada, os resultados foram insatisfatórios, com acurácia máxima de apenas 41,6% no conjunto de teste. Estando no princípio da pesquisa, um ou outro resultado adverso é natural, contudo, conclui-se que essa dissertação contribui desenvolver produtos e serviços que monitorem a qualidade do ar em áreas sensíveis como indústrias alimentícias e farmacêuticas, áreas hospitalares críticas, acúmulo de umidade e material orgânico em condicionadores de ar, como também a presença de micotoxinas produzidas por esses microrganismos. A ampliação e a diversificação da testagem de fungos anemófilos objetivando cobrir uma gama maior de problemas e patologias associadas a mais espécies de fungos anemófilos, como também ampliação das bases de dados, isto é, mais dados e melhores dados para minimizar os erros, implica em modelos mais bem treinados, que generalizam adequadamente para casos novos, que não são conhecidos pelos modelos. Outra frente de trabalho importante é aprofundar o estudo dos modelos de classificadores especializados em séries temporais. O objetivo é encontrar o modelo com resultados mais satisfatórios e com os menores custos computacionais.
-
Mostrar Abstract
-
Os fungos dispersam-se na natureza através do ar atmosférico ou por outras vias, como água, insetos, humanos e animais. Os fungos que são dispersados através do ar atmosférico são denominados fungos anemófilos. Sendo assim, a microbiota fúngica anemófila pode ser semelhante ou diferente em cada cidade ou região. Em indústrias como farmacêutica e de alimentos, a preservação da qualidade do ar dos ambientes é ponto importante para a garantia asséptica dos produtos. Hospitais constituem ambientes que necessitam de maior atenção, no que diz respeito ao monitoramento ambiental das áreas críticas. Por outro lado, em climatizadores de ar, o acúmulo de umidade e material orgânico pode torná-los poderosas fontes dispersoras de bioaerossóis. Outra problemática na disseminação de fungos é a produção de micotoxinas. Para conhecer o objeto desse trabalho apresenta-se um estudo sobre os fungos anemófilos, uma breve discursão sobre Inteligência Artificial, em seguida é apresentado o nariz eletrônico utilizado nos experimentos, apresenta-se e explica-se os princípios de funcionamento dos modelos de aprendizagem de máquina testados como solução do problema. Relata-se a exploração dos dados levantados e experimentos das bases de dados de leituras do nariz eletrônico. Os resultados foram satisfatórios em duas bases e insatisfatório em uma base. O classificador InceptionTime obteve o melhor desempenho em uma das bases, atingindo acurácia 97,7% no conjunto de teste. Em outra base o classificador HIVE-COTE 2.0 obteve os melhores resultados alcançando acurácia 96,4% no conjunto de teste. Na última base testada, os resultados foram insatisfatórios, com acurácia máxima de apenas 41,6% no conjunto de teste. Estando no princípio da pesquisa, um ou outro resultado adverso é natural, contudo, conclui-se que essa dissertação contribui desenvolver produtos e serviços que monitorem a qualidade do ar em áreas sensíveis como indústrias alimentícias e farmacêuticas, áreas hospitalares críticas, acúmulo de umidade e material orgânico em condicionadores de ar, como também a presença de micotoxinas produzidas por esses microrganismos. A ampliação e a diversificação da testagem de fungos anemófilos objetivando cobrir uma gama maior de problemas e patologias associadas a mais espécies de fungos anemófilos, como também ampliação das bases de dados, isto é, mais dados e melhores dados para minimizar os erros, implica em modelos mais bem treinados, que generalizam adequadamente para casos novos, que não são conhecidos pelos modelos. Outra frente de trabalho importante é aprofundar o estudo dos modelos de classificadores especializados em séries temporais. O objetivo é encontrar o modelo com resultados mais satisfatórios e com os menores custos computacionais.
|
|
41
|
-
DANILO AUGUSTO MENEZES CLEMENTE
-
Modelagem hierárquica da disponibilidade de serviços hospedados em Centro de Dados distribuídos
-
Orientador : PAULO ROMERO MARTINS MACIEL
-
MEMBROS DA BANCA :
-
CARLOS ALEXANDRE SILVA DE MELO
-
ERICA TEIXEIRA GOMES DE SOUSA
-
PAULO ROMERO MARTINS MACIEL
-
Data: 20/06/2022
-
-
Mostrar Resumo
-
A computação em nuvem fornece uma abstração das camadas físicas, permitindo uma sensação de recursos infinitos. No entanto, os recursos físicos não são ilimitados e precisam ser utilizados de maneira cada vez mais assertiva. Um dos desafios da computação em nuvem é aprimorar esta utilização dos recursos físicos sem comprometer a disponibilidade dos ambientes neles hospedados. Os modelos hierárquicos possibilitam uma avaliação eficiente dos sistemas que se utilizam da computação em nuvem, permitindo um melhor aproveitamento dos recursos físicos. Este trabalho se utiliza desta estratégia para conduzir uma avaliação de disponibilidade de um sistema hospedado em uma nuvem privada. Foram realizados estudos preliminares na infraestrutura física e lógica utilizada pelo sistema, visando identificar possíveis pontos de melhorias nas configurações, incluindo uma análise de sensibilidade que identifica os componentes que possuem a maior capacidade de interferência na disponibilidade do sistema. Modelos hierárquicos foram concebidos para representar o ambiente atual (baseline), possibilitando a identificação da disponibilidade do sistema. Foi desenvolvido também uma metodologia que permite a replicação adequada deste estudo, podendo ser utilizada para este sistema ou em sistemas similares. Após a correta identificação e modelagem da baseline, foram propostas alterações nos componentes internos ao CD, visando um aprimoramento da disponibilidade do sistema. Posteriormente da descoberta de um valor da disponibilidade considerado como satisfatório pelos administradores do sistema, foram adicionadas aos modelos previamente desenvolvidos, componentes físicos da estrutura do CD, em conjunto com as CCF. Neste momento do estudo, foram aplicadas técnicas de sintetização em modelos SPN, permitindo a realização dos cálculos com um baixo custo operacional. Foram concebidos modelos que possibilitam a análise de cenários em casos de redundância de CD, permitindo a identificação do CD ativo, além de qual cenário possibilita uma melhor disponibilidade para o sistema.
-
Mostrar Abstract
-
A computação em nuvem fornece uma abstração das camadas físicas, permitindo uma sensação de recursos infinitos. No entanto, os recursos físicos não são ilimitados e precisam ser utilizados de maneira cada vez mais assertiva. Um dos desafios da computação em nuvem é aprimorar esta utilização dos recursos físicos sem comprometer a disponibilidade dos ambientes neles hospedados. Os modelos hierárquicos possibilitam uma avaliação eficiente dos sistemas que se utilizam da computação em nuvem, permitindo um melhor aproveitamento dos recursos físicos. Este trabalho se utiliza desta estratégia para conduzir uma avaliação de disponibilidade de um sistema hospedado em uma nuvem privada. Foram realizados estudos preliminares na infraestrutura física e lógica utilizada pelo sistema, visando identificar possíveis pontos de melhorias nas configurações, incluindo uma análise de sensibilidade que identifica os componentes que possuem a maior capacidade de interferência na disponibilidade do sistema. Modelos hierárquicos foram concebidos para representar o ambiente atual (baseline), possibilitando a identificação da disponibilidade do sistema. Foi desenvolvido também uma metodologia que permite a replicação adequada deste estudo, podendo ser utilizada para este sistema ou em sistemas similares. Após a correta identificação e modelagem da baseline, foram propostas alterações nos componentes internos ao CD, visando um aprimoramento da disponibilidade do sistema. Posteriormente da descoberta de um valor da disponibilidade considerado como satisfatório pelos administradores do sistema, foram adicionadas aos modelos previamente desenvolvidos, componentes físicos da estrutura do CD, em conjunto com as CCF. Neste momento do estudo, foram aplicadas técnicas de sintetização em modelos SPN, permitindo a realização dos cálculos com um baixo custo operacional. Foram concebidos modelos que possibilitam a análise de cenários em casos de redundância de CD, permitindo a identificação do CD ativo, além de qual cenário possibilita uma melhor disponibilidade para o sistema.
|
|
42
|
-
CLEISON CORREIA DE AMORIM
-
Uma Abordagem Linguística para o Reconhecimento de Línguas de Sinais
-
Orientador : CLEBER ZANCHETTIN
-
MEMBROS DA BANCA :
-
BYRON LEITE DANTAS BEZERRA
-
CLEBER ZANCHETTIN
-
LEANDRO MACIEL ALMEIDA
-
Data: 05/07/2022
-
-
Mostrar Resumo
-
A língua de sinais é uma ferramenta essencial na vida do Surdo, capaz de assegurar seu acesso à comunicação, educação, desenvolvimento cognitivo e socio-emocional. Na verdade, ela é a principal força que une essa comunidade e o símbolo de identificação entre seus membros. Por outro lado, o número de indivíduos ouvintes que conseguem se comunicar por meio dessa língua atualmente é pequeno e, na prática, isso acaba trazendo alguns obstáculos para o cotidiano do Surdo. Tarefas simples como utilizar o transporte público, comprar roupas, ir ao cinema ou obter assistência médica acabam se tornando um desafio por conta dessa comunicação limitada. O Reconhecimento de Língua de Sinais é uma das áreas de pesquisa que atuam para desenvolver tecnologias capazes de reduzir essas barreiras linguísticas e facilitar a comunicação entre esses indivíduos. Apesar disso, ao analisarmos sua evolução ao longo das últimas décadas, percebemos que seu progresso ainda não é suficiente para disponibilizar soluções efetivamente aplicáveis ao mundo real. Isso ocorre principalmente porque várias pesquisas nessa área acabam não se apropriando ou abordando adequadamente as particularidades linguística apresentadas pelas línguas de sinais, que são decorrentes de sua natureza visual. Tendo isso em vista, este trabalho introduz uma abordagem linguística para o reconhecimento de língua de sinais que objetiva estabelecer uma direção capaz de conduzir a avanços mais efetivos para essa área e, consequentemente, contribuir com a superação dos obstáculos hoje enfrentados pelo Surdo.
-
Mostrar Abstract
-
A língua de sinais é uma ferramenta essencial na vida do Surdo, capaz de assegurar seu acesso à comunicação, educação, desenvolvimento cognitivo e socio-emocional. Na verdade, ela é a principal força que une essa comunidade e o símbolo de identificação entre seus membros. Por outro lado, o número de indivíduos ouvintes que conseguem se comunicar por meio dessa língua atualmente é pequeno e, na prática, isso acaba trazendo alguns obstáculos para o cotidiano do Surdo. Tarefas simples como utilizar o transporte público, comprar roupas, ir ao cinema ou obter assistência médica acabam se tornando um desafio por conta dessa comunicação limitada. O Reconhecimento de Língua de Sinais é uma das áreas de pesquisa que atuam para desenvolver tecnologias capazes de reduzir essas barreiras linguísticas e facilitar a comunicação entre esses indivíduos. Apesar disso, ao analisarmos sua evolução ao longo das últimas décadas, percebemos que seu progresso ainda não é suficiente para disponibilizar soluções efetivamente aplicáveis ao mundo real. Isso ocorre principalmente porque várias pesquisas nessa área acabam não se apropriando ou abordando adequadamente as particularidades linguística apresentadas pelas línguas de sinais, que são decorrentes de sua natureza visual. Tendo isso em vista, este trabalho introduz uma abordagem linguística para o reconhecimento de língua de sinais que objetiva estabelecer uma direção capaz de conduzir a avanços mais efetivos para essa área e, consequentemente, contribuir com a superação dos obstáculos hoje enfrentados pelo Surdo.
|
|
43
|
-
FERNANDO HENRIQUE DE ALBUQUERQUE ALVES
-
On the usage of functional programming concepts in JavaScript
-
Orientador : FERNANDO JOSE CASTOR DE LIMA FILHO
-
MEMBROS DA BANCA :
-
BRENO ALEXANDRO FERREIRA DE MIRANDA
-
FERNANDO JOSE CASTOR DE LIMA FILHO
-
RODRIGO BONIFACIO DE ALMEIDA
-
Data: 08/07/2022
-
-
Mostrar Resumo
-
Constructos de linguagem de programação inspirados no paradigma funcional chegaram à maioria das linguagens convencionais. Muitos pesquisadores e desenvolvedores consideram que esses constructos levam a programas mais concisos, reutilizáveis e mais fáceis de entender. No entanto, poucos estudos investigam a prevalência dessas estruturas e as implicações de usá-las em linguagens de programação convencionais. Este trabalho quantifica a prevalência de quatro conceitos, normalmente associados à programação funcional, em JavaScript: recursão, imutabilidade, avaliação preguiçosa e funções como valores. Dividimos o último em dois grupos, funções de ordem superior e callbacks & promises. Focamos em programas JavaScript devido à disponibilidade de alguns desses conceitos na linguagem desde seu início, sua inspiração em linguagens de programação funcionais e a popularidade da linguagem. Mineramos 91 repositórios GitHub (mais de 22 milhões de linhas de código (LOC)) escritos principalmente em JavaScript (mais de 50% do código), medindo o uso desses conceitos de perspectivas estáticas e temporais. Também medimos a probabilidade de commits de correção de bugs removendo usos desses conceitos (o que sugeriria propensão a bugs) e sua associação com a presença de comentários de código (o que sugeriria um código difícil de entender). Descobrimos que esses conceitos estão em uso generalizado (478,605 ocorrências, 1 para cada 46.65 linhas de código, 43.59% de LOC). Além disso, o uso de funções de ordem superior, imutabilidade e estruturas relacionadas à avaliação preguiçosa vêm crescendo ao longo dos anos para os projetos analisados, enquanto o uso de recursão e callbacks & promises diminuiu. Também encontramos evidências estatísticas de que a remoção dessas estruturas, com exceção das associadas à imutabilidade, é menos comum em commits de correção de bugs do que em outros commits. Além disso, sua presença não está correlacionada com o tamanho do comentário associado. Nossas descobertas sugerem que os conceitos de programação funcional são importantes para desenvolvedores que usam uma linguagem multiparadigma, como JavaScript, e seu uso não torna os programas mais difíceis de entender.
-
Mostrar Abstract
-
Constructos de linguagem de programação inspirados no paradigma funcional chegaram à maioria das linguagens convencionais. Muitos pesquisadores e desenvolvedores consideram que esses constructos levam a programas mais concisos, reutilizáveis e mais fáceis de entender. No entanto, poucos estudos investigam a prevalência dessas estruturas e as implicações de usá-las em linguagens de programação convencionais. Este trabalho quantifica a prevalência de quatro conceitos, normalmente associados à programação funcional, em JavaScript: recursão, imutabilidade, avaliação preguiçosa e funções como valores. Dividimos o último em dois grupos, funções de ordem superior e callbacks & promises. Focamos em programas JavaScript devido à disponibilidade de alguns desses conceitos na linguagem desde seu início, sua inspiração em linguagens de programação funcionais e a popularidade da linguagem. Mineramos 91 repositórios GitHub (mais de 22 milhões de linhas de código (LOC)) escritos principalmente em JavaScript (mais de 50% do código), medindo o uso desses conceitos de perspectivas estáticas e temporais. Também medimos a probabilidade de commits de correção de bugs removendo usos desses conceitos (o que sugeriria propensão a bugs) e sua associação com a presença de comentários de código (o que sugeriria um código difícil de entender). Descobrimos que esses conceitos estão em uso generalizado (478,605 ocorrências, 1 para cada 46.65 linhas de código, 43.59% de LOC). Além disso, o uso de funções de ordem superior, imutabilidade e estruturas relacionadas à avaliação preguiçosa vêm crescendo ao longo dos anos para os projetos analisados, enquanto o uso de recursão e callbacks & promises diminuiu. Também encontramos evidências estatísticas de que a remoção dessas estruturas, com exceção das associadas à imutabilidade, é menos comum em commits de correção de bugs do que em outros commits. Além disso, sua presença não está correlacionada com o tamanho do comentário associado. Nossas descobertas sugerem que os conceitos de programação funcional são importantes para desenvolvedores que usam uma linguagem multiparadigma, como JavaScript, e seu uso não torna os programas mais difíceis de entender.
|
|
|
Teses |
|
1
|
-
REGINA ROSA PARENTE
-
Classificação de Uma Classe para Seleção de Conjuntos de Dados Sintéticos em Meta-Aprendizado
-
Orientador : RICARDO BASTOS CAVALCANTE PRUDENCIO
-
MEMBROS DA BANCA :
-
RONNIE CLEY DE OLIVEIRA ALVES
-
GISELE LOBO PAPPA
-
PAULO SALGADO GOMES DE MATTOS NETO
-
PERICLES BARBOSA CUNHA DE MIRANDA
-
TSANG ING REN
-
Data: 04/02/2022
-
-
Mostrar Resumo
-
A seleção de algoritmos é uma tarefa crucial e desafiadora no aprendizado de máquina em diferentes domínios do conhecimento. O meta-aprendizado trata a seleção de algoritmos como uma tarefa de aprendizado supervisionado. Exemplos de treinamento (ou seja, meta-exemplos) são gerados a partir de experimentos realizados com um conjunto de algoritmos candidatos em vários conjuntos de dados. Pode haver uma pequena disponibilidade de conjuntos de dados reais em alguns domínios, o que torna difícil gerar bons meta-exemplos. Portanto, confiar em conjuntos de dados sintéticos pode ser uma boa alternativa para gerar meta-exemplos. No entanto, não é garantido que todos os conjuntos de dados sintéticos sejam relevantes e representativos em comparação com os conjuntos de dados reais. Desta forma, o uso indiscriminado de muitos conjuntos de dados sintéticos aumenta o custo computacional da realização de experimentos sem melhorar significativamente a precisão do meta-aprendizado. Nesta tese, lidamos com a seleção de conjuntos de dados sintéticos para meta-aprendizagem como um problema de classificação de uma classe (OCC). Em OCC, os classificadores são construídos assumindo a disponibilidade de exemplos de treinamento pertencentes a uma classe única de interesse (ou seja, a classe positiva), enquanto os rótulos de classe dos outros exemplos são desconhecidos. Na solução proposta, técnicas de OCC são utilizadas para selecionar os conjuntos de dados sintéticos mais relevantes (a classe desconhecida), considerando os conjuntos de dados reais (a classe positiva) disponíveis. Também conduzimos experimentos em dois estudos de caso, nos quais empregamos dois procedimentos diferentes de manipulação de dados para produzir conjuntos de dados sintéticos e duas técnicas de OCC para seleção de conjuntos de dados. Os resultados demonstraram que é possível usar um número reduzido de conjuntos de dados sintéticos selecionados, mantendo um bom desempenho de meta-aprendizagem.
-
Mostrar Abstract
-
A seleção de algoritmos é uma tarefa crucial e desafiadora no aprendizado de máquina em diferentes domínios do conhecimento. O meta-aprendizado trata a seleção de algoritmos como uma tarefa de aprendizado supervisionado. Exemplos de treinamento (ou seja, meta-exemplos) são gerados a partir de experimentos realizados com um conjunto de algoritmos candidatos em vários conjuntos de dados. Pode haver uma pequena disponibilidade de conjuntos de dados reais em alguns domínios, o que torna difícil gerar bons meta-exemplos. Portanto, confiar em conjuntos de dados sintéticos pode ser uma boa alternativa para gerar meta-exemplos. No entanto, não é garantido que todos os conjuntos de dados sintéticos sejam relevantes e representativos em comparação com os conjuntos de dados reais. Desta forma, o uso indiscriminado de muitos conjuntos de dados sintéticos aumenta o custo computacional da realização de experimentos sem melhorar significativamente a precisão do meta-aprendizado. Nesta tese, lidamos com a seleção de conjuntos de dados sintéticos para meta-aprendizagem como um problema de classificação de uma classe (OCC). Em OCC, os classificadores são construídos assumindo a disponibilidade de exemplos de treinamento pertencentes a uma classe única de interesse (ou seja, a classe positiva), enquanto os rótulos de classe dos outros exemplos são desconhecidos. Na solução proposta, técnicas de OCC são utilizadas para selecionar os conjuntos de dados sintéticos mais relevantes (a classe desconhecida), considerando os conjuntos de dados reais (a classe positiva) disponíveis. Também conduzimos experimentos em dois estudos de caso, nos quais empregamos dois procedimentos diferentes de manipulação de dados para produzir conjuntos de dados sintéticos e duas técnicas de OCC para seleção de conjuntos de dados. Os resultados demonstraram que é possível usar um número reduzido de conjuntos de dados sintéticos selecionados, mantendo um bom desempenho de meta-aprendizagem.
|
|
2
|
-
WAGNER JORGE FIRMINO DA SILVA
-
Métodos de Aprendizagem Estatística para Dados Simbólicos Poligonais
-
Orientador : RENATA MARIA CARDOSO RODRIGUES DE SOUZA
-
MEMBROS DA BANCA :
-
ADRIANO LORENA INACIO DE OLIVEIRA
-
BRUNO ALMEIDA PIMENTEL
-
GETULIO JOSE AMORIM DO AMARAL
-
LEANDRO CARLOS DE SOUZA
-
TELMO DE MENEZES E SILVA FILHO
-
Data: 14/02/2022
-
-
Mostrar Resumo
-
Ciência de Dados é um campo que diz respeito à análise e extração de conhecimento e informações valiosas de dados estruturados e não estruturados. A Análise de Dados Simbólicos fornece uma estrutura que fornece respostas para dados grandes e complexos. Nesta tese, propomos ferramentas para manipulação e extração de conhecimento em dados simbólicos poligonais, um tipo de dado simbólico multivalorado. Dessa forma, modelos bivariados poligonais são discutidos a partir de um caso especial desses modelos para dados intervalares. O modelo bivariado é menos sensível na presença de valores discrepantes de intervalo. Além disso, desenvolvemos um cluster dinâmico considerando a distância de Hausdorff para dados poligonais, onde os protótipos são obtidos a partir de uma solução analítica independente do número de lados. Outra contribuição desta tese é a criação de um pacote na linguagem R, chamado psda para análise de dados simbólicos poligonais. Este pacote fornece ferramentas que permitem agregação de dados por classes, representação de dados no centro e raio do polígono, análise descritiva e modelagem de dados poligonais. Para ilustrar a aplicabilidade do modelo, algoritmo de clusterização e do pacote, alguns exemplos são exibidos.
-
Mostrar Abstract
-
Ciência de Dados é um campo que diz respeito à análise e extração de conhecimento e informações valiosas de dados estruturados e não estruturados. A Análise de Dados Simbólicos fornece uma estrutura que fornece respostas para dados grandes e complexos. Nesta tese, propomos ferramentas para manipulação e extração de conhecimento em dados simbólicos poligonais, um tipo de dado simbólico multivalorado. Dessa forma, modelos bivariados poligonais são discutidos a partir de um caso especial desses modelos para dados intervalares. O modelo bivariado é menos sensível na presença de valores discrepantes de intervalo. Além disso, desenvolvemos um cluster dinâmico considerando a distância de Hausdorff para dados poligonais, onde os protótipos são obtidos a partir de uma solução analítica independente do número de lados. Outra contribuição desta tese é a criação de um pacote na linguagem R, chamado psda para análise de dados simbólicos poligonais. Este pacote fornece ferramentas que permitem agregação de dados por classes, representação de dados no centro e raio do polígono, análise descritiva e modelagem de dados poligonais. Para ilustrar a aplicabilidade do modelo, algoritmo de clusterização e do pacote, alguns exemplos são exibidos.
|
|
3
|
-
DOMINGOS SÁVIO DE OLIVEIRA SANTOS JÚNIOR
-
Método de Ensemble para correção de modelos ARIMA: uma abordagem de sistema híbrido para previsão de séries temporais
-
Orientador : PAULO SALGADO GOMES DE MATTOS NETO
-
MEMBROS DA BANCA :
-
MANOEL HENRIQUE DA NÓBREGA MARINHO
-
ADRIANO LORENA INACIO DE OLIVEIRA
-
HUGO VALADARES SIQUEIRA
-
PAULO RENATO ALVES FIRMINO
-
RICARDO BASTOS CAVALCANTE PRUDENCIO
-
Data: 17/02/2022
-
-
Mostrar Resumo
-
Nas últimas décadas Sistemas Híbridos (SH) que utilizam a modelagem residual têm sido amplamente aplicados no contexto de previsão de séries temporais. Esta abordagem utiliza como previsão final a combinação da previsão de um modelo linear com a previsão do resíduo obtida por um modelo de Aprendizagem de Máquina (AM) não linear. Essa série de resíduo representa a diferença entre a previsão linear e valor real da série temporal. Uma vez que normalmente são encontrados padrões lineares e não lineares em séries temporais reais, esta classe de SH tem alcançado resultados empíricos e teóricos promissores em razão da sua arquitetura ser capaz de modelar esses padrões em etapas especificas. Contudo, são identificadas limitações na etapa de modelagem residual, sendo que por conta de sua complexidade, um modelo de AM pode apresentar problemas de má especificação de parâmetros, sobre ajuste e sub ajuste, prejudicando os resultados de todo SH. Baseado neste problema, este trabalho propõe um método de ensemble para previsão residual (Ensemble method for Residual Forecast (ERF)). O método ERF é composto por três fases gerais: (i) previsão da série temporal por meio de um modelo linear; (ii) previsão do erro realizada por um ensemble; (iii) combinação pela soma das previsões das fases (i) e (ii). A fase (ii) é a principal contribuição desta tese, na qual é proposta uma abordagem homogênea que cria um ensemble de modelos de AM diverso e de forma sistemática. O ARIMA é utilizado como modelo linear, já como modelo não linear são avaliados o MLP e SVR. Desta forma, são obtidas duas versões do método proposto: ERFMLP e ERFSVR. Essas versões são aplicadas em doze séries temporais reais com os respectivos modelos simples (ARIMA, MLP e SVR) e sete sistemas híbridos da literatura. Todos os métodos são avaliados por meio da métrica Raiz do Erro Quadrático Médio e testes estatísticos de Wilcoxon, Friedman e Nemenyi. Com base nessas formas de avaliação, visualiza-se que as abordagens propostas possuem a capacidade de encontrar bons resultados quando aplicadas em diferentes séries temporais.
-
Mostrar Abstract
-
Nas últimas décadas Sistemas Híbridos (SH) que utilizam a modelagem residual têm sido amplamente aplicados no contexto de previsão de séries temporais. Esta abordagem utiliza como previsão final a combinação da previsão de um modelo linear com a previsão do resíduo obtida por um modelo de Aprendizagem de Máquina (AM) não linear. Essa série de resíduo representa a diferença entre a previsão linear e valor real da série temporal. Uma vez que normalmente são encontrados padrões lineares e não lineares em séries temporais reais, esta classe de SH tem alcançado resultados empíricos e teóricos promissores em razão da sua arquitetura ser capaz de modelar esses padrões em etapas especificas. Contudo, são identificadas limitações na etapa de modelagem residual, sendo que por conta de sua complexidade, um modelo de AM pode apresentar problemas de má especificação de parâmetros, sobre ajuste e sub ajuste, prejudicando os resultados de todo SH. Baseado neste problema, este trabalho propõe um método de ensemble para previsão residual (Ensemble method for Residual Forecast (ERF)). O método ERF é composto por três fases gerais: (i) previsão da série temporal por meio de um modelo linear; (ii) previsão do erro realizada por um ensemble; (iii) combinação pela soma das previsões das fases (i) e (ii). A fase (ii) é a principal contribuição desta tese, na qual é proposta uma abordagem homogênea que cria um ensemble de modelos de AM diverso e de forma sistemática. O ARIMA é utilizado como modelo linear, já como modelo não linear são avaliados o MLP e SVR. Desta forma, são obtidas duas versões do método proposto: ERFMLP e ERFSVR. Essas versões são aplicadas em doze séries temporais reais com os respectivos modelos simples (ARIMA, MLP e SVR) e sete sistemas híbridos da literatura. Todos os métodos são avaliados por meio da métrica Raiz do Erro Quadrático Médio e testes estatísticos de Wilcoxon, Friedman e Nemenyi. Com base nessas formas de avaliação, visualiza-se que as abordagens propostas possuem a capacidade de encontrar bons resultados quando aplicadas em diferentes séries temporais.
|
|
4
|
-
JOSE GUEDES DOS SANTOS JUNIOR
-
Método Robusto à Oclusão para Rastreamento 6-DOF de Objetos em Imagens RGB-D com Otimização por Enxame de Partículas
-
Orientador : VERONICA TEICHRIEB
-
MEMBROS DA BANCA :
-
JOAO PAULO PAPA
-
CLÁUDIO ROSITO JUNG
-
CLEBER ZANCHETTIN
-
PERICLES BARBOSA CUNHA DE MIRANDA
-
SILVIO DE BARROS MELO
-
Data: 17/02/2022
-
-
Mostrar Resumo
-
Rastreadores visuais podem ser usados para determinar a trajetória de objetos 3D rígidos com 6 graus de liberdade em tempo real. Essa funcionalidade é necessária para vários tipos de aplicações, como em realidade aumentada ou robótica, e sua eficiência muitas vezes está relacionada com a acurácia, a robustez a falha e o desempenho de tempo desses rastreadores. Nos últimos anos, vários trabalhos contribuíram para a melhoria dessas técnicas, apresentando métodos com boa acurácia que são executados em tempo real, dentre os quais se destacam aqueles baseados em otimização, baseados em aprendizagem e híbridos, ou seja, que utilizam otimização e aprendizagem de forma cooperativa. Neste contexto, o presente trabalho propõe melhorias no rastreamento com 6 graus de liberdade de objetos 3D arbitrários que usa otimização por enxame de partículas. Dentre elas, destacam-se: o aperfeiçoamento da função de aptidão usando média harmônica das coordenadas 3D, cor e normais dos pontos; a seleção dinâmica da região de interesse na nuvem de pontos da cena; a filtragem dos pontos visíveis do modelo considerando a auto-oclusão e a oclusão por outros objetos da cena; o cálculo das fronteiras do subespaço de soluções em tempo de execução, observando a inércia do objeto alvo; a filtragem de poses em tempo de execução a partir da trajetória encontrada; e a implementação da otimização por enxame de partículas completamente em GPU. Experimentos mostraram que tais mudanças possibilitaram melhorias na robustez a falhas, na acurácia e no desempenho de tempo da técnica. Quando comparado com métodos presentes no estado da arte, o rastreador proposto nessa proposta de tese foi, em média, 19,3% e 16,3% mais acurado em relação aos erros de translação e rotação, respectivamente, e apresentou um número de falhas 78,4% menor. O rastreador proposto ainda foi de 5 a 7 vezes mais rápido que uma técnica existente baseada em otimização por enxame de partículas.
-
Mostrar Abstract
-
Rastreadores visuais podem ser usados para determinar a trajetória de objetos 3D rígidos com 6 graus de liberdade em tempo real. Essa funcionalidade é necessária para vários tipos de aplicações, como em realidade aumentada ou robótica, e sua eficiência muitas vezes está relacionada com a acurácia, a robustez a falha e o desempenho de tempo desses rastreadores. Nos últimos anos, vários trabalhos contribuíram para a melhoria dessas técnicas, apresentando métodos com boa acurácia que são executados em tempo real, dentre os quais se destacam aqueles baseados em otimização, baseados em aprendizagem e híbridos, ou seja, que utilizam otimização e aprendizagem de forma cooperativa. Neste contexto, o presente trabalho propõe melhorias no rastreamento com 6 graus de liberdade de objetos 3D arbitrários que usa otimização por enxame de partículas. Dentre elas, destacam-se: o aperfeiçoamento da função de aptidão usando média harmônica das coordenadas 3D, cor e normais dos pontos; a seleção dinâmica da região de interesse na nuvem de pontos da cena; a filtragem dos pontos visíveis do modelo considerando a auto-oclusão e a oclusão por outros objetos da cena; o cálculo das fronteiras do subespaço de soluções em tempo de execução, observando a inércia do objeto alvo; a filtragem de poses em tempo de execução a partir da trajetória encontrada; e a implementação da otimização por enxame de partículas completamente em GPU. Experimentos mostraram que tais mudanças possibilitaram melhorias na robustez a falhas, na acurácia e no desempenho de tempo da técnica. Quando comparado com métodos presentes no estado da arte, o rastreador proposto nessa proposta de tese foi, em média, 19,3% e 16,3% mais acurado em relação aos erros de translação e rotação, respectivamente, e apresentou um número de falhas 78,4% menor. O rastreador proposto ainda foi de 5 a 7 vezes mais rápido que uma técnica existente baseada em otimização por enxame de partículas.
|
|
5
|
-
MARCIO ROBERIO DA COSTA FERRO
-
AStar: A Modeling Language for Document-oriented Geospatial Data Warehouses
-
Orientador : ROBSON DO NASCIMENTO FIDALGO
-
MEMBROS DA BANCA :
-
VÍTOR ESTEVÃO SILVA SOUZA
-
ANA CAROLINA BRANDAO SALGADO
-
CLAUDIO DE SOUZA BAPTISTA
-
LUCIANO DE ANDRADE BARBOSA
-
VINICIUS CARDOSO GARCIA
-
Data: 18/02/2022
-
-
Mostrar Resumo
-
Um Data Warehouse Geoespacial (DWG) é uma extensão de um Data Warehouse tradicional que inclui dados geoespaciais nos processos de tomada de decisão. Diversos estudos propõem o uso de bancos de dados orientados a documentos em um DWG como alternativa aos bancos de dados relacionais. Isso se deve à capacidade dos bancos de dados não relacionais de escalar horizontalmente, permitindo o armazenamento e o processamento de grandes volumes de dados. Nesse contexto, modelar por meio da análise visual a maneira como fatos e dimensões estão estruturados é importante para entender, manter e evoluir o DWG Orientado a Documentos (DWGD). No entanto, até onde sabemos, não há linguagens de modelagem conhecidas que suportem o design de fatos e dimensões como documentos referenciados (normalizados) ou embutidos (desnormalizados), particionados em uma ou mais coleções. Para superar essa lacuna, propomos Aggregate Star (AStar), uma linguagem de modelagem específica de domínio para projetar esquemas lógicos de DWGD. AStar é definida por uma sintaxe concreta (notação gráfica), uma sintaxe abstrata (metamodelo) e semântica estática (regras de boa formação). Para descrever a semântica dos conceitos definidos em AStar, semântica translacional é usada para mapear a notação gráfica para o metamodelo e o respectivo código que define o esquema no MongoDB (usando JSON Schema). Avaliamos a notação gráfica usando \textit{Physics of Notations} (PoN), que fornece um conjunto de princípios para projetar notações visuais cognitivamente eficazes. Essa avaliação revelou que AStar está de acordo com oito dos nove Princípios PoN, um nível adequado de eficácia cognitiva. Como prova de conceito, o metamodelo e as regras de boa formação foram implementados em um protótipo de ferramenta de Engenharia de Software Assistida por Computador, denominado AStarCASE. Nesta versão atual, AStarCASE pode ser usada para projetar esquemas lógicos de DWGD e gerar seu código correspondente na forma de esquemas JSON. Além disso, apresentamos uma guia que mostra como projetar esquemas que possuem fatos, dimensões convencionais e dimensões geoespaciais relacionadas como documentos referenciados ou incorporados, particionados em uma ou mais coleções. O guia também apresenta boas práticas para obter baixo volume de dados e baixo tempo de execução de consulta em um DWGD.
-
Mostrar Abstract
-
Um Data Warehouse Geoespacial (DWG) é uma extensão de um Data Warehouse tradicional que inclui dados geoespaciais nos processos de tomada de decisão. Diversos estudos propõem o uso de bancos de dados orientados a documentos em um DWG como alternativa aos bancos de dados relacionais. Isso se deve à capacidade dos bancos de dados não relacionais de escalar horizontalmente, permitindo o armazenamento e o processamento de grandes volumes de dados. Nesse contexto, modelar por meio da análise visual a maneira como fatos e dimensões estão estruturados é importante para entender, manter e evoluir o DWG Orientado a Documentos (DWGD). No entanto, até onde sabemos, não há linguagens de modelagem conhecidas que suportem o design de fatos e dimensões como documentos referenciados (normalizados) ou embutidos (desnormalizados), particionados em uma ou mais coleções. Para superar essa lacuna, propomos Aggregate Star (AStar), uma linguagem de modelagem específica de domínio para projetar esquemas lógicos de DWGD. AStar é definida por uma sintaxe concreta (notação gráfica), uma sintaxe abstrata (metamodelo) e semântica estática (regras de boa formação). Para descrever a semântica dos conceitos definidos em AStar, semântica translacional é usada para mapear a notação gráfica para o metamodelo e o respectivo código que define o esquema no MongoDB (usando JSON Schema). Avaliamos a notação gráfica usando \textit{Physics of Notations} (PoN), que fornece um conjunto de princípios para projetar notações visuais cognitivamente eficazes. Essa avaliação revelou que AStar está de acordo com oito dos nove Princípios PoN, um nível adequado de eficácia cognitiva. Como prova de conceito, o metamodelo e as regras de boa formação foram implementados em um protótipo de ferramenta de Engenharia de Software Assistida por Computador, denominado AStarCASE. Nesta versão atual, AStarCASE pode ser usada para projetar esquemas lógicos de DWGD e gerar seu código correspondente na forma de esquemas JSON. Além disso, apresentamos uma guia que mostra como projetar esquemas que possuem fatos, dimensões convencionais e dimensões geoespaciais relacionadas como documentos referenciados ou incorporados, particionados em uma ou mais coleções. O guia também apresenta boas práticas para obter baixo volume de dados e baixo tempo de execução de consulta em um DWGD.
|
|
6
|
-
SARA INES RIZO RODRIGUEZ
-
Clustering algorithms with new automatic variables weighting
-
Orientador : FRANCISCO DE ASSIS TENORIO DE CARVALHO
-
MEMBROS DA BANCA :
-
VINICIUS LAYTER XAVIER
-
CLEBER ZANCHETTIN
-
HELOISA DE ARRUDA CAMARGO
-
PAULO SALGADO GOMES DE MATTOS NETO
-
TSANG ING REN
-
Data: 21/02/2022
-
-
Mostrar Resumo
-
Todos os dias, uma grande quantidade de informações é armazenada ou representada como dados para posterior análise e gerenciamento. A análise de dados desempenha um papel indispensável na compreensão de diferentes fenômenos. Um dos meios vitais de lidar com esses dados é classificá-los ou agrupá-los em um conjunto de categorias ou grupos. O agrupamento ou análise de agrupamento visa dividir uma coleção de itens de dados em grupos, dada uma medida de similaridade. O agrupamento tem sido usado em vários campos, como processamento de imagens, mineração de dados, reconhecimento de padrões e análise estatística. Geralmente, os métodos de agrupamento lidam com objetos descritos por variáveis de valor real. No entanto, essa representação é muito restritiva para representar dados complexos, como listas, histogramas ou mesmo intervalos. Além disso, em alguns problemas, muitas dimensões são irrelevantes e podem mascarar os grupos existentes, por exemplo, os grupos podem existir em diferentes subconjuntos das variáveis. Este trabalho enfoca a análise de agrupamento de dados descritos por variáveis de valor real e de valor de intervalo. Nesse sentido, novos algoritmos de agrupamento de subespaço flexível foram propostos, nos quais a correlação e a relevância das variáveis são consideradas para melhorar o desempenho. No caso de dados com valor de intervalo, assumimos que a importância dos limites das variáveis com valor de intervalo pode ser a mesma ou pode ser diferente para o processo de agrupamento. Como os métodos baseados em regularização são robustos à inicializações, as abordagens propostas introduzem um termo de regularização para controlar o grau de pertinência dos objetos aos grupos. Essas regularizações são populares devido ao alto desempenho no agrupamento de dados em grande escala e baixa complexidade computacional. Esses algoritmos iterativos de três etapas fornecem uma partição difusa, um representante para cada grupo, e o peso de relevância das variáveis ou sua correlação, minimizando uma função objetivo adequada. Experimentos com conjuntos de dados sintéticos e reais corroboram a robustez e utilidade dos métodos de agrupamento propostos.
-
Mostrar Abstract
-
Todos os dias, uma grande quantidade de informações é armazenada ou representada como dados para posterior análise e gerenciamento. A análise de dados desempenha um papel indispensável na compreensão de diferentes fenômenos. Um dos meios vitais de lidar com esses dados é classificá-los ou agrupá-los em um conjunto de categorias ou grupos. O agrupamento ou análise de agrupamento visa dividir uma coleção de itens de dados em grupos, dada uma medida de similaridade. O agrupamento tem sido usado em vários campos, como processamento de imagens, mineração de dados, reconhecimento de padrões e análise estatística. Geralmente, os métodos de agrupamento lidam com objetos descritos por variáveis de valor real. No entanto, essa representação é muito restritiva para representar dados complexos, como listas, histogramas ou mesmo intervalos. Além disso, em alguns problemas, muitas dimensões são irrelevantes e podem mascarar os grupos existentes, por exemplo, os grupos podem existir em diferentes subconjuntos das variáveis. Este trabalho enfoca a análise de agrupamento de dados descritos por variáveis de valor real e de valor de intervalo. Nesse sentido, novos algoritmos de agrupamento de subespaço flexível foram propostos, nos quais a correlação e a relevância das variáveis são consideradas para melhorar o desempenho. No caso de dados com valor de intervalo, assumimos que a importância dos limites das variáveis com valor de intervalo pode ser a mesma ou pode ser diferente para o processo de agrupamento. Como os métodos baseados em regularização são robustos à inicializações, as abordagens propostas introduzem um termo de regularização para controlar o grau de pertinência dos objetos aos grupos. Essas regularizações são populares devido ao alto desempenho no agrupamento de dados em grande escala e baixa complexidade computacional. Esses algoritmos iterativos de três etapas fornecem uma partição difusa, um representante para cada grupo, e o peso de relevância das variáveis ou sua correlação, minimizando uma função objetivo adequada. Experimentos com conjuntos de dados sintéticos e reais corroboram a robustez e utilidade dos métodos de agrupamento propostos.
|
|
7
|
-
DAILYS MAITE ALIAGA REYES
-
Predição para Dados Simbólicos Multi-valorados de Tipo Quartis: Caso Especial Dados Representados por Boxplots
-
Orientador : RENATA MARIA CARDOSO RODRIGUES DE SOUZA
-
MEMBROS DA BANCA :
-
FRANCISCO CRIBARI NETO
-
LEANDRO CARLOS DE SOUZA
-
NIVAN ROBERTO FERREIRA JUNIOR
-
PAULO SALGADO GOMES DE MATTOS NETO
-
TELMO DE MENEZES E SILVA FILHO
-
Data: 23/02/2022
-
-
Mostrar Resumo
-
Um dado simbólico de tipo 𝑏𝑜𝑥𝑝𝑙𝑜𝑡 pode ser considerado como um caso particular das variáveis numéricas multi-valoradas no contexto da Análises de Dados Simbólicos (ADS). Este tipo de dado tem uma estrutura simples que permite resumir informações de unidades agregadas, chamadas de classes. No entanto, esse tipo de estrutura tem sido pouco explorada na literatura de ADS. Este trabalho apresenta duas novas abordagens de predição com o objetivo de extrair conhecimento e fazer inferência usando dados de 𝑏𝑜𝑥𝑝𝑙𝑜𝑡. A primeira abordagem considera um modelo de regressão para 𝑏𝑜𝑥𝑝𝑙𝑜𝑡 através da equação paramétrica da reta. Esta parametrização permite o ajuste dos pontos nas variáveis regressoras que permite melhorar a qualidade da variável resposta. Nessa direção, um critério é também proposto para verificar a coerência matemática da predição. Se a coerência não é garantida, uma nova estratégia, através de transformações 𝐵𝑜𝑥 −𝐶𝑜𝑥 é aplicada sobre a variável resposta de tipo 𝑏𝑜𝑥𝑝𝑙𝑜𝑡. A segunda abordagem proposta nesse trabalho consiste de um modelo que combina agregação, seleção de protótipos e previsão de series temporais. Inicialmente, as séries temporais são agregadas em classes de entidades e representadas por 𝑏𝑜𝑥𝑝𝑙𝑜𝑡𝑠. Um processo de seleção de protótipos baseado na informação mútua é aplicado para mitigar ruídos no conjunto de dados. Por último, um modelo multivariado para previsão de 𝑏𝑜𝑥𝑝𝑙𝑜𝑡𝑠 é construído. Ambos modelos são avaliados com conjuntos de dados sintéticos e reais. Uma comparação entre as abordagens propostas e outros métodos de predição da literatura de ADS é também descrita. Além disso, este trabalho apresenta uma aplicação do mundo real no Setor Elétrico Brasileiro para fazer predição da temperatura dos motores usando a abordagem de regressão paramétrica para dados de 𝑏𝑜𝑥𝑝𝑙𝑜𝑡.
-
Mostrar Abstract
-
Um dado simbólico de tipo 𝑏𝑜𝑥𝑝𝑙𝑜𝑡 pode ser considerado como um caso particular das variáveis numéricas multi-valoradas no contexto da Análises de Dados Simbólicos (ADS). Este tipo de dado tem uma estrutura simples que permite resumir informações de unidades agregadas, chamadas de classes. No entanto, esse tipo de estrutura tem sido pouco explorada na literatura de ADS. Este trabalho apresenta duas novas abordagens de predição com o objetivo de extrair conhecimento e fazer inferência usando dados de 𝑏𝑜𝑥𝑝𝑙𝑜𝑡. A primeira abordagem considera um modelo de regressão para 𝑏𝑜𝑥𝑝𝑙𝑜𝑡 através da equação paramétrica da reta. Esta parametrização permite o ajuste dos pontos nas variáveis regressoras que permite melhorar a qualidade da variável resposta. Nessa direção, um critério é também proposto para verificar a coerência matemática da predição. Se a coerência não é garantida, uma nova estratégia, através de transformações 𝐵𝑜𝑥 −𝐶𝑜𝑥 é aplicada sobre a variável resposta de tipo 𝑏𝑜𝑥𝑝𝑙𝑜𝑡. A segunda abordagem proposta nesse trabalho consiste de um modelo que combina agregação, seleção de protótipos e previsão de series temporais. Inicialmente, as séries temporais são agregadas em classes de entidades e representadas por 𝑏𝑜𝑥𝑝𝑙𝑜𝑡𝑠. Um processo de seleção de protótipos baseado na informação mútua é aplicado para mitigar ruídos no conjunto de dados. Por último, um modelo multivariado para previsão de 𝑏𝑜𝑥𝑝𝑙𝑜𝑡𝑠 é construído. Ambos modelos são avaliados com conjuntos de dados sintéticos e reais. Uma comparação entre as abordagens propostas e outros métodos de predição da literatura de ADS é também descrita. Além disso, este trabalho apresenta uma aplicação do mundo real no Setor Elétrico Brasileiro para fazer predição da temperatura dos motores usando a abordagem de regressão paramétrica para dados de 𝑏𝑜𝑥𝑝𝑙𝑜𝑡.
|
|
8
|
-
ALYSSON BISPO PEREIRA
-
FILTRAGEM ROBUSTA DE RUÍDO DE RÓTULO PARA PREVISÃO DE DEFEITOS DE SOFTWARE
-
Orientador : RICARDO BASTOS CAVALCANTE PRUDENCIO
-
MEMBROS DA BANCA :
-
ANA CAROLINA LORENA
-
ALEXANDRE CABRAL MOTA
-
ANNE MAGALY DE PAULA CANUTO
-
CLEBER ZANCHETTIN
-
LUCIANO DE ANDRADE BARBOSA
-
Data: 23/02/2022
-
-
Mostrar Resumo
-
Várias métricas de software e métodos estatísticos foram desenvolvidos para ajudar as empresas a prever defeitos de software. Tradicionalmente, para garantir a qualidade do software, o código-fonte pode ser inspecionado estaticamente por processos de revisão de código ou mesmo avaliado por meio da execução de testes por meio da execução do software. Por outro lado, os métodos de aprendizado de máquina foram treinados usando conjuntos de dados rotulados com base nas alterações de código e bugs relatados. Estudos anteriores demonstraram que esses conjuntos de dados são geralmente barulhentos devido a bugs não relatados ou devido a inconsistências nos relatórios de bug. Nesses casos, muitas instâncias de treinamento são atribuídas ao rótulo de classe errado. Como em qualquer outro contexto de aprendizado de máquina, o desempenho de um preditor de defeito depende de um conjunto de dados de treinamento confiável. Assim, evitar o uso de instâncias ruidosas na fase de treinamento pode ser crucial. As abordagens usadas até agora para detectar ruídos não consideraram métodos tradicionais de garantia de qualidade de software, como revisão de código. Neste artigo, propomos Robust Label Noise Filtering (RLNF) para aplicar técnicas de detecção de ruído de rótulo para identificar defeitos de software não relatados, identificando artefatos de software rotulados como livres de defeitos quando na verdade possuem defeitos ainda não encontrados pelos usuários finais. Para isso, estamos utilizando diferentes estratégias de detecção de ruído de rótulo para reproduzir os mecanismos usados no processo de revisão de código. Os experimentos foram realizados em um conjunto de benchmarking de projetos de software, alcançando resultados promissores.
-
Mostrar Abstract
-
Várias métricas de software e métodos estatísticos foram desenvolvidos para ajudar as empresas a prever defeitos de software. Tradicionalmente, para garantir a qualidade do software, o código-fonte pode ser inspecionado estaticamente por processos de revisão de código ou mesmo avaliado por meio da execução de testes por meio da execução do software. Por outro lado, os métodos de aprendizado de máquina foram treinados usando conjuntos de dados rotulados com base nas alterações de código e bugs relatados. Estudos anteriores demonstraram que esses conjuntos de dados são geralmente barulhentos devido a bugs não relatados ou devido a inconsistências nos relatórios de bug. Nesses casos, muitas instâncias de treinamento são atribuídas ao rótulo de classe errado. Como em qualquer outro contexto de aprendizado de máquina, o desempenho de um preditor de defeito depende de um conjunto de dados de treinamento confiável. Assim, evitar o uso de instâncias ruidosas na fase de treinamento pode ser crucial. As abordagens usadas até agora para detectar ruídos não consideraram métodos tradicionais de garantia de qualidade de software, como revisão de código. Neste artigo, propomos Robust Label Noise Filtering (RLNF) para aplicar técnicas de detecção de ruído de rótulo para identificar defeitos de software não relatados, identificando artefatos de software rotulados como livres de defeitos quando na verdade possuem defeitos ainda não encontrados pelos usuários finais. Para isso, estamos utilizando diferentes estratégias de detecção de ruído de rótulo para reproduzir os mecanismos usados no processo de revisão de código. Os experimentos foram realizados em um conjunto de benchmarking de projetos de software, alcançando resultados promissores.
|
|
9
|
-
GUSTAVO HENRIQUE FERREIRA DE MIRANDA OLIVEIRA
-
TACKLING VIRTUAL AND REAL CONCEPT DRIFTS VIA ADAPTIVE GAUSSIAN MIXTURE MODEL APPROACHES
-
Orientador : ADRIANO LORENA INACIO DE OLIVEIRA
-
MEMBROS DA BANCA :
-
LUIZ EDUARDO SOARES OLIVEIRA
-
JOAO GAMA
-
FRANCISCO DE ASSIS TENORIO DE CARVALHO
-
GEORGE DARMITON DA CUNHA CAVALCANTI
-
TERESA BERNARDA LUDERMIR
-
Data: 24/02/2022
-
-
Mostrar Resumo
-
As aplicações do mundo real têm lidado com uma grande quantidade de informações, que chegam de forma contínua e sequencialmente ao longo do tempo, caracterizadas como fluxos de dados. Esse tipo de dado desafia os algoritmos de aprendizado de máquina devido à mudança de conceito. A mudança de conceito é uma mudança na distribuição de probabilidade conjunta do problema e tem duas variações: a mudança virtual que afeta a distribuição de probabilidade incondicional p(x); e a mudança real que afeta a distribuição de probabilidade condicional p(y|x). Essas mudanças podem ocorrer separadamente e simultaneamente e ter impactos diferentes no desempenho do classificador. Os trabalhos da literatura geralmente não compreendem bem esses aspectos. Devido a isso, se concentram apenas nas mudanças reais, por que elas causam degradação direta no desempenho do classificador. No entanto, desvios virtuais também podem causar essa degradação de forma indireta. Novas observações podem chegar em uma região não treinada pelo classificador, forçando-o a confundir sua verdadeira classe, assim cometendo erros de classificação. O ideal seria ter classificadores que entendam que tipo de mudança ocorre em determinado momento para ativar estratégias apropriadas para lidar com este desafio. Este processo é chamado de entendimento da mudança. Como as abordagens da literatura não compreendem bem os diferentes impactos causados pelas mudanças virtuais e reais, o seu desempenho fica limitado. Motivados por isso, propomos três abordagens para entender o tipo da mudança e usar a estratégia correta para se adaptar, sendo elas: (i) (GMM-VRD) Gaussian Mixture Model For Dealing With Virtual and Real Concept Drifts; (ii) (OGMMF-VRD) On-line Gaussian Mixture Model With Noise Filter For Handling Virtual And Real Concept Drifts ; e (iii) (GLDD-DU) Gaussian Local Drift Detector for Drift Understanding. Essas abordagens atualizam e criam Gaussians on-line para lidar com mudanças virtuais, usam detectores de mudança para reinicializar o conhecimento do sistema para lidar com mudanças reais e recuperam modelos do pool para acelerar a adaptação a um novo conceito. Os principais resultados mostraram que todas as abordagens apresentam desempenho competitivo, mas o OGMMF-VRD foi mais consistente ao longo dos conjuntos de dados, apresentando melhor desempenho.
-
Mostrar Abstract
-
As aplicações do mundo real têm lidado com uma grande quantidade de informações, que chegam de forma contínua e sequencialmente ao longo do tempo, caracterizadas como fluxos de dados. Esse tipo de dado desafia os algoritmos de aprendizado de máquina devido à mudança de conceito. A mudança de conceito é uma mudança na distribuição de probabilidade conjunta do problema e tem duas variações: a mudança virtual que afeta a distribuição de probabilidade incondicional p(x); e a mudança real que afeta a distribuição de probabilidade condicional p(y|x). Essas mudanças podem ocorrer separadamente e simultaneamente e ter impactos diferentes no desempenho do classificador. Os trabalhos da literatura geralmente não compreendem bem esses aspectos. Devido a isso, se concentram apenas nas mudanças reais, por que elas causam degradação direta no desempenho do classificador. No entanto, desvios virtuais também podem causar essa degradação de forma indireta. Novas observações podem chegar em uma região não treinada pelo classificador, forçando-o a confundir sua verdadeira classe, assim cometendo erros de classificação. O ideal seria ter classificadores que entendam que tipo de mudança ocorre em determinado momento para ativar estratégias apropriadas para lidar com este desafio. Este processo é chamado de entendimento da mudança. Como as abordagens da literatura não compreendem bem os diferentes impactos causados pelas mudanças virtuais e reais, o seu desempenho fica limitado. Motivados por isso, propomos três abordagens para entender o tipo da mudança e usar a estratégia correta para se adaptar, sendo elas: (i) (GMM-VRD) Gaussian Mixture Model For Dealing With Virtual and Real Concept Drifts; (ii) (OGMMF-VRD) On-line Gaussian Mixture Model With Noise Filter For Handling Virtual And Real Concept Drifts ; e (iii) (GLDD-DU) Gaussian Local Drift Detector for Drift Understanding. Essas abordagens atualizam e criam Gaussians on-line para lidar com mudanças virtuais, usam detectores de mudança para reinicializar o conhecimento do sistema para lidar com mudanças reais e recuperam modelos do pool para acelerar a adaptação a um novo conceito. Os principais resultados mostraram que todas as abordagens apresentam desempenho competitivo, mas o OGMMF-VRD foi mais consistente ao longo dos conjuntos de dados, apresentando melhor desempenho.
|
|
10
|
-
LEUSON MARIO PEDRO DA SILVA
-
Detectando, Entendendo e Resolvendo Conflitos de Build e Teste
-
Orientador : PAULO HENRIQUE MONTEIRO BORBA
-
MEMBROS DA BANCA :
-
EVERTON LEANDRO GALDINO ALVES
-
MARCIO DE OLIVEIRA BARROS
-
BRENO ALEXANDRO FERREIRA DE MIRANDA
-
MARCIO LOPES CORNELIO
-
RODRIGO BONIFACIO DE ALMEIDA
-
Data: 24/02/2022
-
-
Mostrar Resumo
-
Durante o desenvolvimento colaborativo de software, desenvolvedores geralmente adotam práticas de criação e integração (merge) de ramos de desenvolvimento quando trabalham em suas contribuições, permitindo que eles contribuam para um projeto de software independentemente. Apesar destes benefícios, estas práticas vem com um custo, a necessidade de integrar software e resolver conflitos de merge, que frequentemente ocorrem na prática. Enquanto técnicas modernas de merge, tais como merge estruturado ou 3-way, podem automaticamente resolver muitos destes conflitos, elas falham quando o conflito surge no nível semântico conhecidos como conflitos semânticos. Estes conflitos são revelados por falhas durante o processo de build e execução de testes do código integrado conhecidos como conflitos de build e teste, respectivamente. Detectar estes conflitos semânticos requer um entendimento do comportamento do software, o que está além da capacidade da maioria das ferramentas de integração de código e assistentes. Para resolver a necessidade de melhores ferramentas assistentes, nós investigamos a ocorrência de conflitos semânticos identificando suas causas e propondo ferramentas que possam apoiar os desenvolvedores quando eles enfrentam estes conflitos durante integrações de código em cenários de merge. Inicialmente, nós realizamos um estudo identificando a frequência, estrutura e padrões de resolução adotados em conflitos de build analisando empiricamente 451 projetos Java open-source. Como resultado, nós provemos um catálogo de conflitos com 239 ocorrências divididos em seis categorias. A maioria dos conflitos de build são causados por declarações não-resolvidas, removidas ou renomeadas por um desenvolvedor mas referenciadas por outra pessoa. Além disso, analisando alguns destes conflitos, nós também reportamos um catálogo de padrões de resolução. Por exemplo, conflitos causados por ações de renomeações são frequentemente resolvidas por meio da atualização da referência não-resolvida, enquanto que declarações removidas são frequentemente reintroduzidas. Ferramentas de reparo automático podem se beneficiar deste último catálogo para resolver conflitos automaticamente; nós ilustramos isto com uma implementação de prova de conceito de uma ferramenta que recomenda soluções para três categorias de conflitos de build. Para avaliar a ocorrência de conflitos de teste, nós adotamos uma abordagem diferente, pois estes conflitos envolvem a semântica de um programa. Consequentemente, eles não podem ser detectados durante a fase de compilação do processo de build. Desta forma, inicialmente, nós realizamos um segundo estudo investigando sua ocorrência, explorando a criação automática de testes unitários como especificações parciais para detectar conflitos. Baseando-se em um conjunto de dados de mais de 80 mudanças mútuas em elementos de classes de 51 cenários de merge com ground-truth, nós manualmente analisamos e investigamos se conflitos de teste existiam. Em seguida, nós exploramos sistematicamente a detecção de conflitos por meio de ferramentas de geração de testes, como também a adoção de Transformações de Testabilidade visando aumentas a testabilidade do código em análise. Como resultado, nós apresentamos um catálogo de 28 conflitos de testes, dos quais 9 foram detectados por nossa abordagem. Nossos resultados mostram que a melhor abordagem para detectar conflitos envolve a combinação das ferramentas Differential EvoSuite e EvoSuite aplicadas com Transformações de Testabilidade. Como contribuição final, nós apresentamos SAM, uma ferramenta de merge semântica baseada na geração de testes unitários, que avisa desenvolvedores sobre proeminentes conflitos em cenários de merge em andamento. No geral, nossos resultados se atentam a uma lacuna na literatura sobre a ocorrência de conflitos de integração de código semânticos durante o desenvolvimento de software. Baseado no tipo de conflito, nós investigamos suas causas e opções para lidar com eles. Enquanto conflitos de build podem ser detectados e solucionados por uma ferramenta de reparo automático, conflitos de teste poderiam ser detectados por uma ferramenta de merge semântica baseada na geração de testes unitários.
-
Mostrar Abstract
-
Durante o desenvolvimento colaborativo de software, desenvolvedores geralmente adotam práticas de criação e integração (merge) de ramos de desenvolvimento quando trabalham em suas contribuições, permitindo que eles contribuam para um projeto de software independentemente. Apesar destes benefícios, estas práticas vem com um custo, a necessidade de integrar software e resolver conflitos de merge, que frequentemente ocorrem na prática. Enquanto técnicas modernas de merge, tais como merge estruturado ou 3-way, podem automaticamente resolver muitos destes conflitos, elas falham quando o conflito surge no nível semântico conhecidos como conflitos semânticos. Estes conflitos são revelados por falhas durante o processo de build e execução de testes do código integrado conhecidos como conflitos de build e teste, respectivamente. Detectar estes conflitos semânticos requer um entendimento do comportamento do software, o que está além da capacidade da maioria das ferramentas de integração de código e assistentes. Para resolver a necessidade de melhores ferramentas assistentes, nós investigamos a ocorrência de conflitos semânticos identificando suas causas e propondo ferramentas que possam apoiar os desenvolvedores quando eles enfrentam estes conflitos durante integrações de código em cenários de merge. Inicialmente, nós realizamos um estudo identificando a frequência, estrutura e padrões de resolução adotados em conflitos de build analisando empiricamente 451 projetos Java open-source. Como resultado, nós provemos um catálogo de conflitos com 239 ocorrências divididos em seis categorias. A maioria dos conflitos de build são causados por declarações não-resolvidas, removidas ou renomeadas por um desenvolvedor mas referenciadas por outra pessoa. Além disso, analisando alguns destes conflitos, nós também reportamos um catálogo de padrões de resolução. Por exemplo, conflitos causados por ações de renomeações são frequentemente resolvidas por meio da atualização da referência não-resolvida, enquanto que declarações removidas são frequentemente reintroduzidas. Ferramentas de reparo automático podem se beneficiar deste último catálogo para resolver conflitos automaticamente; nós ilustramos isto com uma implementação de prova de conceito de uma ferramenta que recomenda soluções para três categorias de conflitos de build. Para avaliar a ocorrência de conflitos de teste, nós adotamos uma abordagem diferente, pois estes conflitos envolvem a semântica de um programa. Consequentemente, eles não podem ser detectados durante a fase de compilação do processo de build. Desta forma, inicialmente, nós realizamos um segundo estudo investigando sua ocorrência, explorando a criação automática de testes unitários como especificações parciais para detectar conflitos. Baseando-se em um conjunto de dados de mais de 80 mudanças mútuas em elementos de classes de 51 cenários de merge com ground-truth, nós manualmente analisamos e investigamos se conflitos de teste existiam. Em seguida, nós exploramos sistematicamente a detecção de conflitos por meio de ferramentas de geração de testes, como também a adoção de Transformações de Testabilidade visando aumentas a testabilidade do código em análise. Como resultado, nós apresentamos um catálogo de 28 conflitos de testes, dos quais 9 foram detectados por nossa abordagem. Nossos resultados mostram que a melhor abordagem para detectar conflitos envolve a combinação das ferramentas Differential EvoSuite e EvoSuite aplicadas com Transformações de Testabilidade. Como contribuição final, nós apresentamos SAM, uma ferramenta de merge semântica baseada na geração de testes unitários, que avisa desenvolvedores sobre proeminentes conflitos em cenários de merge em andamento. No geral, nossos resultados se atentam a uma lacuna na literatura sobre a ocorrência de conflitos de integração de código semânticos durante o desenvolvimento de software. Baseado no tipo de conflito, nós investigamos suas causas e opções para lidar com eles. Enquanto conflitos de build podem ser detectados e solucionados por uma ferramenta de reparo automático, conflitos de teste poderiam ser detectados por uma ferramenta de merge semântica baseada na geração de testes unitários.
|
|
11
|
-
MANOELA MILENA OLIVEIRA DA SILVA
-
Desenvolvimento de Princípios de Design para Autoria de Realidade Aumentada na Educação com Base na Perspectiva Docente
-
Orientador : VERONICA TEICHRIEB
-
MEMBROS DA BANCA :
-
CREDINE SILVA DE MENEZES
-
APUENA VIEIRA GOMES
-
GIORDANO RIBEIRO EULALIO CABRAL
-
PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
-
ROMERO TORI
-
Data: 04/03/2022
-
-
Mostrar Resumo
-
Realidade Aumentada (RA) tem um impacto positivo na motivação e no desempenho cognitivo dos alunos de várias idades e em diferentes contextos. Porém, seu uso ainda está longe de ser difundido na educação. Poucas ferramentas de autoria de RA disponíveis são pensadas do ponto de vista educacional, o que evidencia a necessidade de novas pesquisas sobre ferramentas de autoria para a criação de atividades de RA. Assim, este trabalho investiga quais características são importantes na autoria de RA para a educação. Através da pesquisa baseada em design, com a participação de uma equipe interdisciplinar para investigar e propor princípios de design para autoria educacional de RA, buscamos identificar como os professores gostariam de criar experiências de RA com base em suas necessidades pedagógicas. Nosso estudo desenvolveu-se em quatro etapas: (1) análise dos problemas de RA a partir da literatura e práticos por pesquisadores e profissionais em colaboração, (2) desenvolvimento de soluções a partir de princípios de design existentes e inovações tecnológicas advindos da etapa 1, (3) ciclos iterativos de teste e refinamento das soluções identificadas na prática, e (4) desenvolvimento dos princípios de design para autoria docente de RA. Na etapa 1, realizamos entrevistas com 15 professores que usavam tecnologia; 7 professores e 2 coordenadores que utilizaram RA juntamente com uma pesquisa com 106 professores de contextos variados. Essa etapa também abrangeu a revisão da literatura. Embora os professores pareçam interessados e ávidos por aprender sobre RA, seu uso ainda não atingiu níveis mais elevados de maturidade nas escolas. Diferentes aspectos estão relacionados a isso, como falta de infraestrutura, ferramentas de autoria e tempo. Observamos a necessidade de ferramentas de RA para apoiar a colaboração, a criatividade por meio da criação de conteúdo e a capacidade de avaliar os alunos de maneiras mais flexíveis. A partir dos resultados iniciais, definimos um estudo de caso focado na aprendizagem de línguas para crianças e adolescentes. A etapa 2 consistiu em uma série de sessões interativas com um grupo interdisciplinar a fim de mapear os problemas, esboçar as soluções possíveis e decidir aquela a ser prototipada e testada. Na etapa 3, uma ferramenta de RA, Virtual Playground, que permite a criação de narrativas aumentadas de forma colaborativa, bem como sua ferramenta de autoria foi concebida, prototipada e testada com os usuários por meio de uma série de interações e ciclos iterativos de teste e refinamento de soluções. A primeira e a segunda rodada de testes foram realizadas com 5 e 6 professores de inglês com experiência prévia em RA, respectivamente. Os principais problemas relacionaram-se à limitada biblioteca 3D e à falta de possibilidades de criação. Os resultados foram usados para melhorar a UI e UX dos protótipos. Também analisamos ferramentas de autoria de RA que não exigem programação. Boa parte delas carecem de recursos importantes para os professores, especificamente os pedagógicos. Finalmente, na etapa 4, através da reflexão sobre os resultados das etapas anteriores, desenvolvemos princípios de design e aprimoramos a implementação da solução. O principal resultado deste estudo são 11 princípios de design identificados e divididos em três aspectos: infraestrutura, realidade aumentada e pedagogia. Esses princípios foram validados durante a segunda rodada de testes. O protótipo da ferramenta de autoria de RA foi baseado em sete dos princípios de design identificados e apresenta as seguintes características: é flexível e permite que os professores criem planos de aula diferentes, bem como trabalhem com diferentes habilidades e competências.
-
Mostrar Abstract
-
Realidade Aumentada (RA) tem um impacto positivo na motivação e no desempenho cognitivo dos alunos de várias idades e em diferentes contextos. Porém, seu uso ainda está longe de ser difundido na educação. Poucas ferramentas de autoria de RA disponíveis são pensadas do ponto de vista educacional, o que evidencia a necessidade de novas pesquisas sobre ferramentas de autoria para a criação de atividades de RA. Assim, este trabalho investiga quais características são importantes na autoria de RA para a educação. Através da pesquisa baseada em design, com a participação de uma equipe interdisciplinar para investigar e propor princípios de design para autoria educacional de RA, buscamos identificar como os professores gostariam de criar experiências de RA com base em suas necessidades pedagógicas. Nosso estudo desenvolveu-se em quatro etapas: (1) análise dos problemas de RA a partir da literatura e práticos por pesquisadores e profissionais em colaboração, (2) desenvolvimento de soluções a partir de princípios de design existentes e inovações tecnológicas advindos da etapa 1, (3) ciclos iterativos de teste e refinamento das soluções identificadas na prática, e (4) desenvolvimento dos princípios de design para autoria docente de RA. Na etapa 1, realizamos entrevistas com 15 professores que usavam tecnologia; 7 professores e 2 coordenadores que utilizaram RA juntamente com uma pesquisa com 106 professores de contextos variados. Essa etapa também abrangeu a revisão da literatura. Embora os professores pareçam interessados e ávidos por aprender sobre RA, seu uso ainda não atingiu níveis mais elevados de maturidade nas escolas. Diferentes aspectos estão relacionados a isso, como falta de infraestrutura, ferramentas de autoria e tempo. Observamos a necessidade de ferramentas de RA para apoiar a colaboração, a criatividade por meio da criação de conteúdo e a capacidade de avaliar os alunos de maneiras mais flexíveis. A partir dos resultados iniciais, definimos um estudo de caso focado na aprendizagem de línguas para crianças e adolescentes. A etapa 2 consistiu em uma série de sessões interativas com um grupo interdisciplinar a fim de mapear os problemas, esboçar as soluções possíveis e decidir aquela a ser prototipada e testada. Na etapa 3, uma ferramenta de RA, Virtual Playground, que permite a criação de narrativas aumentadas de forma colaborativa, bem como sua ferramenta de autoria foi concebida, prototipada e testada com os usuários por meio de uma série de interações e ciclos iterativos de teste e refinamento de soluções. A primeira e a segunda rodada de testes foram realizadas com 5 e 6 professores de inglês com experiência prévia em RA, respectivamente. Os principais problemas relacionaram-se à limitada biblioteca 3D e à falta de possibilidades de criação. Os resultados foram usados para melhorar a UI e UX dos protótipos. Também analisamos ferramentas de autoria de RA que não exigem programação. Boa parte delas carecem de recursos importantes para os professores, especificamente os pedagógicos. Finalmente, na etapa 4, através da reflexão sobre os resultados das etapas anteriores, desenvolvemos princípios de design e aprimoramos a implementação da solução. O principal resultado deste estudo são 11 princípios de design identificados e divididos em três aspectos: infraestrutura, realidade aumentada e pedagogia. Esses princípios foram validados durante a segunda rodada de testes. O protótipo da ferramenta de autoria de RA foi baseado em sete dos princípios de design identificados e apresenta as seguintes características: é flexível e permite que os professores criem planos de aula diferentes, bem como trabalhem com diferentes habilidades e competências.
|
|
12
|
-
AMIRTON BEZERRA CHAGAS
-
A Recommender System to Support the Development of Context-Aware Intelligent Transportation Systems
-
Orientador : CARLOS ANDRE GUIMARAES FERRAZ
-
MEMBROS DA BANCA :
-
THAIS VASCONCELOS BATISTA
-
ABEL GUILHERMINO DA SILVA FILHO
-
DIVANILSON RODRIGO DE SOUSA CAMPELO
-
PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
-
VANINHA VIEIRA DOS SANTOS
-
Data: 08/03/2022
-
-
Mostrar Resumo
-
O desenvolvimento de Sistemas de Transporte Inteligentes (ITS, do inglês Intelligent Transportation Systems) Sensíveis ao Contexto necessita de uma cuidadosa análise para identificar quais Elementos Contextuais podem contribuir na definição do Contexto da aplicação. Esta atividade é complexa, principalmente no cenário de ITS, muito vasto e com centenas de possibilidades. Há um conhecimento tácito em outros projetos da área e este não é utilizado atualmente em todo seu potencial por projetistas de sistemas. O objetivo desta pesquisa é analisar o uso de sensibilidade ao contexto em ITS e propor alternativas de organização desta informação para permitir a criação de ferramentas que contribuam para automatizar parte da tarefa de identificação dos elementos contextuais úteis para o desenvolvimento de uma nova aplicação. Uma revisão da literatura de projetos de ITS serviu para mapear o uso de elementos contextuais. Foram encontados 70 projetos acadêmicos, aos quais adicionou-se 3 projetos comerciais, chegando a um total de 73 projetos. Com o mapeamento, procedeu-se à definição de uma Taxonomia de Categorias de Elementos Contextuais, para aumentar a granularidade da informação e facilitar seu uso em um sistema automatizado. A taxonomia conta com 79 categorias no total. Uma base de conhecimento foi construída relacionando os 73 projetos às categorias da taxonomia. A partir da taxonomia e da base de conhecimento, foi projetado um Sistema de Recomendação de Categorias de Elementos Contextuais para ITS, que utilizando um subconjunto inicial de Elementos Contextuais já identificados como necessários para uma nova aplicação, é capaz de recomendar categorias de Elementos Contextuais para a posterior análise do projetista da aplicação. A validação do sistema de recomendação indicou sua capacidade de recomendar categorias que são relevantes aos projetos. Ao utilizar um número n >= 8 de projetos similares para identificar as categorias, mesmo limitando a quantidade de recomendações em 15 itens, em mais de 75% das vezes o sistema recomendou categorias sabidamente utilizadas para o subconjunto informado como entrada. A criação de uma taxonomia associada ao desenvolvimento de um sistema de recomendação utilizando uma base de conhecimento de projetos da área de ITS apresentou potencial de contribuir positivamente no projeto e desenvolvimento de aplicações deste domínio, permitindo a identificação e consequente uso de mais elementos contextuais relevantes para a aplicação em projeto.
-
Mostrar Abstract
-
O desenvolvimento de Sistemas de Transporte Inteligentes (ITS, do inglês Intelligent Transportation Systems) Sensíveis ao Contexto necessita de uma cuidadosa análise para identificar quais Elementos Contextuais podem contribuir na definição do Contexto da aplicação. Esta atividade é complexa, principalmente no cenário de ITS, muito vasto e com centenas de possibilidades. Há um conhecimento tácito em outros projetos da área e este não é utilizado atualmente em todo seu potencial por projetistas de sistemas. O objetivo desta pesquisa é analisar o uso de sensibilidade ao contexto em ITS e propor alternativas de organização desta informação para permitir a criação de ferramentas que contribuam para automatizar parte da tarefa de identificação dos elementos contextuais úteis para o desenvolvimento de uma nova aplicação. Uma revisão da literatura de projetos de ITS serviu para mapear o uso de elementos contextuais. Foram encontados 70 projetos acadêmicos, aos quais adicionou-se 3 projetos comerciais, chegando a um total de 73 projetos. Com o mapeamento, procedeu-se à definição de uma Taxonomia de Categorias de Elementos Contextuais, para aumentar a granularidade da informação e facilitar seu uso em um sistema automatizado. A taxonomia conta com 79 categorias no total. Uma base de conhecimento foi construída relacionando os 73 projetos às categorias da taxonomia. A partir da taxonomia e da base de conhecimento, foi projetado um Sistema de Recomendação de Categorias de Elementos Contextuais para ITS, que utilizando um subconjunto inicial de Elementos Contextuais já identificados como necessários para uma nova aplicação, é capaz de recomendar categorias de Elementos Contextuais para a posterior análise do projetista da aplicação. A validação do sistema de recomendação indicou sua capacidade de recomendar categorias que são relevantes aos projetos. Ao utilizar um número n >= 8 de projetos similares para identificar as categorias, mesmo limitando a quantidade de recomendações em 15 itens, em mais de 75% das vezes o sistema recomendou categorias sabidamente utilizadas para o subconjunto informado como entrada. A criação de uma taxonomia associada ao desenvolvimento de um sistema de recomendação utilizando uma base de conhecimento de projetos da área de ITS apresentou potencial de contribuir positivamente no projeto e desenvolvimento de aplicações deste domínio, permitindo a identificação e consequente uso de mais elementos contextuais relevantes para a aplicação em projeto.
|
|
13
|
-
SYLVIA EMMANUELLE CASTELO BRANCO DE HOLANDA VICTOR
-
Otimização de Aspectos do Aprendizado para Lidar com Fluxo de Dados
-
Orientador : SILVIO DE BARROS MELO
-
MEMBROS DA BANCA :
-
ANDRÉ CÂMARA ALVES DO NASCIMENTO
-
CLEBER ZANCHETTIN
-
EMERSON ALEXANDRE DE OLIVEIRA
-
FRANCISCO MADEIRO BERNARDINO JUNIOR
-
SERGIO DE CARVALHO BEZERRA
-
Data: 08/03/2022
-
-
Mostrar Resumo
-
Muitos desafios de aplicações comerciais envolvem mineração de dados aplicado a classificação em fluxo de dados. Onde os classificadores são métodos incrementais de instâncias que aprendem com cada exemplo conforme chegam e são capazes de lidar com um fluxo teoricamente infinito de instâncias, suscetível a mudança de conceito, com severas restrições de tempo de processamento e quantidade de memória, além disso, também precisam ser capazes de predizer um padrão a qualquer momento. Assim sendo, diferentes modelos de classificação foram adaptados para manipular fluxos de dados nessas condições, destacando-se para este trabalho a estratégia de aprendizado adaptativo aplicado a classificação com detecção, na qual a adaptação do modelo de aprendizado leva em consideração sinais de detecção do método de detecção de mudança de conceito. Normalmente, os trabalhos da literatura de detecção de mudança de conceito escolhem essa estratégia. Entretanto, é comum nas avaliações de desempenho entre métodos detectores não fazer distinção entre métodos que consideram dos que não consideram, sinais de detecção Warning. Neste trabalho, foram analisados os impactos do sinal de detecção Warning na acurácia de modelos e para isso são fornecidas evidências empíricas, referências e justificativas para descrever os efeitos do Warning na acurácia. Deste modo, sendo possível concluir que os sinais de detecção Warning na maioria das situações analisadas, quando são omitidos degradam da acurácia Prequential, resultando em diferenças estatísticas. Baseando-se nesses resultados, foram desenvolvidas duas estratégias para melhor lidar com os efeitos do sinal de detecção Warning. Elas possuem mecanismos capazes de garantir que novos modelos sejam treinados antes de serem testados sem depender dos sinais de detecção Warning do método de detecção de mudança de conceito. Assim sendo, foi possível fornecer uma análise aprofundada comparando os impactos dos sinais de detecção Warning na acurácia Prequential, incluindo um estudo empírico para comparar várias versões diferentes de métodos de detecção de mudança de conceito em cada estratégia. Por fim, os experimentos empíricos, tanto com bases artificiais como reais e os novos algoritmos foram implementados no framework Massive Online Analysis (MOA) e executados na ferramenta MOAManager, alcançando resultados promissores nos novos algoritmos.
-
Mostrar Abstract
-
Muitos desafios de aplicações comerciais envolvem mineração de dados aplicado a classificação em fluxo de dados. Onde os classificadores são métodos incrementais de instâncias que aprendem com cada exemplo conforme chegam e são capazes de lidar com um fluxo teoricamente infinito de instâncias, suscetível a mudança de conceito, com severas restrições de tempo de processamento e quantidade de memória, além disso, também precisam ser capazes de predizer um padrão a qualquer momento. Assim sendo, diferentes modelos de classificação foram adaptados para manipular fluxos de dados nessas condições, destacando-se para este trabalho a estratégia de aprendizado adaptativo aplicado a classificação com detecção, na qual a adaptação do modelo de aprendizado leva em consideração sinais de detecção do método de detecção de mudança de conceito. Normalmente, os trabalhos da literatura de detecção de mudança de conceito escolhem essa estratégia. Entretanto, é comum nas avaliações de desempenho entre métodos detectores não fazer distinção entre métodos que consideram dos que não consideram, sinais de detecção Warning. Neste trabalho, foram analisados os impactos do sinal de detecção Warning na acurácia de modelos e para isso são fornecidas evidências empíricas, referências e justificativas para descrever os efeitos do Warning na acurácia. Deste modo, sendo possível concluir que os sinais de detecção Warning na maioria das situações analisadas, quando são omitidos degradam da acurácia Prequential, resultando em diferenças estatísticas. Baseando-se nesses resultados, foram desenvolvidas duas estratégias para melhor lidar com os efeitos do sinal de detecção Warning. Elas possuem mecanismos capazes de garantir que novos modelos sejam treinados antes de serem testados sem depender dos sinais de detecção Warning do método de detecção de mudança de conceito. Assim sendo, foi possível fornecer uma análise aprofundada comparando os impactos dos sinais de detecção Warning na acurácia Prequential, incluindo um estudo empírico para comparar várias versões diferentes de métodos de detecção de mudança de conceito em cada estratégia. Por fim, os experimentos empíricos, tanto com bases artificiais como reais e os novos algoritmos foram implementados no framework Massive Online Analysis (MOA) e executados na ferramenta MOAManager, alcançando resultados promissores nos novos algoritmos.
|
|
14
|
-
DAVI HIRAFUJI NEIVA
-
Tradução entre línguas de sinais utilizando Deep Learning
-
Orientador : CLEBER ZANCHETTIN
-
MEMBROS DA BANCA :
-
ADRIANO LORENA INACIO DE OLIVEIRA
-
ANDRÉ CÂMARA ALVES DO NASCIMENTO
-
FRANCISCO CARLOS MONTEIRO SOUZA
-
JOÃO FAUSTO LORENZATO DE OLIVEIRA
-
LEANDRO MACIEL ALMEIDA
-
Data: 11/03/2022
-
-
Mostrar Resumo
-
A linguagem de sinais é a forma de expressão usada por pessoas surdas para se comunicar. É com o movimento do corpo, especialmente as mãos, que uma pessoa surda consegue se expressar. Contudo, as línguas de sinais não são universais, isso quer dizer que uma pessoa surda Alemã não poderá se comunicar adequadamente com uma pessoa surda Brasileira, por exemplo. Soluções baseadas em software utilizam aprendizagem de máquina para reconhecer gestos e traduzir de língua falada e escrita para outra, mas trabalhos que combinem esses algoritmos visando uma tradução entre língua de sinais não são frequentes. Nesta pesquisa, propomos o sAIgns, uma plataforma colaborativa web e móvel para tradução entre línguas de sinais. Utilizando a câmera do celular para capturar vídeos de uma pessoa fazendo um gesto em uma língua de sinais, o usuário poderá visualizar o gesto correspondente na sua língua de sinais materna. Nós utilizamos uma combinação de algoritmos de Deep Learning, tais como Mask R-CNN, CNN e Transformers para realizar remoção de plano de fundo, extração de características, reconhecimento de sinais e tradução. Nós propomos ainda uma abordagem de reconhecimento de sentenças em língua de sinais utilizando um conjunto de dados de palavras. Além disso, propomos uma webpage para hospedar diferentes línguas de sinais, visualizar sinais individualmente ou em sentenças e criar máscaras customizadas para as mãos. Utilizando duas bases públicas de sinais (base alemã PHOENIX-14T e base Libras V-Librasil) nossa abordagem apresentou uma melhora de WER de 4% na base PHOENIX-14T e enquanto na V-Librasil, conseguimos um WER de 21.7% e 5% para palavras e sentenças respectivamente.
-
Mostrar Abstract
-
A linguagem de sinais é a forma de expressão usada por pessoas surdas para se comunicar. É com o movimento do corpo, especialmente as mãos, que uma pessoa surda consegue se expressar. Contudo, as línguas de sinais não são universais, isso quer dizer que uma pessoa surda Alemã não poderá se comunicar adequadamente com uma pessoa surda Brasileira, por exemplo. Soluções baseadas em software utilizam aprendizagem de máquina para reconhecer gestos e traduzir de língua falada e escrita para outra, mas trabalhos que combinem esses algoritmos visando uma tradução entre língua de sinais não são frequentes. Nesta pesquisa, propomos o sAIgns, uma plataforma colaborativa web e móvel para tradução entre línguas de sinais. Utilizando a câmera do celular para capturar vídeos de uma pessoa fazendo um gesto em uma língua de sinais, o usuário poderá visualizar o gesto correspondente na sua língua de sinais materna. Nós utilizamos uma combinação de algoritmos de Deep Learning, tais como Mask R-CNN, CNN e Transformers para realizar remoção de plano de fundo, extração de características, reconhecimento de sinais e tradução. Nós propomos ainda uma abordagem de reconhecimento de sentenças em língua de sinais utilizando um conjunto de dados de palavras. Além disso, propomos uma webpage para hospedar diferentes línguas de sinais, visualizar sinais individualmente ou em sentenças e criar máscaras customizadas para as mãos. Utilizando duas bases públicas de sinais (base alemã PHOENIX-14T e base Libras V-Librasil) nossa abordagem apresentou uma melhora de WER de 4% na base PHOENIX-14T e enquanto na V-Librasil, conseguimos um WER de 21.7% e 5% para palavras e sentenças respectivamente.
|
|
15
|
-
MARCOS ROCHA DE MORAES FALCAO
-
RESOURCE ALLOCATION FOR URLLC IN NFV-MEC
-
Orientador : KELVIN LOPES DIAS
-
MEMBROS DA BANCA :
-
EDMUNDO ROBERTO MAURO MADEIRA
-
ANTONIO ALFREDO FERREIRA LOUREIRO
-
DIVANILSON RODRIGO DE SOUSA CAMPELO
-
PAULO ROBERTO FREIRE CUNHA
-
RENATO MARIZ DE MORAES
-
Data: 14/03/2022
-
-
Mostrar Resumo
-
As redes móveis 5G foram projetadas para atender a três casos de uso principais: banda larga móvel aprimorada (eMBB), comunicação massiva do tipo máquina (mMTC) e comunicação de baixa latência ultra confiável (URLLC), sendo os requisitos conflitantes de latência e confiabilidade definidos pelo URLLC considerados um problema desafiador. Nesse contexto, a Computação de Borda Multiacesso (MEC) e a Virtualização de Funções de Rede (NFV) surgem como paradigmas complementares que devem suportar URLLC, oferecendo recursos distribuídos sob demanda e de maneira granular mais próximos do Equipamento do Usuário (UE), mitigando assim problemas de camada física. Por outro lado, a adoção do NFV-MEC inevitavelmente eleva os custos de implantação e operação, muitos dos quais estão relacionados ao consumo de energia. Neste trabalho, realizamos uma análise de desempenho para a camada de virtualização da arquitetura NFV-MEC da perspectiva de um Provedor de Serviços (SP), que inclui disponibilidade de nós e consumo de energia, além dos requisitos conflitantes de URLLC. Projetamos um modelo para representar um nó NFV-MEC baseado em Cadeias Contínuas de Markov (CTMC) que contém um esquema de dimensionamento de recursos virtuais para otimizar a alocação dinâmica de recursos (DRA), que visa permitir a análise de como as solicitações críticas são processadas pelos recursos de virtualização subjacentes de um nó NFV-MEC .Para tornar o modelo mais realista, incorporamos falhas de recursos, tempos de configuração/reparo e atrasos de sobrecarga de processamento em nossa formulação, pois esses aspectos podem afetar a utilização de recursos no contexto de futuras aplicações críticas. Além disso, o Veículo Aéreo Não Tripulado (UAV) habilitado para MEC é uma opção para implantação de infraestrutura URLLC sob o paradigma NFV-MEC, que pode fornecer Linha de Visada (LoS) entre o UAV e os nós de transmissão terrestres, o que é uma vantagem desta abordagem. No entanto, neste contexto, o compromisso entre os recursos computacionais e o desempenho do URLLC torna-se ainda mais desafiador,uma vez que, em geral, os veículos aéreos não tripulados são limitados devido ao seu tamanho, peso e potência, o que impõe um ônus às funções de rede (NFs) convencionais. Portanto, também formulamos um problema multiobjetivo relacionado ao dimensionamento de nós de UAV habilitado para NFV-MEC e projetamos uma abordagem baseada em Algoritmos Genéticos (GA) para resolvê-lo.
-
Mostrar Abstract
-
As redes móveis 5G foram projetadas para atender a três casos de uso principais: banda larga móvel aprimorada (eMBB), comunicação massiva do tipo máquina (mMTC) e comunicação de baixa latência ultra confiável (URLLC), sendo os requisitos conflitantes de latência e confiabilidade definidos pelo URLLC considerados um problema desafiador. Nesse contexto, a Computação de Borda Multiacesso (MEC) e a Virtualização de Funções de Rede (NFV) surgem como paradigmas complementares que devem suportar URLLC, oferecendo recursos distribuídos sob demanda e de maneira granular mais próximos do Equipamento do Usuário (UE), mitigando assim problemas de camada física. Por outro lado, a adoção do NFV-MEC inevitavelmente eleva os custos de implantação e operação, muitos dos quais estão relacionados ao consumo de energia. Neste trabalho, realizamos uma análise de desempenho para a camada de virtualização da arquitetura NFV-MEC da perspectiva de um Provedor de Serviços (SP), que inclui disponibilidade de nós e consumo de energia, além dos requisitos conflitantes de URLLC. Projetamos um modelo para representar um nó NFV-MEC baseado em Cadeias Contínuas de Markov (CTMC) que contém um esquema de dimensionamento de recursos virtuais para otimizar a alocação dinâmica de recursos (DRA), que visa permitir a análise de como as solicitações críticas são processadas pelos recursos de virtualização subjacentes de um nó NFV-MEC .Para tornar o modelo mais realista, incorporamos falhas de recursos, tempos de configuração/reparo e atrasos de sobrecarga de processamento em nossa formulação, pois esses aspectos podem afetar a utilização de recursos no contexto de futuras aplicações críticas. Além disso, o Veículo Aéreo Não Tripulado (UAV) habilitado para MEC é uma opção para implantação de infraestrutura URLLC sob o paradigma NFV-MEC, que pode fornecer Linha de Visada (LoS) entre o UAV e os nós de transmissão terrestres, o que é uma vantagem desta abordagem. No entanto, neste contexto, o compromisso entre os recursos computacionais e o desempenho do URLLC torna-se ainda mais desafiador,uma vez que, em geral, os veículos aéreos não tripulados são limitados devido ao seu tamanho, peso e potência, o que impõe um ônus às funções de rede (NFs) convencionais. Portanto, também formulamos um problema multiobjetivo relacionado ao dimensionamento de nós de UAV habilitado para NFV-MEC e projetamos uma abordagem baseada em Algoritmos Genéticos (GA) para resolvê-lo.
|
|
16
|
-
FERNANDO KENJI KAMEI
-
Supporting the Use of Grey Literature in Software Engineering Research
-
Orientador : SERGIO CASTELO BRANCO SOARES
-
MEMBROS DA BANCA :
-
TAYANA UCHÔA CONTE
-
KATIA ROMERO FELIZARDO SCANNAVINO
-
ANDRE LUIS DE MEDEIROS SANTOS
-
FABIO QUEDA BUENO DA SILVA
-
MARCOS KALINOWSKI
-
Data: 22/03/2022
-
-
Mostrar Resumo
-
Recentemente, é crescente o interesse em explorar a Literatura Cinza (LC) na pesquisa de Engenharia de Software (ES). Apesar disso, estudos indicaram a necessidade de entender por que e como a LC pode apoiar a pesquisa em ES, pois alguns pesquisadores são céticos quanto à sua importância e credibilidade. Por isso, focamos em melhorar a compreensão da LC e propor um conjunto de recomendações para apoiar seu uso em Estudos Secundários, com base nas opiniões dos pesquisadores e de estudos anteriores. Para atingir nosso objetivo, realizamos um conjunto de estudos empíricos. Investigamos 76 pesquisadores brasileiros para entender suas percepções sobre os benefícios e desafios da LC. Identificamos blogs e sites da comunidade como fontes comumente usadas. Motivações para usar e para evitar, e benefícios e limitações também foram explorados. Como critério para avaliar a credibilidade da LC, identificamos que a reputação do produtor da LC na comunidade é importante. Em seguida, coletamos as percepções sobre os tipos de LC e como 34 pesquisadores brasileiros avaliam sua credibilidade. Embora tenhamos identificado entendimentos controversos, a maioria das fontes da LC tem controle e credibilidade de baixa a moderada. Com base em um estudo terciário, analisamos 126 estudos secundários para apresentar tendências, conceitos empregados, tipos de LC e métodos usados para selecionar e realizar a avaliação da qualidade da LC. Nossas descobertas mostram um crescimento no uso da LC nos últimos anos. Não identificamos uma definição comum da LC, e há diferentes interpretações sobre seus tipos entre os estudos. Curiosamente, apenas sete estudos empregaram critérios específicos para avaliar a qualidade do LC, e cerca de 1/4 da LC não estão mais disponíveis. Realizamos outro estudo terciário para avaliar como o uso de LC contribuiu para nove revisões multivocais da literatura. Identificamos evidências que não seriam encontradas se a LC não fosse considerada. Essas fontes forneceram principalmente recomendações e explicaram tópicos. Por fim, realizamos dois grupos focais com dez pesquisadores de ES para avaliar as diretrizes de Garousi. Em geral, as diretrizes são úteis, embora problemas tenham sido percebidos. Fornecemos recomendações para lidar com esses problemas e melhorar as diretrizes de Garousi. Nossas investigações mostram a importância do uso de LC na pesquisa de ES. No entanto, também identificamos desafios que os pesquisadores podem enfrentar. Nos esforçamos para mitigá-los, fornecendo critérios para avaliar a credibilidade e recomendações aos pesquisadores para lidar melhor com a LC.
-
Mostrar Abstract
-
Recentemente, é crescente o interesse em explorar a Literatura Cinza (LC) na pesquisa de Engenharia de Software (ES). Apesar disso, estudos indicaram a necessidade de entender por que e como a LC pode apoiar a pesquisa em ES, pois alguns pesquisadores são céticos quanto à sua importância e credibilidade. Por isso, focamos em melhorar a compreensão da LC e propor um conjunto de recomendações para apoiar seu uso em Estudos Secundários, com base nas opiniões dos pesquisadores e de estudos anteriores. Para atingir nosso objetivo, realizamos um conjunto de estudos empíricos. Investigamos 76 pesquisadores brasileiros para entender suas percepções sobre os benefícios e desafios da LC. Identificamos blogs e sites da comunidade como fontes comumente usadas. Motivações para usar e para evitar, e benefícios e limitações também foram explorados. Como critério para avaliar a credibilidade da LC, identificamos que a reputação do produtor da LC na comunidade é importante. Em seguida, coletamos as percepções sobre os tipos de LC e como 34 pesquisadores brasileiros avaliam sua credibilidade. Embora tenhamos identificado entendimentos controversos, a maioria das fontes da LC tem controle e credibilidade de baixa a moderada. Com base em um estudo terciário, analisamos 126 estudos secundários para apresentar tendências, conceitos empregados, tipos de LC e métodos usados para selecionar e realizar a avaliação da qualidade da LC. Nossas descobertas mostram um crescimento no uso da LC nos últimos anos. Não identificamos uma definição comum da LC, e há diferentes interpretações sobre seus tipos entre os estudos. Curiosamente, apenas sete estudos empregaram critérios específicos para avaliar a qualidade do LC, e cerca de 1/4 da LC não estão mais disponíveis. Realizamos outro estudo terciário para avaliar como o uso de LC contribuiu para nove revisões multivocais da literatura. Identificamos evidências que não seriam encontradas se a LC não fosse considerada. Essas fontes forneceram principalmente recomendações e explicaram tópicos. Por fim, realizamos dois grupos focais com dez pesquisadores de ES para avaliar as diretrizes de Garousi. Em geral, as diretrizes são úteis, embora problemas tenham sido percebidos. Fornecemos recomendações para lidar com esses problemas e melhorar as diretrizes de Garousi. Nossas investigações mostram a importância do uso de LC na pesquisa de ES. No entanto, também identificamos desafios que os pesquisadores podem enfrentar. Nos esforçamos para mitigá-los, fornecendo critérios para avaliar a credibilidade e recomendações aos pesquisadores para lidar melhor com a LC.
|
|
17
|
-
EDUARDO SANTOS SILVA
-
VioLED: instrumento musical aumentado + software como serviço para adesão e engajamento do público no aprendizado musical
-
Orientador : GIORDANO RIBEIRO EULALIO CABRAL
-
MEMBROS DA BANCA :
-
JEAN-PIERRE MICHEL BRIOT
-
FLÁVIO LUIZ SCHIAVONI
-
ANDRE MENEZES MARQUES DAS NEVES
-
FILIPE CARLOS DE ALBUQUERQUE CALEGARIO
-
LUCAS SILVA FIGUEIREDO
-
Data: 25/03/2022
-
-
Mostrar Resumo
-
Nos últimos anos, a área de computação musical tem presenciado o surgimento de diversas tecnologias que permitem novas formas de interação com música, variando desde novas formas de reprodução musical aos chamados Instrumentos Musicais Digitais (DMIs) e smart instruments. Particularmente, os avanços nas áreas de Internet das Coisas (IoT) e interfaces gestuais proporcionam a criação instrumentos musicais aumentados, que utilizam estas tecnologias para incorporar novas funcionalidades. No contexto de aprendizado musical, surgem sistemas que utilizam LEDs para exibir o conteúdo musical diretamente no corpo do instrumento – e.g. Fretlight, Fret Zealot e populele –, os quais serão referenciados como instrumentos musicais aumentados para estudo (AMIS, do inglês Augmented Musical Instruments for Study). Isto gera novas oportunidades para auxiliar o aprendizado de instrumentos musicais, que envolve a aquisição de habilidades cognitivas e motoras para entendimento de conceitos musicais e tradução destes conceitos para o instrumento. Desta forma, é possível que estas tecnologias possam ser utilizadas para solucionar alguns dos obstáculos relacionados com este aprendizado, e.g., guiar e motivar o estudante no aprendizado, auxiliar na aquisição destas habilidades, etc. Entretanto, estes sistemas estão inseridos em um contexto de design de interação que envolve demandas em diferentes dimensões: sistemas interativos, design simultâneo de hardware e software, sistemas de “tempo real” e o aprendizado musical. Isto demanda de aspectos de engenharia (e.g. consumo de energia, latência, confiabilidade); de usabilidade (e.g. legibilidade, antecipação e oclusão de informação); do processo de design (e.g. exploração de ideias, prototipação, seleção dos recursos, adaptabilidade a mudanças de sistema); do aprendizado musical (e.g. motivação do usuário, diferentes formas de aprendizado, etc.); além do fato de ser uma área relativamente nova, carente de métodos e diretrizes de design estruturados. Assim, este projeto busca investigar se estes AMIS podem ser utilizados para auxiliar o aprendizado, buscando atingir uma parcela do público não coberta pelas soluções existentes para o aprendizado de instrumentos, focando especialmente no processo de ativação e engajamento dos estudantes no aprendizado. Desta forma, busca-se atender as demandas dos usuários e possivelmente levantar insights que possam auxiliar futuros designers de sistemas similares. Para isso, está sendo desenvolvido, em parceria com a empresa Daccord Music Software, um violão com LEDs capaz de exibir notas/acordes musicais na escala do instrumento, focando principalmente no serviço para este AMIS. Foram realizados dois ciclos de desenvolvimento para ambos o hardware e o aplicativo do sistema além de testes com potenciais usuários. Identificou-se também obstáculos no processo que apontam para decisões de design, como antecipação de conteúdo, oclusão, consumo de energia, etc. que podem auxiliar futuros designers na criação de sistemas similares.
-
Mostrar Abstract
-
Nos últimos anos, a área de computação musical tem presenciado o surgimento de diversas tecnologias que permitem novas formas de interação com música, variando desde novas formas de reprodução musical aos chamados Instrumentos Musicais Digitais (DMIs) e smart instruments. Particularmente, os avanços nas áreas de Internet das Coisas (IoT) e interfaces gestuais proporcionam a criação instrumentos musicais aumentados, que utilizam estas tecnologias para incorporar novas funcionalidades. No contexto de aprendizado musical, surgem sistemas que utilizam LEDs para exibir o conteúdo musical diretamente no corpo do instrumento – e.g. Fretlight, Fret Zealot e populele –, os quais serão referenciados como instrumentos musicais aumentados para estudo (AMIS, do inglês Augmented Musical Instruments for Study). Isto gera novas oportunidades para auxiliar o aprendizado de instrumentos musicais, que envolve a aquisição de habilidades cognitivas e motoras para entendimento de conceitos musicais e tradução destes conceitos para o instrumento. Desta forma, é possível que estas tecnologias possam ser utilizadas para solucionar alguns dos obstáculos relacionados com este aprendizado, e.g., guiar e motivar o estudante no aprendizado, auxiliar na aquisição destas habilidades, etc. Entretanto, estes sistemas estão inseridos em um contexto de design de interação que envolve demandas em diferentes dimensões: sistemas interativos, design simultâneo de hardware e software, sistemas de “tempo real” e o aprendizado musical. Isto demanda de aspectos de engenharia (e.g. consumo de energia, latência, confiabilidade); de usabilidade (e.g. legibilidade, antecipação e oclusão de informação); do processo de design (e.g. exploração de ideias, prototipação, seleção dos recursos, adaptabilidade a mudanças de sistema); do aprendizado musical (e.g. motivação do usuário, diferentes formas de aprendizado, etc.); além do fato de ser uma área relativamente nova, carente de métodos e diretrizes de design estruturados. Assim, este projeto busca investigar se estes AMIS podem ser utilizados para auxiliar o aprendizado, buscando atingir uma parcela do público não coberta pelas soluções existentes para o aprendizado de instrumentos, focando especialmente no processo de ativação e engajamento dos estudantes no aprendizado. Desta forma, busca-se atender as demandas dos usuários e possivelmente levantar insights que possam auxiliar futuros designers de sistemas similares. Para isso, está sendo desenvolvido, em parceria com a empresa Daccord Music Software, um violão com LEDs capaz de exibir notas/acordes musicais na escala do instrumento, focando principalmente no serviço para este AMIS. Foram realizados dois ciclos de desenvolvimento para ambos o hardware e o aplicativo do sistema além de testes com potenciais usuários. Identificou-se também obstáculos no processo que apontam para decisões de design, como antecipação de conteúdo, oclusão, consumo de energia, etc. que podem auxiliar futuros designers na criação de sistemas similares.
|
|
18
|
-
FLAVIA MERYLYN CARNEIRO FALCAO
-
Design seguro e construtivo com componentes UML
-
Orientador : AUGUSTO CEZAR ALVES SAMPAIO
-
MEMBROS DA BANCA :
-
ALEXANDRE CABRAL MOTA
-
ANA CRISTINA VIEIRA DE MELO
-
JULIANO MANABU IYODA
-
MARCEL VINICIUS MEDEIROS OLIVEIRA
-
MARCIO LOPES CORNELIO
-
Data: 29/03/2022
-
-
Mostrar Resumo
-
A Engenharia de Software baseada em modelos surgiu como uma abordagem para lidar com a complexidade do desenvolvimento de sistemas atuais. Em particular, as estratégias de composição assumem que os sistemas podem ser construídos a partir de unidades reutilizáveis e fracamente acopladas. No entanto, ainda é um desafio garantir que propriedades desejadas sejam válidas para a integração de componentes. Apresentamos um modelo baseado em componentes para UML, incluindo um metamodelo, condições de boa formação e semântica formal via tradução para BRIC; a apresentação da semântica é dada por um conjunto de regras que abrangem todos os elementos do metamodelo e os mapeiam para suas respectivas denotações BRIC. Usamos BRIC como um framework de desenvolvimento de componentes subjacente (e totalmente oculto) para que nossa abordagem se beneficie de toda a infraestrutura formal desenvolvida para BRIC usando CSP (Communicating Sequential Processes). A composição do componente especificada por meio de diagramas estruturais UML, garante a aderência às propriedades concorrentes clássicas: nosso foco é a preservação da ausência de deadlock. O suporte automatizado é desenvolvido como um plug-in para a ferramenta de modelagem As tah. A verificação é realizada usando FDR (um verificador de modelos para CSP), mas isso é transparente para o usuário. Um diferencial de nossa abordagem é o suporte à rastreabilidade. Por exemplo, quando o FDR descobre um deadlock, um diagrama de sequência é construído a partir do trace de deadlock e apresentado ao usuário como um modelo UML. Ilustramos a aplicabilidade da nossa abordagem com um exemplo apresentado de forma recorrente no texto e dois estudos de caso adicionais. Destacamos também as contribuições do modelo de componentes proposto e da estratégia de modelagem por meio de uma comparação com outras abordagens da literatura.
-
Mostrar Abstract
-
AAAA
|
|
19
|
-
MARCOS JOSÉ CANÊJO ESTEVÃO DE AZEVEDO
-
Segmentação de Imagens de Cenas Naturais Baseada no \textit{Speed Drawing Challenge} com Aplicação em Segmentação de Mapas e Plantas Baixas
-
Orientador : CARLOS ALEXANDRE BARROS DE MELLO
-
MEMBROS DA BANCA :
-
CLEBER ZANCHETTIN
-
FRANCISCO MADEIRO BERNARDINO JUNIOR
-
MARCELO WALTER
-
MYLENE CHRISTINE QUEIROZ DE FARIAS
-
TSANG ING REN
-
Data: 30/03/2022
-
-
Mostrar Resumo
-
O Speed Drawing Challenge consiste em um desafio em que artistas devem representar um desenho em segundos sem perder as principais características que o tornam fiel ao desenho original. À medida que o tempo é reduzido, o artista se encaminha a produzir um desenho mais simples, se aproximando de um desenho contendo apenas os traços mais representativos, focando nos contornos. Para o problema de detecção de contorno, uma imagem de borda representa um desenho produzido sem uma grande limitação de tempo. Assim, o método proposto faz uso dos conceitos de superpixel, detecção de bordas e mapas de saliência para produção de uma imagem, simulando a variação de tempo do Speed Drawing Challenge: a modelagem do desafio em poucos segundos expressa uma imagem com apenas os contorno mais relevantes detectados. Diferente das técnicas do estado-da-arte, o método proposto gera uma imagem de bordas já final, sem necessidade de posterior pós-processamento como binarização. Mais do que um algoritmo apenas, propomos uma metodologia que pode ser aplicada de formas diferentes, mas seguindo a mesma ideia, em outros domínios, como na segmentação de mapas e plantas baixas. Os resultados alcançados foram bastante promissores quando o método é aplicado a imagens de cenas naturais e plantas baixas.
-
Mostrar Abstract
-
O Speed Drawing Challenge consiste em um desafio em que artistas devem representar um desenho em segundos sem perder as principais características que o tornam fiel ao desenho original. À medida que o tempo é reduzido, o artista se encaminha a produzir um desenho mais simples, se aproximando de um desenho contendo apenas os traços mais representativos, focando nos contornos. Para o problema de detecção de contorno, uma imagem de borda representa um desenho produzido sem uma grande limitação de tempo. Assim, o método proposto faz uso dos conceitos de superpixel, detecção de bordas e mapas de saliência para produção de uma imagem, simulando a variação de tempo do Speed Drawing Challenge: a modelagem do desafio em poucos segundos expressa uma imagem com apenas os contorno mais relevantes detectados. Diferente das técnicas do estado-da-arte, o método proposto gera uma imagem de bordas já final, sem necessidade de posterior pós-processamento como binarização. Mais do que um algoritmo apenas, propomos uma metodologia que pode ser aplicada de formas diferentes, mas seguindo a mesma ideia, em outros domínios, como na segmentação de mapas e plantas baixas. Os resultados alcançados foram bastante promissores quando o método é aplicado a imagens de cenas naturais e plantas baixas.
|
|
20
|
-
JEFERSON KENEDY MORAIS VIEIRA
-
Observatórios de Projetos: Um Modelo Conceitual
-
Orientador : HERMANO PERRELLI DE MOURA
-
MEMBROS DA BANCA :
-
EDSON LUIZ RICCIO
-
DORZELI SALETE TRZECIAK
-
ALEXANDRE MARCOS LINS DE VASCONCELOS
-
DANIEL CARVALHO DA CUNHA
-
JOSE ADSON OLIVEIRA GUEDES DA CUNHA
-
Data: 01/04/2022
-
-
Mostrar Resumo
-
A transparência tem sido utilizada pelos teóricos como o construto mais recente na tentativa de compreender a observação no contexto do gerenciamento. A literatura aponta que o desenvolvimento de ferramentas para sistematizar essa transparência tem se apresentado como um desafio para as organizações. Nesse sentido, os observatórios são apresentados como sistemas de informação que podem apoiar a observação e, consequentemente, a transparência nas mais diversas áreas do conhecimento, tais como, saúde, meio ambiente, mídias sociais, cidades, web, entre outros. Além disso, os projetos e seu gerenciamento também podem se beneficiar do desenvolvimento de observatórios. Esse uso dos observatórios nas mais variadas áreas de conhecimento tem agregado a eles uma característica relevante, a diversidade tipológica. Isso fez surgir a necessidade de desenvolver modelos que auxiliem na conceituação e concepção desses observatórios, respeitando as especificidades dos seus contextos de aplicação. A partir dessa conjuntura, este trabalho tem como objetivo principal a proposição de um modelo conceitual para observatórios de projetos, contemplando aspectos relacionados as suas estruturas, processos e atores envolvidos. Para alcançar o objetivo proposto, esta pesquisa foi conduzida em duas fases: (1) concepção e (2) evolução e avaliação. A fase de concepção, que deu origem a primeira versão do modelo, contemplou a realização de uma revisão ad hoc da literatura e de um mapeamento sistemático da literatura sobre observatórios, além do desenvolvimento de dez projetos-pilotos de observatórios de projetos. Durante a segunda fase, o modelo foi avaliado e evoluído em mais três versões, a partir da execução de três grupos focais, um survey e um estudo de múltiplos casos. A versão final do modelo, denominada Model for Projects Observatories (MPO), está organizada a partir de um conjunto de 61 conceitos estruturados em três níveis hierárquicos (conceitos gerais, intermediários e específicos). Para cada um desses conceitos é apresentada uma definição e, para o caso dos conceitos específicos, uma priorização é proposta, além disso, um cenário de uso também é apresentado. A contribuição mais relevante deste trabalho de pesquisa reside na proposição do MPO, um modelo conceitual que pode contribuir tanto para a compreensão como para o desenvolvimento de observatórios de projetos.
-
Mostrar Abstract
-
Ao trigésimo dia do mês de setembro do ano de dois mil e vinte, às catorze horas e trinta minutos, no Centro de Informática da Universidade Federal de Pernambuco, teve início a defesa de Proposta de Tese de Doutorado em Ciência da Computação do aluno Jeferson Kenedy Morais Vieira intitulada “MPO: A Model for Projects Observatories” elaborada sob a orientação do professor Hermano Perrelli de Moura. A Banca Examinadora, composta pelos professores Alexandre Marcos Lins de Vasconcelos, Daniel Carvalho da Cunha, ambos pertencentes ao Centro de Informática desta Universidade e Edson Luiz Riccio pertencente ao Departamento de Contabilidade Atuária da Universidade de São Paulo, sendo o primeiro presidente da Banca Examinadora decidiu: Aprovar o trabalho. E para constar lavrei a presente ata que vai por mim assinada e pela Banca Examinadora. Recife, 30 de setembro de 2020.
|
|
21
|
-
ANDREA MARIA NOGUEIRA CAVALCANTI RIBEIRO
-
Gerenciamento de energia elétrica de uma indústria de resinas termoplásticas
-
Orientador : DJAMEL FAWZI HADJ SADOK
-
MEMBROS DA BANCA :
-
ALUIZIO FAUSTO RIBEIRO ARAUJO
-
EDUARDO JAMES PEREIRA SOUTO
-
GLAUCO ESTACIO GONÇALVES
-
GUSTAVO MEDEIROS DE SOUZA AZEVEDO
-
NELSON SOUTO ROSA
-
Data: 01/04/2022
-
-
Mostrar Resumo
-
A eletricidade se tornou uma das principais fontes de calor e de força nas indústrias, representando um percentual importante nos custos da produção. É possível afirmar que no contexto mundial o setor industrial é o maior consumidor de energia elétrica e a fabricação com uso de energia-intensiva é o maior componente desse setor. No contexto nacional o consumo de energia elétrica pelas indústrias atualmente representa 35% do consumo total de energia consumida no país. A busca por uma melhor eficiência energética pelo setor industrial, vem tornando, cada vez mais frequente. O uso de dispositivos de Internet of Things (IoT), energias renováveis, gerenciamento e monitoramento de energia, bem como Inteligência Artificial (IA) são alternativas para alcançar a redução e o consumo consciente da energia elétrica. Desta forma, esta pesquisa de doutorado teve como objetivo o desenvolvimento de um framework de gerenciamento de energia elétrica em uma indústria de resinas termoplásticas. O framework recebe como entrada dados de variáveis elétricas e variáveis de processo da planta industrial e produz como saída informações para auxiliar a tomada de decisão: gráficos com a predição do identificador de desempenho energético; alertas; faixas de vazão de produção e tempo de produção; retorno do investimento de um dado equipamento ou material, entre outros. O processamento desses dados é realizado através da integração entre três modelos baseados em técnicas de IA, otimização linear e lei da afinidade - modelo de predição do consumo de energia elétrica, escalonamento da vazão de produção e viabilidade de materiais e equipamentos. Para validação do framework um estudo de caso foi realizado e foi verificado uma economia de 9,74% oriunda da aplicação do modulo de escalonamento e uma economia mensal de aproximadamente R$ 9.000 oriunda do módulo de viabilidade. Além disso, o framework contribuiu para a manutenção do certificado da ISO 50001.
-
Mostrar Abstract
-
A eletricidade se tornou uma das principais fontes de calor e de força nas indústrias, representando um percentual importante nos custos da produção. É possível afirmar que no contexto mundial o setor industrial é o maior consumidor de energia elétrica e a fabricação com uso de energia-intensiva é o maior componente desse setor. No contexto nacional o consumo de energia elétrica pelas indústrias atualmente representa 35% do consumo total de energia consumida no país. A busca por uma melhor eficiência energética pelo setor industrial, vem tornando, cada vez mais frequente. O uso de dispositivos de Internet of Things (IoT), energias renováveis, gerenciamento e monitoramento de energia, bem como Inteligência Artificial (IA) são alternativas para alcançar a redução e o consumo consciente da energia elétrica. Desta forma, esta pesquisa de doutorado teve como objetivo o desenvolvimento de um framework de gerenciamento de energia elétrica em uma indústria de resinas termoplásticas. O framework recebe como entrada dados de variáveis elétricas e variáveis de processo da planta industrial e produz como saída informações para auxiliar a tomada de decisão: gráficos com a predição do identificador de desempenho energético; alertas; faixas de vazão de produção e tempo de produção; retorno do investimento de um dado equipamento ou material, entre outros. O processamento desses dados é realizado através da integração entre três modelos baseados em técnicas de IA, otimização linear e lei da afinidade - modelo de predição do consumo de energia elétrica, escalonamento da vazão de produção e viabilidade de materiais e equipamentos. Para validação do framework um estudo de caso foi realizado e foi verificado uma economia de 9,74% oriunda da aplicação do modulo de escalonamento e uma economia mensal de aproximadamente R$ 9.000 oriunda do módulo de viabilidade. Além disso, o framework contribuiu para a manutenção do certificado da ISO 50001.
|
|
22
|
-
CECILIA CORDEIRO DA SILVA
-
Uma metodologia para construção de preditores de doenças baseada em Aprendizado de Máquina, Computação Bioinspirada e Análise Espaço-Temporal
-
Orientador : ABEL GUILHERMINO DA SILVA FILHO
-
MEMBROS DA BANCA :
-
ANA LUCIA BEZERRA CANDEIAS
-
GISELLE MACHADO MAGALHAES MORENO
-
JOÃO FAUSTO LORENZATO DE OLIVEIRA
-
MANOEL EUSEBIO DE LIMA
-
TIAGO LIMA MASSONI
-
Data: 20/06/2022
-
-
Mostrar Resumo
-
Em um mundo cada vez mais conectado por meio de vias físicas e virtuais, pessoas e dados circulam com cada vez mais facilidade. As mudanças demográficas e o intenso fluxo migratório das zonas rurais para as regiões urbanas geraram um crescimento desordenado das cidades. Isso combinado à ausência de boas condições de saneamento básico contribui para a proliferação do vetor. A emergência de surtos epidêmicos, como a dengue, a febre chikungunya, a zika e outras doenças tem contribuído para construir um cenário cada vez mais desafiador. A recente pandemia de Covid-19 trouxe grandes mudanças em escala mundial. Nesse cenário, cresceu fortemente o interesse por técnicas para predição espacial e temporal da distribuição de doenças a partir de tecnologias como a Internet das Coisas, aprendizado de máquina e múltiplas bases de dados. Este trabalho tem como objetivo geral propor uma metodologia para construção de preditores capazes de prever a distribuição espaço-temporal de doenças e apontar os fatores mais relevantes para a predição a partir de uma arquitetura baseada no acesso a múltiplas bases de dados. Para validação da proposta, foi adotada como estudo de caso a predição de casos de arboviroses por meio de séries históricas georreferenciadas de informações climáticas e ambientais utilizando técnicas de aprendizado de máquina. Essas informações são coletadas de múltiplos bancos de dados georreferenciados, previamente construídos a partir da coleta de informações por redes de sensores e do Sistema Único de Saúde. Foram utilizadas informações da Cidade do Recife, de casos de arboviroses (dengue, chikungunya e zika) de 2013 a 2016, e informações climáticas e ambientais do mesmo período, da APAC e doINMET. Os sistemas de predição de doenças construídos utilizando a metodologia proposta neste trabalho também devem ser capazes de apontar os fatores mais relevantes para a predição por meio do Comitê de Especialistas Artificiais, proposto neste trabalho e composto de um conjunto de algoritmos de seleção de atributos baseados em métodos de otimização por Computação Evolucionária. O Comitê de Especialistas Artificiais decide por votação. Os melhores resultados de predição de casos foram obtidos com regressão por Random Forest. Os valores do coeficiente de correlação de Pearson foram superiores a 0,99, enquanto o RMSE (%) se manteve inferior a 6%. Os índices de Kendall e Spearman também se mantiveram altos: seus valores foram superiores a 0,99 para Spearman e maiores que 0,90 para Kendall. O desempenho superior da Random Forest mostra que o problema de regressão é de difícil generalização, dado que a Random Forest é baseada em comitês de árvores de decisão e a regressão é realizada por uma média ponderada dos resultados das diferentes árvores de decisão que compõem o modelo.
-
Mostrar Abstract
-
Em um mundo cada vez mais conectado por meio de vias físicas e virtuais, pessoas e dados circulam com cada vez mais facilidade. As mudanças demográficas e o intenso fluxo migratório das zonas rurais para as regiões urbanas geraram um crescimento desordenado das cidades. Isso combinado à ausência de boas condições de saneamento básico contribui para a proliferação do vetor. A emergência de surtos epidêmicos, como a dengue, a febre chikungunya, a zika e outras doenças tem contribuído para construir um cenário cada vez mais desafiador. A recente pandemia de Covid-19 trouxe grandes mudanças em escala mundial. Nesse cenário, cresceu fortemente o interesse por técnicas para predição espacial e temporal da distribuição de doenças a partir de tecnologias como a Internet das Coisas, aprendizado de máquina e múltiplas bases de dados. Este trabalho tem como objetivo geral propor uma metodologia para construção de preditores capazes de prever a distribuição espaço-temporal de doenças e apontar os fatores mais relevantes para a predição a partir de uma arquitetura baseada no acesso a múltiplas bases de dados. Para validação da proposta, foi adotada como estudo de caso a predição de casos de arboviroses por meio de séries históricas georreferenciadas de informações climáticas e ambientais utilizando técnicas de aprendizado de máquina. Essas informações são coletadas de múltiplos bancos de dados georreferenciados, previamente construídos a partir da coleta de informações por redes de sensores e do Sistema Único de Saúde. Foram utilizadas informações da Cidade do Recife, de casos de arboviroses (dengue, chikungunya e zika) de 2013 a 2016, e informações climáticas e ambientais do mesmo período, da APAC e doINMET. Os sistemas de predição de doenças construídos utilizando a metodologia proposta neste trabalho também devem ser capazes de apontar os fatores mais relevantes para a predição por meio do Comitê de Especialistas Artificiais, proposto neste trabalho e composto de um conjunto de algoritmos de seleção de atributos baseados em métodos de otimização por Computação Evolucionária. O Comitê de Especialistas Artificiais decide por votação. Os melhores resultados de predição de casos foram obtidos com regressão por Random Forest. Os valores do coeficiente de correlação de Pearson foram superiores a 0,99, enquanto o RMSE (%) se manteve inferior a 6%. Os índices de Kendall e Spearman também se mantiveram altos: seus valores foram superiores a 0,99 para Spearman e maiores que 0,90 para Kendall. O desempenho superior da Random Forest mostra que o problema de regressão é de difícil generalização, dado que a Random Forest é baseada em comitês de árvores de decisão e a regressão é realizada por uma média ponderada dos resultados das diferentes árvores de decisão que compõem o modelo.
|
|
23
|
-
DAVID LOPES DE MACEDO
-
Towards Robust Deep Learning usingEntropic Losses
-
Orientador : TERESA BERNARDA LUDERMIR
-
MEMBROS DA BANCA :
-
RICARDO MATSUMURA DE ARAÚJO
-
ADRIANO LORENA INACIO DE OLIVEIRA
-
BYRON LEITE DANTAS BEZERRA
-
JOÃO FAUSTO LORENZATO DE OLIVEIRA
-
TSANG ING REN
-
Data: 27/06/2022
-
-
Mostrar Resumo
-
Apesar das conquistas teóricas e resultados práticos encorajadores, o aprendizado profundo ainda apresenta limitações em muitas áreas, como raciocínio, inferência causal, interpretabilidade e explicabilidade. Do ponto de vista da aplicação, uma das restrições mais impactantes está relacionada à robustez desses sistemas. De fato, as soluções atuais de aprendizado profundo são bem conhecidas por não informar se podem classificar um exemplo de maneira confiável durante a inferência. As redes neurais modernas geralmente são superconfiantes, mesmo quando estão erradas. Portanto, construir aplicativos robustos de aprendizado profundo é atualmente um tópico de pesquisa de ponta em visão computacional, processamento de linguagem natural e muitas outras áreas. Uma das maneiras mais eficazes de construir soluções de aprendizado profundo mais confiáveis é melhorar seu desempenho na chamada tarefa de detecção fora de distribuição, que consiste essencialmente em ``saber que você não sabe'' ou ``conhecer o desconhecido''. Em outras palavras, sistemas com capacidade de detecção fora de distribuição podem rejeitar a realização de uma classificação sem sentido quando submetidos a instâncias de classes nas quais a rede neural não foi treinada. Esta tese aborda a desafiadora tarefa de detecção fora da distribuição, propondo novas funções de perda e pontuações de detecção. A estimativa de incerteza também é uma tarefa auxiliar crucial na construção de sistemas de aprendizado profundo mais robustos. Portanto, tratamos também dessa tarefa relacionada à robustez, que avalia quão realistas são as probabilidades apresentadas pela rede neural profunda. Para demonstrar a eficácia de nossa abordagem, além de um conjunto substancial de experimentos, que incluí resultados estado-da-arte, utilizamos argumentos baseados no princípio da máxima entropia para estabelecer a fundamentação teórica das abordagens propostas. Ao contrário da maioria dos métodos atuais, além de apresentarem inferência rápida e eficiente, nossas perdas e pontuações são soluções baseadas em princípios e não produzem efeitos colaterais indesejados. Além disso, nossas abordagens podem ser incorporadas em projetos atuais e futuros simplesmente substituindo a perda usada para treinar a rede neural profunda e computando uma pontuação rápida para detecção.
-
Mostrar Abstract
-
Apesar das conquistas teóricas e resultados práticos encorajadores, o aprendizado profundo ainda apresenta limitações em muitas áreas, como raciocínio, inferência causal, interpretabilidade e explicabilidade. Do ponto de vista da aplicação, uma das restrições mais impactantes está relacionada à robustez desses sistemas. De fato, as soluções atuais de aprendizado profundo são bem conhecidas por não informar se podem classificar um exemplo de maneira confiável durante a inferência. As redes neurais modernas geralmente são superconfiantes, mesmo quando estão erradas. Portanto, construir aplicativos robustos de aprendizado profundo é atualmente um tópico de pesquisa de ponta em visão computacional, processamento de linguagem natural e muitas outras áreas. Uma das maneiras mais eficazes de construir soluções de aprendizado profundo mais confiáveis é melhorar seu desempenho na chamada tarefa de detecção fora de distribuição, que consiste essencialmente em ``saber que você não sabe'' ou ``conhecer o desconhecido''. Em outras palavras, sistemas com capacidade de detecção fora de distribuição podem rejeitar a realização de uma classificação sem sentido quando submetidos a instâncias de classes nas quais a rede neural não foi treinada. Esta tese aborda a desafiadora tarefa de detecção fora da distribuição, propondo novas funções de perda e pontuações de detecção. A estimativa de incerteza também é uma tarefa auxiliar crucial na construção de sistemas de aprendizado profundo mais robustos. Portanto, tratamos também dessa tarefa relacionada à robustez, que avalia quão realistas são as probabilidades apresentadas pela rede neural profunda. Para demonstrar a eficácia de nossa abordagem, além de um conjunto substancial de experimentos, que incluí resultados estado-da-arte, utilizamos argumentos baseados no princípio da máxima entropia para estabelecer a fundamentação teórica das abordagens propostas. Ao contrário da maioria dos métodos atuais, além de apresentarem inferência rápida e eficiente, nossas perdas e pontuações são soluções baseadas em princípios e não produzem efeitos colaterais indesejados. Além disso, nossas abordagens podem ser incorporadas em projetos atuais e futuros simplesmente substituindo a perda usada para treinar a rede neural profunda e computando uma pontuação rápida para detecção.
|
|
24
|
-
RODRIGO GOMES DE SOUZA
-
Seleção automática de fatias em volumes de imagens tomográficas: Estudo de caso no apoio ao diagnóstico da Doença de Alzheimer
-
Orientador : MANOEL EUSEBIO DE LIMA
-
MEMBROS DA BANCA :
-
ABEL GUILHERMINO DA SILVA FILHO
-
GISELLE MACHADO MAGALHAES MORENO
-
MARCELO CAIRRAO ARAUJO RODRIGUES
-
RICARDO EMMANUEL DE SOUZA
-
SIDNEY MARLON LOPES DE LIMA
-
Data: 30/06/2022
-
-
Mostrar Resumo
-
Com o advento da Quarta Revolução Industrial, as tecnologias da Indústria 4.0 têm acele- rado o processo de transformação digital dos sistemas nacionais de saúde, tanto públicos quanto complementares, incorporando a Inteligência Artificial, a Internet das Coisas, a Robótica e a Biotecnologia à prática clínica, terapêutica e de gestão de recursos em saúde. Com a pandemia de Covid-19, também se intensificou o uso de técnicas avançadas de diagnóstico por imagem. Apesar da sofisticação do diagnóstico por imagem por conta da possibilidade de gerar laudos rápidos e precisos, esses exames exigem um alto conheci- mento especialista. Contudo, a dependência do conhecimento especialista humano pode acarretar em diagnósticos tardios e, por conseguinte, maus prognósticos. Esse problema é especialmente mais grave quando se consideram imagens volumétricas: estruturas associ- adas a determinadas doenças com bons prognósticos quando detectadas precocemente podem ser ignoradas até mesmo por especialistas com grande experiência, por razões diversas, incluindo aí a fadiga humana, dada a complexidade envolvida na análise humana de volumes. Devido ao potencial dos impactos à saude pública e à economia de forma geral, a Doença de Alzheimer, DA, tornou-se um dos maiores desafios à ciência na última década. Contudo, grande parte dos estudos que propõem métodos de suporte ao diagnóstico da doença apresentam dificuldades para sua adoção na prática clínica. Este trabalho tem como objetivo geral construir uma metodologia para selecionar planos de visualização e cortes ou fatias em imagens biomédicas volumétricas, de forma que se otimize o diagnóstico por meio da transformação de um problema tridimensional em bidimensional. A seleção da fatia e dos planos de visualização é feita com o auxílio de um algoritmo evolucionário guiado por um classificador. Como estudo de caso, foi escolhido o problema do apoio ao diagnóstico da doença de Alzheimer. Utilizando volumes MRI da base ADNI-3, este estudo apresenta um modelo baseado em computação evolucionária e aprendizado de máquina capaz de identificar e utilizar o conjunto de fatias 2D mais adequado para maximizar cada uma das métrica relacionadas ao diagnóstico da doença de Alzheimer. Por meio de uma seleção ótima de fatias os melhores resultados para especificidade, sensibilidade e acurácia obtidos em cada classe foram respectivamente: normal (94,58%, 81,08%, 86.64%), déficit cognitivo leve (94,83%, 89,32%, 89,89%) e Alzheimer (92,99%, 92,06%, 90,61%) para mulheres, e normal (91,93%, 93,42%, 91.30%), déficit cognitivo leve (98,17%, 80,53%, 86,29%) e Alzheimer (95,86%, 90,91%, 94,31%) para homens. Assim, este trabalho apresenta um modelo para apoiar o diagnóstico de doença de Alzheimer e déficit cognitivo leve, apresentando bom desempenho de classificação, considerando também as informações de gênero para produzir melhorias significativas no diagnóstico da doença de Alzheimer.
-
Mostrar Abstract
-
Com o advento da Quarta Revolução Industrial, as tecnologias da Indústria 4.0 têm acele- rado o processo de transformação digital dos sistemas nacionais de saúde, tanto públicos quanto complementares, incorporando a Inteligência Artificial, a Internet das Coisas, a Robótica e a Biotecnologia à prática clínica, terapêutica e de gestão de recursos em saúde. Com a pandemia de Covid-19, também se intensificou o uso de técnicas avançadas de diagnóstico por imagem. Apesar da sofisticação do diagnóstico por imagem por conta da possibilidade de gerar laudos rápidos e precisos, esses exames exigem um alto conheci- mento especialista. Contudo, a dependência do conhecimento especialista humano pode acarretar em diagnósticos tardios e, por conseguinte, maus prognósticos. Esse problema é especialmente mais grave quando se consideram imagens volumétricas: estruturas associ- adas a determinadas doenças com bons prognósticos quando detectadas precocemente podem ser ignoradas até mesmo por especialistas com grande experiência, por razões diversas, incluindo aí a fadiga humana, dada a complexidade envolvida na análise humana de volumes. Devido ao potencial dos impactos à saude pública e à economia de forma geral, a Doença de Alzheimer, DA, tornou-se um dos maiores desafios à ciência na última década. Contudo, grande parte dos estudos que propõem métodos de suporte ao diagnóstico da doença apresentam dificuldades para sua adoção na prática clínica. Este trabalho tem como objetivo geral construir uma metodologia para selecionar planos de visualização e cortes ou fatias em imagens biomédicas volumétricas, de forma que se otimize o diagnóstico por meio da transformação de um problema tridimensional em bidimensional. A seleção da fatia e dos planos de visualização é feita com o auxílio de um algoritmo evolucionário guiado por um classificador. Como estudo de caso, foi escolhido o problema do apoio ao diagnóstico da doença de Alzheimer. Utilizando volumes MRI da base ADNI-3, este estudo apresenta um modelo baseado em computação evolucionária e aprendizado de máquina capaz de identificar e utilizar o conjunto de fatias 2D mais adequado para maximizar cada uma das métrica relacionadas ao diagnóstico da doença de Alzheimer. Por meio de uma seleção ótima de fatias os melhores resultados para especificidade, sensibilidade e acurácia obtidos em cada classe foram respectivamente: normal (94,58%, 81,08%, 86.64%), déficit cognitivo leve (94,83%, 89,32%, 89,89%) e Alzheimer (92,99%, 92,06%, 90,61%) para mulheres, e normal (91,93%, 93,42%, 91.30%), déficit cognitivo leve (98,17%, 80,53%, 86,29%) e Alzheimer (95,86%, 90,91%, 94,31%) para homens. Assim, este trabalho apresenta um modelo para apoiar o diagnóstico de doença de Alzheimer e déficit cognitivo leve, apresentando bom desempenho de classificação, considerando também as informações de gênero para produzir melhorias significativas no diagnóstico da doença de Alzheimer.
|
|
25
|
-
MICHAEL OLIVEIRA DA CRUZ
-
Applying Language Modeling to Detect Anomalies in Bus Trajectories
-
Orientador : LUCIANO DE ANDRADE BARBOSA
-
MEMBROS DA BANCA :
-
CLODOVEU AUGUSTO DAVIS JUNIOR
-
CLAUDIO DE SOUZA BAPTISTA
-
JOSE ANTONIO FERNANDES DE MACEDO
-
KIEV SANTOS DA GAMA
-
PAULO SALGADO GOMES DE MATTOS NETO
-
Data: 01/07/2022
-
-
Mostrar Resumo
-
A descoberta de trajetórias anômalas de ônibus no tráfego urbano pode ajudar as agências de transporte a melhorar seus serviços, fornecendo um melhor planejamento para lidar com eventos inesperados, como fenômenos climáticos, desvios ou acidentes. Para ajudar a identificar a causa potencial da anomalia, podemos detectar trajetórias anômalas e também identificar onde a anomalia está localizada. No entanto, um grande desafio para realizar esta tarefa é a falta de dados de trajetória anômala rotulados. A falta desses dados rotulados dificulta a avaliação de modelos e a construção de abordagens de aprendizagem indutivas. Além disso, as abordagens anteriores dependem fortemente de tarefas de pré-processamento para segmentar trajetórias antes de detectar a anomalia. Essa estratégia não é apenas cara, mas também pode perder informações importantes porque os segmentos são analisados individualmente sem considerar o relacionamento entre os segmentos. Por fim, poucas estratégias na literatura propõem soluções online, o que restringe sua contribuição em tempo real. Com base nisso, esta tese tem como objetivo propor uma abordagem online baseado em aprendizado indutivo para detectar trajetórias anômalas de ônibus e identificar os segmentos anômalos. Para isso, inicialmente observamos que as trajetórias de ônibus são pré-definidas e bem formadas, e incluem a informação de rotas. Com base nisso, supomos que uma abordagem supervisionada poderia aprender a classificar essas trajetórias de ônibus de acordo com as rotas e detectar indiretamente quais delas são anômalas. Assim, propomos um classificador multiclasse chamado Spatial-Temporal Outlier Detection como nossa primeira solução para detectar trajetórias anômalas. Usamos a incerteza da classificação aplicando a função de entropia sobre a distribuição de classes para gerar um score de anomalia. Embora experimentos extensivos tenham mostrado resultados promissores, nossa primeira solução não pode identificar onde ocorrem os segmentos anômalos. Para superar essa restrição, nossa intuição é que as trajetórias podem ser representadas como uma sequência de tokens semelhantes a frases de palavras que nos permitem aplicar um modelo de linguagem. Consequentemente, propomos usar uma abordagem baseada na arquitetura generativa de redes neuronais profundas chamada encoder-decoder Transformer para aprender a relação entre pontos de trajetória sequenciais com base no mecanismo de autoatenção. Nossa solução final não requer nenhuma extração manual de recursos e pode ser facilmente adaptada a outros tipos de trajetórias (por exemplo, carro, pessoas e embarcações). Realizamos uma extensa avaliação experimental que mostra: (1) nossa abordagem é eficaz para detecção de anomalias de trajetória e subtrajetória; e (2) supera os métodos usados para comparação em alguns cenários e alcança estatisticamente resultados comparáveis em outros cenários.
-
Mostrar Abstract
-
A descoberta de trajetórias anômalas de ônibus no tráfego urbano pode ajudar as agências de transporte a melhorar seus serviços, fornecendo um melhor planejamento para lidar com eventos inesperados, como fenômenos climáticos, desvios ou acidentes. Para ajudar a identificar a causa potencial da anomalia, podemos detectar trajetórias anômalas e também identificar onde a anomalia está localizada. No entanto, um grande desafio para realizar esta tarefa é a falta de dados de trajetória anômala rotulados. A falta desses dados rotulados dificulta a avaliação de modelos e a construção de abordagens de aprendizagem indutivas. Além disso, as abordagens anteriores dependem fortemente de tarefas de pré-processamento para segmentar trajetórias antes de detectar a anomalia. Essa estratégia não é apenas cara, mas também pode perder informações importantes porque os segmentos são analisados individualmente sem considerar o relacionamento entre os segmentos. Por fim, poucas estratégias na literatura propõem soluções online, o que restringe sua contribuição em tempo real. Com base nisso, esta tese tem como objetivo propor uma abordagem online baseado em aprendizado indutivo para detectar trajetórias anômalas de ônibus e identificar os segmentos anômalos. Para isso, inicialmente observamos que as trajetórias de ônibus são pré-definidas e bem formadas, e incluem a informação de rotas. Com base nisso, supomos que uma abordagem supervisionada poderia aprender a classificar essas trajetórias de ônibus de acordo com as rotas e detectar indiretamente quais delas são anômalas. Assim, propomos um classificador multiclasse chamado Spatial-Temporal Outlier Detection como nossa primeira solução para detectar trajetórias anômalas. Usamos a incerteza da classificação aplicando a função de entropia sobre a distribuição de classes para gerar um score de anomalia. Embora experimentos extensivos tenham mostrado resultados promissores, nossa primeira solução não pode identificar onde ocorrem os segmentos anômalos. Para superar essa restrição, nossa intuição é que as trajetórias podem ser representadas como uma sequência de tokens semelhantes a frases de palavras que nos permitem aplicar um modelo de linguagem. Consequentemente, propomos usar uma abordagem baseada na arquitetura generativa de redes neuronais profundas chamada encoder-decoder Transformer para aprender a relação entre pontos de trajetória sequenciais com base no mecanismo de autoatenção. Nossa solução final não requer nenhuma extração manual de recursos e pode ser facilmente adaptada a outros tipos de trajetórias (por exemplo, carro, pessoas e embarcações). Realizamos uma extensa avaliação experimental que mostra: (1) nossa abordagem é eficaz para detecção de anomalias de trajetória e subtrajetória; e (2) supera os métodos usados para comparação em alguns cenários e alcança estatisticamente resultados comparáveis em outros cenários.
|
|