|
Thèses |
|
1
|
-
ALESSANDRA ALELUIA ALVES
-
Ama: um sistema especialista de aprendizado para balé adulto através de feedback verbal automático
-
Leader : GIORDANO RIBEIRO EULALIO CABRAL
-
MEMBRES DE LA BANQUE :
-
MARLINI DORNELES DE LIMA
-
FILIPE CARLOS DE ALBUQUERQUE CALEGARIO
-
GIORDANO RIBEIRO EULALIO CABRAL
-
Data: 18 janv. 2022
-
-
Afficher le Résumé
-
Com a introdução da computação no balé clássico, podemos pensar em novas possibilidades de ensino-aprendizagem que sejam mais inclusivas e democráticas. Na literatura científica atual, existem trabalhos voltados para o aprendizado do balé, mas pouco se fala do público de balé adulto. Esse público, caracterizado por pessoas com 18 ou mais anos de idade e que não necessariamente possui o objetivo de se tornar bailarino profissional, possui um perfil e objetivo diferentes do tradicional bailarino de uma grande companhia de dança e é cada vez mais frequente de ser encontrado em diversas academias de balé. Portanto, este trabalho trata-se de uma pesquisa baseada em inovação que explorou as possibilidades de uso da tecnologia para auxiliar o aprendizado de balé clássico através do feedback, especializando-se posteriormente no público de balé adulto e fornecendo feedback verbal automatizado. Após uma pesquisa junto ao público-alvo que utilizaria esse tipo de tecnologia que auxiliasse nos treinos de balé em casa, foi desenvolvido um sistema especialista chamado Ama. O primeiro protótipo de Ama contou com uma interface visual e feedback verbal em tempo real e foi avaliado por bailarinos e professores de balé clássico. Os resultados obtidos demonstraram a possibilidade de fornecimento de feedback útil ao bailarino de maneira inclusiva e que atendesse suas necessidades, além das possíveis funcionalidades propostas terem sido consideradas pertinentes pelo público que poderia utilizar a ferramenta futuramente. Assim, conseguimos avançar na área que une dança e tecnologia e no entendimento científico e prático de formas de interação e design de tecnologias voltadas para o aprendizado de balé clássico.
|
|
2
|
-
WALBER DE MACEDO RODRIGUES
-
Dynamic Ensemble of Classifiers and Security Relevant Methods of Android’s API: An Empirical Study
-
Leader : GEORGE DARMITON DA CUNHA CAVALCANTI
-
MEMBRES DE LA BANQUE :
-
ANDRÉ CÂMARA ALVES DO NASCIMENTO
-
GEORGE DARMITON DA CUNHA CAVALCANTI
-
RAFAEL MENELAU OLIVEIRA E CRUZ
-
Data: 10 févr. 2022
-
-
Afficher le Résumé
-
O sistema operacional Android disponibiliza funções e métodos de manuseio de dados sensíveis para proteger os dados dos usuários. Dados sensíveis são todo tipo de dados que podem identificar o usuário, como localização de GPS, dados biométricos e informações bancárias. A literatura de segurança Android propõe extrair features binárias de um método e classificar-lo em uma das classes de Security Relevant Methods, agregando informação de o método manuseia dados sensíveis. Entretanto, existe uma lacuna na literatura onde não são avaliados algoritmos de Ensemble Dinâmico. Os algoritmos de Ensemble Dinâmico são estado da arte para Sistemas de Múltiplos classificadores, que por sua vez, não atacam objetivamente o tipo específico de features binárias. Assim sendo, este trabalho endereça a lacuna em relação a algoritmos de Ensemble Dinâmicos aplicados ao problema de classificação de Security Relevant Methods. Nossas análises mostram que, ao contrário do que é inicialmente posto pela literatura, SVM não é o melhor classificador para esse problema, sendo MLP, Random Forest, Gradient Boosted Decision Trees e META-DES usando \text{Random Forest como geração do pool os melhores resultados. Também constatamos que, em geral, algoritmos de Ensemble Dinâmico possuem uma desvantagem em relação aos classificadores monolíticos. Ademais, essa desvantagem é exarcebada em algoritmos que utilizam classificadores baseados em distância, como o OLP. Quando utlizamos o algoritmo de embedding Triplet Loss, observamos um aumento de performance para o kNN e OLP, mas não de outras técnicas de Ensemble Dinâmico, mostrando que um conjunto de features binárias tem impacto mais significativo sobre esses algoritmos.
|
|
3
|
-
ALEXANDRE LUÍS BÔA-VIAGEM DE FRANÇA
-
Uma Arquitetura Multinível para Fusão de Dados de monitoramento do consumo de energia elétrica a partir de Redes de sensores sem fio.
-
Leader : FLAVIA DE ALMEIDA BARROS
-
MEMBRES DE LA BANQUE :
-
CARLOS ANDRE GUIMARAES FERRAZ
-
FLAVIA DE ALMEIDA BARROS
-
ANDRÉ CÂMARA ALVES DO NASCIMENTO
-
Data: 11 févr. 2022
-
-
Afficher le Résumé
-
Em cenários corporativos, o alto consumo de energia elétrica impacta a lucratividade e a qualidade dos produtos e serviços oferecidos. No setor industrial brasileiro, os gastos com energia elétrica podem chegar a 40% dos custos de produção. A utilização racional de energia, ou eficiência energética, torna-se um forte aliado das empresas, sobretudo no setor industrial. Contudo, a eficiência energética requer altos investimentos em automação industrial, que geralmente é invasiva e requer altos investimentos em sua implantação e manutenção. Claramente, obter maior eficiência energética a custo acessível e com portabilidade e escalabilidade apresenta-se como um desafio. Nesse contexto, este trabalho propõe a utilização de redes de sensores sem fio (RSSF), não invasivas e de baixo custo, para monitoramento de equipamentos eletroeletrônicos residenciais ou industriais utilizando a abordagem de IoT (Internet of Things). Os dados coletados são fusionados através de uma arquitetura multinível de fusão de dados projetada neste trabalho, gerando assim informações com maior valor agregado (revelando, por exemplo, as principais grandezas elétricas inerentes à demanda e ao consumo de energia). Com o monitoramento contínuo e em tempo real, é possível identificar falhas e tomar ações corretivas com mais rapidez, evitando desperdícios e gerando economia. As RSSFs foram implantadas em dois contextos distintos: um ambiente residencial, e um ambiente industrial. O estudo de caso realizado em ambiente doméstico focou na implementação de uma RSSF atrelada a uma geladeira, com vistas a monitorar o consumo de energia por um determinado período. O segundo estudo de caso foi desenvolvido em um ambiente industrial, com objetivo foi monitorar remotamente o consumo de energia de um equipamento denominado “extrusora”, em uma pequena indústria de plástico da região Metropolitana do Recife. Em ambos os casos, os resultados foram muito positivos. Além do grande valor gerencial dos resultados obtidos a partir da fusão dos dados, conseguimos também confirmar a escalabilidade e a independência de domínio da arquitetura de fusão proposta nesse trabalho, que foi utilizada em ambos os estudos de caso com pequenas alterações no hardware (mudança de transformadores de corrente, microcontroladores e o rádio).
|
|
4
|
-
GERMANA ARRUDA DE QUEIROZ
-
O que devemos aprender sobre ética na engenharia de software e o que estamos estudando formalmente na academia brasileira?
-
Leader : GEBER LISBOA RAMALHO
-
MEMBRES DE LA BANQUE :
-
CLARISSE SIECKENIUS DE SOUZA
-
GEBER LISBOA RAMALHO
-
PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
-
Data: 11 févr. 2022
-
-
Afficher le Résumé
-
CONTEXTO: O software está cada vez mais presente em nossas vidas e nos influencia constantemente. Por exemplo, os carros autônomos desenvolvidos e as redes sociais podem introduzir preconceitos, quebrar preferências de privacidade, levar ao vício digital e outras questões semelhantes. OBJETIVO: Este estudo tem como objetivo identificar os dilemas éticos que ocorrem na engenharia de software e verificar como este assunto está sendo ensinado na área de TI. MÉTODO: Foi realizado um estudo de mapeamento sistemático; a pesquisa retornou 744 artigos de quatro bases de dados, dos quais 50 foram aceitos para extração de dados. Além disso, foi realizado um survey na área de educação; obtivemos 93 participantes na pesquisa e ao final foi realizado uma análise documental sobre a disciplina de ética em 20 universidades brasileiras. RESULTADOS: A partir dos dados extraídos na revisão, foi possível responder às questões de pesquisa e compreender os dilemas éticos que estiveram presentes nos últimos cinco anos. Os principais dilemas que podem auxiliar no direcionamento do ensino da ética no ensino superior foram privacidade, conscientização e segurança. Por meio do survey, foram coletados opiniões de alunos e professores universitários: 63% dos alunos relataram que a disciplina de ética é importante para a grade curricular dos cursos de graduação e pós-graduação da área de informática; 61,3% possuíam conhecimentos sobre ética aplicada ao seu campo profissional; 75,3% consideram a ética importante para os profissionais de TI; 35,5% tinham interesse em fazer curso relacionado à ética; 72% não leram o código de ética profissional em nenhuma área da tecnologia da informação; e 47,3% nunca estudaram ética. A percepção dos professores mostrou que 82,3% nunca ensinaram sobre a existência de um código de ética específico em tecnologia da informação; 93,1% afirmaram que o código de ética e conduta profissional é necessário para uma boa conduta profissional; e 72% não leram muito sobre questões éticas. Por meio da análise documental, foi coletada informações sobre assuntos relacionados às universidades brasileiras como carga horária (30-75 horas), ementa e as recomendações do MEC e SBC. CONCLUSÃO: O estudo de mapeamento contribuiu para evidenciar que as principais questões éticas que foram discutidas na literatura científica foram privacidade e transparência, o survey sobre a opinião de alunos e professores contribuiu para melhor compreensão e sugestões de mudanças futuras para obter maior interesse dos alunos e maior motivação profissional dos professores e a análise documental mostra que privacidade é uma questão discutida tanto na academia quanto nas publicações científicas, transparência foi visualizada mais nas publicações e não nas ementas dos cursos universitários, outros dilemas éticos foram visualizados como propriedade intelectual e responsabilidade.
|
|
5
|
-
ESDRAS SOUTO COSTA
-
Meta Aprendizado para Detecção de Anomalia em Imagens
-
Leader : GERMANO CRISPIM VASCONCELOS
-
MEMBRES DE LA BANQUE :
-
GEBER LISBOA RAMALHO
-
GERMANO CRISPIM VASCONCELOS
-
JAIRSON BARBOSA RODRIGUES
-
Data: 15 févr. 2022
-
-
Afficher le Résumé
-
A detecção de anomalias é uma tarefa crucial, tem um enorme impacto na sociedade e no bem-estar das pessoas. Considerada um problema desafiador, uma vez que a definição de ‘anomalia’ é ambígua, ou seja, qualquer evento que não esteja em conformidade com um comportamento considerado ‘normal’ pode ser visto como uma anomalia. Como exemplo, algumas situações enfrentadas diariamente em que algo é ‘anormal’ ou fora do comum: um acidente de trânsito; doenças; uma transação no cartão de crédito suspeita e assim por diante. Apesar dos grandes avanços em trabalhos recentes na detecção automática de anomalias e na área de Redes Neurais Profundas, tais modelos ainda demandam uma grande quantidade de dados para que se tire proveito de sua expressividade e desempenho. Sendo assim, o presente trabalho apresenta uma nova abordagem para a detecção semi-supervisionada de anomalias, quando somente de amostras ‘normais’ são consideradas no treinamento, bem como somente alguns exemplos estão disponíveis. Usando técnicas de meta-aprendizado, em particular MAML, a abordagem proposta é comparada com outros algoritmos na base de dados MVTec AD e demonstrou resultados promissores em tarefas de detecção de anomalias em objetos nunca vistos em treinamento.
|
|
6
|
-
RENATA REGINA MENEZES DE OLIVEIRA BARBOSA
-
Spotify como Ferramenta de Construção do Gosto: Um Estudo sobre os Efeitos do Consumo de Conteúdos Recomendados por Inteligência Artificial
-
Leader : RICARDO BASTOS CAVALCANTE PRUDENCIO
-
MEMBRES DE LA BANQUE :
-
FREDERICO ARAUJO DURAO
-
GEBER LISBOA RAMALHO
-
SERGIO RICARDO DE MELO QUEIROZ
-
Data: 15 févr. 2022
-
-
Afficher le Résumé
-
Nos últimos anos, tem se tornado cada vez mais comum o surgimento de plataformas, em vários setores, que trabalham com sistemas de recomendação. Visto que, do ponto de vista das plataformas, um importante propósito das recomendações é manter os usuários consumindo os conteúdos disponibilizados, utilizando inúmeras informações do comportamento dos usuários, foi observada a necessidade de entender as consequências do seu uso na sociedade. Surgem então alguns questionamentos: poderia essa nova dinâmica ser responsável por conduzir uma mudança no gosto dos usuários? Os conteúdos produzidos para consumo na plataforma também podem sofrer influência? A partir deste contexto, esta dissertação tem como propósito analisar os efeitos do consumo de conteúdos recomendados por inteligência artificial na sociedade. Tendo como bases principais a teoria do gosto (1979) do sociólogo Pierre Bourdieu e o conceito de onívoro cultural de DiMaggio (1987) e Richard Peterson e Albert Simkus (1992), procura-se observar quais as consequências causadas pelo uso de plataformas que utilizam dados do perfil do usuário em sistemas de recomendação que enviam conteúdos para serem consumidos, dado que o gosto não é produto resultante do livre-arbítrio, mas algo construído pelas condições de existência que moldam as preferências do indivíduo ao longo do tempo. Como objeto de estudo a plataforma de streaming musical Spotify foi selecionada, considerando-se sua popularidade no Brasil. Por meio de uma pesquisa quali-quantitativa e da construção de um grupo focal onde o histórico de uso da plataforma foi acompanhado por 5 meses, foi possível observar que o capital cultural, o consumo de conteúdo recomendado e a diversidade de gêneros são fatores de grande influência na equivalência entre o conteúdo já consumido e aquele que será recomendado. Além disso, a falta de similaridade entre os conteúdos de alguns usuários indicam a possibilidade do conteúdo sugerido ser resultado de uma ação publicitária, sem levar em consideração o histórico de consumo do usuário e sim se ele faz parte do público alvo que o artista pretende alcançar. Quanto aos onívoros culturais, o fato do usuário ser considerado um não obteve influência significativa nos resultados. Desta forma, a pesquisa contribui para debates sobre classes, dinâmica de consumo musical e inteligência artificial no século 21.
|
|
7
|
-
MOISÉS NEVES CAMÊLO
-
G-Priv: um guia para especificação de requisitos de privacidade em conformidade com a LGPD.
-
Leader : CARINA FROTA ALVES
-
MEMBRES DE LA BANQUE :
-
EDNA DIAS CANEDO
-
CARINA FROTA ALVES
-
JESSYKA FLAVYANNE FERREIRA VILELA
-
Data: 22 févr. 2022
-
-
Afficher le Résumé
-
A Lei Geral de Proteção de Dados (LGPD) visa proteger os dados pessoais, inclusive nos meios digitais, por pessoa natural ou por pessoa jurídica de direito público ou privado. Atualmente, as organizações precisam implementar várias medidas para garantir que seus sistemas de software estejam em conformidade com a lei. No entanto, a LGPD assim como outras legislações são de difícil entendimento por parte dos profissionais de TI, principalmente para extrair e operacionalizar requisitos legais. Dessa forma, esta pesquisa visa auxiliar analistas de requisitos na especificação dos requisitos de privacidade para garantir sua conformidade com a LGPD. Para atingir este objetivo, foram realizadas entrevistas exploratórias, com o intuito de investigar o ponto de vista de analistas de requisitos ressaltando possíveis desafios enfrentados na especificação de requisitos de privacidade. As entrevistas revelaram os principais achados classificados em cinco categorias: Conceitos de Privacidade, Processo de Conformidade, Obstáculos na Conformidade, Tradeoff entre Privacidade e Transparência, Rotina de Trabalho. A partir da análise dos dados coletados nas entrevistas, foi elaborado um guia chamado G-Priv para apoiar a especificação de requisitos de privacidade em conformidade com a LGPD. O guia proposto possui atividades bem definidas, templates e um catálogo com padrões de requisitos de privacidade. Ao final da pesquisa, executamos um survey com 18 participantes com o objetivo de avaliar a aceitação do G-Priv e dos artefatos propostos no guia. O survey foi conduzido através de um questionário utilizado no formulário no Google Forms, como também foi disponibilizada uma documentação detalhada do guia, apresentando de forma sistemática as suas etapas, interações entre os atores e os templates disponibilizados. Com base na avaliação, o G-Priv foi considerado de fácil entendimento, principalmente na definição dos papeis e responsabilidades dos atores envolvidos nas quatro etapas do guia. Os participantes do survey também ressaltaram a agilidade de utilização do guia. Sendo assim, consideramos que o guia proposto pode auxiliar analistas de requisitos na especificação dos requisitos de privacidade em conformidade com a LGPD.
|
|
8
|
-
MATHEUS BARBOSA DE OLIVEIRA
-
Detecção de conflitos semânticos via análise estática de subistituição de atribuição
-
Leader : PAULO HENRIQUE MONTEIRO BORBA
-
MEMBRES DE LA BANQUE :
-
EDUARDO FIGUEIREDO
-
MARCIO DE MEDEIROS RIBEIRO
-
PAULO HENRIQUE MONTEIRO BORBA
-
Data: 23 févr. 2022
-
-
Afficher le Résumé
-
O processo de desenvolvimento de software atual, exceto em casos especiais, é feito de forma colaborativa. Na medida que novos requisitos são levantados, novas tarefas são definidas e alocadas a desenvolvedores diferentes. Os desenvolvedores, no que lhes concerne, adicionam suas modificações em repositórios ou versões separadas e isoladas do código, e posteriormente essas modificações precisam ser integradas em um repositório ou versão central. Esse processo de integração de código é propenso a erros, especialmente se as alterações em diferentes ramos entrarem em conflito. Alguns desses conflitos são mais simples e podem ser detectados pelas ferramentas atuais de controle de versão como o Git, no entanto, ainda necessitam de intervenção humana para resolvê-los, o que afeta a produtividade da equipe. Mas esse não é o único problema, existem também os conflitos semânticos que requerem a compreensão do comportamento do software, que está além dos recursos da maioria das ferramentas de mesclagem existentes. Isso faz com que esses conflitos dificilmente sejam percebidos por revisões ou detectados em testes e chegam até o usuário final como defeito no software. Esse tipo de conflito ocorre quando, no código integrado, as mudanças introduzidas pela versão de um dos desenvolvedores interferem de forma inesperada com as mudanças introduzidas pela versão de outro desenvolvedor, fazendo com o que um contrato pretendido por uma das versões deixe de ser cumprido. Sendo assim, se fazem necessárias ferramentas que possam detectar conflitos desse tipo no processo de integração, de modo a evitar bugs e facilitar a resolução dos mesmos. Nesse sentido, esse trabalho propõe uma análise de substituição de atribuição (Override an Assignment (OA)), que visa detectar interferências entre as alterações introduzidas por dois desenvolvedores diferentes, onde caminhos de gravação, sem atribuições intermediárias, para um alvo comum indicam interferência. Também foi realizada a implementação e avaliação de duas abordagens (interprocedural e intraprocedural) para a análise proposta. Para avaliar as implementações da análise proposta foi usado um conjunto de 72 cenários de integração de código, em que ambas versões integradas modificaram o mesmo método. Esses cenários foram extraídos de projetos open-source Java, minerados por uma ferramenta de mineração de cenários de integração do Github.
|
|
9
|
-
HÉLDER PAIXÃO FELIX FILHO
-
Análise didaticamente estruturada das correspondências entre Lógicas de Descrições e Lógicas Modais.
-
Leader : FREDERICO LUIZ GONCALVES DE FREITAS
-
MEMBRES DE LA BANQUE :
-
ANJOLINA GRISI DE OLIVEIRA
-
CLEYTON MÁRIO DE OLIVEIRA RODRIGUES
-
RUAN VASCONCELOS BEZERRA CARVALHO
-
Data: 23 févr. 2022
-
-
Afficher le Résumé
-
Este trabalho se propõe a apresentar uma análise sobre a correspondência entre ramificações da Lógica Modal com ramificações da Lógica de Descrições. Além disso, este texto tem como principal proposta, pela falta de um material mais palatável, preencher esta lacuna e tornar mais acessível um assunto naturalmente denso lógica e matematicamente. A apresentação didática dos formalismos é feita nos capítulos iniciais; da Lógica de Descrições foi escolhida a linguagem ALC e da Lógica Modal, o sistema K. É demonstrado por que a correspondência não ocorre a princípio, por isso o sistema K é enriquecido para a versão multimodal K_m. Posteriormente é apresentada a Lógica Híbrida: ramificação modal que completa a correspondência com uma base de conhecimento de ALC. Por fim, são escolhidas ramificações que apresentam correspondência entre si: da Lógica de Descrições a linguagem ALC_reg e a Lógica Dinâmica Proposicional, que é ramificação da Lógica Modal.
|
|
10
|
-
MATEUS NUNES DE BARROS MAGALHÃES
-
Uma Avaliação da Redundância e do Particionamento de Dados Convencionais e Geoespaciais em Data Warehouses Orientados a Colunas
-
Leader : ROBSON DO NASCIMENTO FIDALGO
-
MEMBRES DE LA BANQUE :
-
ANDREZA LEITE DE ALENCAR
-
LUCIANO DE ANDRADE BARBOSA
-
ROBSON DO NASCIMENTO FIDALGO
-
Data: 24 févr. 2022
-
-
Afficher le Résumé
-
A crescente demanda por processamento analítico alinhada a expansão dos ambientes de Big Data colocou em xeque a capacidade do modelo relacional de atender tais aplicações, sem comprometer o desempenho das mesmas ou incorrer em custos exorbitantes. Os bancos de dados NoSQL foram escolhidos como uma alternativa viável para suprir tais necessidades. Eles relaxam os controles de consistência, integridade e transacionais característicos de bancos relacionais para oferecerem mais disponibilidade, poder de processamento paralelo e escalabilidade horizontal. Estudos mostraram que a classe de bancos de dados NoSQL orientados a colunas apresentam bons desempenhos para o uso com finalidades analíticas, pois, os dados de cada coluna são armazenados contiguamente e separados fisicamente das demais colunas. O planejamento de esquemas para os bancos de dados orientados a colunas foi objeto de diversas pesquisas, as quais, avaliaram abordagens normalizadas e desnormalizadas, bem como, as formas mais adequadas de se promover a separação física dos dados de cada coluna. No entanto, esses estudos não consideraram cenários que envolvam dados geoespaciais presentes na base e no escopo das consultas analíticas. Com o intuito de investigar as influências da redundância e do particionamento de dados convencionais e geoespaciais em GDWs orientados a colunas e utilizados com finalidades analíticas, propusemos 40 esquemas que adotam abordagens distintas para modelar os relacionamentos entre fatos e dimensões, entre dimensões convencionais e geoespaciais, e entre as próprias dimensões geoespaciais. Utilizamos o benchmark denominado Spadawan para gerar os dados em conformidade com os esquemas propostos, para os fatores de escala 1 e 10, e avaliar o volume de dados, tempo de ingestão e tempo para a execução de uma carga de consultas geoespaciais em um cluster computacional composto por 4 nós. Nossos resultados evidenciaram que a desnormalização das dimensões convencionais foi a abordagem que mais contribuiu positivamente para a redução dos tempos de execução, apesar de elevar o volume de armazenamento demandado. A normalização das dimensões geográficas de menor seletividade contribuiu com a redução dos tempos de execução, enquanto, a normalização ou desnormalização das mais seletivas não ocasionou impactos positivos ou negativos expressivamente.
|
|
11
|
-
CAIO AUGUSTO PEREIRA BURGARDT
-
Detecção de malware no macOS usando aprendizado supervisionado
-
Leader : DIVANILSON RODRIGO DE SOUSA CAMPELO
-
MEMBRES DE LA BANQUE :
-
DANIEL CARVALHO DA CUNHA
-
DIVANILSON RODRIGO DE SOUSA CAMPELO
-
RAFAEL TIMOTEO DE SOUSA JUNIOR
-
Data: 25 févr. 2022
-
-
Afficher le Résumé
-
O desenvolvimento de malware para macOS cresceu significativamente nos últimos anos. Os invasores se tornaram mais sofisticados e mais direcionados com o surgimento de novas famílias de malware perigosas para o macOS. No entanto, como o problema de detecção de malware é muito dependente da plataforma, as soluções propostas anteriormente para outros sistemas operacionais não podem ser usadas diretamente no macOS. A detecção de malware é um dos principais pilares da segurança de endpoints. Infelizmente, houve muito poucos trabalhos sobre a segurança de endpoint do macOS, fazendo dessa área território pouco investigado. Atualmente, o único mecanismo de detecção de malware no macOS é um sistema baseado em assinatura com menos de 200 regras em 2021. Trabalhos recentes que tentaram melhorar a detecção de malwares no macOS têm limitações de metodologia, como a falta de um grande conjunto de dados de malware do macOS e problemas que surgem com conjuntos de dados em classes desequilibradas. Nessa dissertação, trazemos o problema de detecção de malware para o sistema operacional macOS e avaliamos como algoritmos de aprendizado de máquina supervisionados podem ser usados para melhorar a segurança de endpoint do ecossistema macOS. Criamos um novo e maior conjunto de dados de 631 malwares e 10.141 softwares benignos usando fontes públicas e extraindo informações do formato Mach-O. Avaliamos o desempenho de sete algoritmos de aprendizado de máquina diferentes, duas estratégias de amostragem e quatro técnicas de redução de recursos na detecção de malwares no macOS. Como resultado, apresentamos modelos melhores que as proteções nativas do macOS, com taxas de detecção superiores a 90% e mantendo uma taxa de alarmes falsos inferior a 1%. Nossos modelos demonstram com sucesso que a segurança do macOS pode ser aprimorada usando características estáticas de executáveis nativos em combinação com algoritmos populares de aprendizagem de máquina.
|
|
12
|
-
DENINI GABRIEL SILVA
-
Usando Ruído para Detectar Testes Flakiness
-
Leader : MARCELO BEZERRA D AMORIM
-
MEMBRES DE LA BANQUE :
-
LEOPOLDO MOTTA TEIXEIRA
-
MARCELO BEZERRA D AMORIM
-
MARCIO DE MEDEIROS RIBEIRO
-
Data: 25 févr. 2022
-
-
Afficher le Résumé
-
Diz-se que um teste é flaky quando passa ou falha de forma não determinística em diferentes execuções na mesma configuração (por exemplo, código). O teste flaky afeta negativamente o teste de regressão, pois as observações de falha não são necessariamente uma indicação de bugs no programa. Técnicas estáticas e dinâmicas para detecção de testes flaky têm sido propostas na literatura, mas são limitadas. Estudos anteriores mostraram que a flakiness do teste é causada principalmente por comportamento concorrente. Com base nessa observação, levantamos a hipótese de que a adição de ruído no ambiente pode interferir na ordenação dos eventos do programa e, consequentemente, influenciar nas saídas dos testes. Propomos o Shaker, uma técnica prática para detectar testes flaky comparando as saídas de várias execuções de teste em ambientes ruidosos. Comparado com uma execução de teste regular, uma execução de teste com o Shaker é mais lenta à medida que o ambiente é carregado, ou seja, o processo de teste compete por recursos (por exemplo, memória ou cpu) com tarefas estressantes que o Shaker cria. No entanto, conjecturas que o Shaker compensa ao detectar falhas em menos execuções em comparação com a alternativa de executar o conjunto de testes várias vezes em um ambiente regular (sem ruído). . Por exemplo, descobrimos que (1) Shaker é 96% preciso; é quase tão preciso quanto o ReRun, que por definição não relata falsos positivos, que (2) o recall do Shaker é muito maior em comparação com o do ReRun (0,95 versus 0,65), e que (3) o Shaker detecta testes irregulares com muito mais eficiência do que ReRun, apesar da sobrecarga de execução imposta pela abordagem. Em resumo, os resultados indicam que o ruído é uma abordagem promissora para detectar descamação.
|
|
13
|
-
JOÃO ALEXANDRE DA SILVA NETO
-
DAOS: A drift adaptive system for offloading CEP in Edge Computing
-
Leader : KIEV SANTOS DA GAMA
-
MEMBRES DE LA BANQUE :
-
FERNANDO ANTONIO MOTA TRINTA
-
KIEV SANTOS DA GAMA
-
ROBERTO SOUTO MAIOR DE BARROS
-
Data: 25 févr. 2022
-
-
Afficher le Résumé
-
Complex Event Processing (CEP) é um paradigma utilizado para identificar padrões em um fluxo de eventos, viabilizando aplicações para detecção de fraudes financeiras ou anomalias em redes de computadores. Além disso, outro paradigma chamado Edge Computing é utilizado para estender o CEP e possibilitar que o mesmo seja implantado em dispositivos que ficam mais próximos da origem dos eventos. Consequentemente, isso viabiliza aplicações críticas, onde o tempo de resposta é um fator importante. Um dos desafios nesse cenário é manter essas aplicações sendo executadas na borda com um uso otimizado de recursos e atendendo aos requisitos de tempo de resposta. Para resolver isso, soluções do estado-da-arte sugerem estratégias de offloading computacional para distribuir o processamento entre os dispositivos de borda e uma instância mais robusta na cloud. As técnicas tradicionais de offloading usam um mecanismo baseado em políticas, comparando o uso atual de recursos com limites manualmente especificados. No entanto, essas técnicas são pouco adaptáveis à mudanças ao longo do tempo, exigindo que as políticas sejam constantemente reconfiguradas por especialistas do domínio. Uma solução para isso é utilizar aprendizagem de máquina para aprender com os dados contextuais dos dispositivos e auxiliar o processo de decisão de maneira inteligente. Contudo, os dispositivos de borda possuem limitações de recursos quando comparado com a cloud, dificultando o uso de modelos tradicionais de aprendizagem. Por essa razão, são escolhidos modelos que aprendem de maneira incremental, não dependem de histórico de dados e se adaptam à ocorrência de concept drifts. Portanto, este trabalho propõe a solução DAOS (Drift Adaptive Offloading System), que tem como objetivo utilizar aprendizagem online e detecção de concept drifts no processo de tomada de decisão de offloading, visando otimizar a execução de aplicações CEP na borda. Além disso, ele adota um mecanismo de fallback para utilizar políticas estáticas enquanto os modelos de inteligência não forem confiáveis. Essa proposta é analisada através de uma avaliação de performance que compara o DAOS com a abordagem puramente baseada em políticas, variando a complexidade da aplicação e a taxa de transferência dos dados. A avaliação mostrou que existe uma diferença estatisticamente significativa entre as duas abordagens, evidenciando que as técnicas adotadas pelo DAOS melhoram as decisões de offloading de aplicações CEP na borda.
|
|
14
|
-
LARISSA RODRIGUES DA COSTA
-
NFR4TRUST: CATÁLOGO DE REQUISITOS NÃO-FUNCIONAIS DE CONFIANÇA PARA ROBÔS SOCIALMENTE ASSISTIVOS
-
Leader : JAELSON FREIRE BRELAZ DE CASTRO
-
MEMBRES DE LA BANQUE :
-
JULIO CESAR SAMPAIO DO PRADO LEITE
-
JAELSON FREIRE BRELAZ DE CASTRO
-
JUDITH KELNER
-
Data: 3 mars 2022
-
-
Afficher le Résumé
-
Contexto: No campo de pesquisa da Robótica Socialmente Assistiva (Socially As-sistive Robotics - SAR) o estudo da Interação Humano-Robô (Human Robot-Interaction- HRI) tem o importante papel de indagar a forma como o aspecto humano e robótico colaboram entre si e qual o espaço do robô na vida humana. Alguns aspectos vêm sendo bastante estudados na literatura, dentre eles a confiança, que é considerada crucial para uma interação bem sucedida entre Homem-Robô. A Engenharia de Requisitos pode contribuir para compreender, modelar e analisar quais requisitos são fundamentais, melhorando assim a aceitação da utilização desses robôs. Objetivo: Essa pesquisa propôs a construção de um catálogo de Requisitos Não-Funcionais de confiança para Robôs Socialmente Assistivos (Socially Assistive Robots - SARs) chamado NFR4TRUST, que pode ajudara elicitar e especificar requisitos não-funcionais que melhoram a confiança humana na utilização de robôs neste domínio. Método: Foi realizado um levantamento bibliográfico visando verificar o estado da arte em HRI no contexto de confiança e a partir deste estudo, foi construída uma proposta de taxonomia de confiança para SARs que auxilia na descoberta de requisitos. A validação do catálogo proposto foi realizada através de uma Prova de Conceito (PoC), entrevista com especialistas das áreas relacionadas e um questionário para obter a opinião de engenheiros de requisitos. O uso do catálogo NFR4TRUST foi ilustrado através de sua aplicação na definição de requisitos de confiança de um robô socialmente assistivo que auxilia na reabilitação de membros superiores. Resultados: Com este trabalho criamos o Catálogo NFR4TRUST que apresenta um conjunto de Requisitos Não-Funcionais relacionados a confiança que podem ser levados em consideração em desenvolvimento de projetos com Robôs Socialmente Assistivos e sua utilização pode melhorar a confiança no robô. Conclusão: Os resultados deste trabalho apontaram que com a utilização do catálogo NFR4TRUST é possível apoiar as etapas de elicitação e especificação em projetos de SARs permitindo identificar preocupações iniciais sobre a perspectiva de confiança do usuário e projetar formas de mitigá-las.
|
|
15
|
-
RENATO ATOUGUIA LEITE
-
SAAS PROCESS - Um Processo de Desenvolvimento para Software Como Serviço
-
Leader : ALEXANDRE MARCOS LINS DE VASCONCELOS
-
MEMBRES DE LA BANQUE :
-
ALEXANDRE MARCOS LINS DE VASCONCELOS
-
RAFAEL PRIKLADNICKI
-
VINICIUS CARDOSO GARCIA
-
Data: 3 mars 2022
-
-
Afficher le Résumé
-
Estima-se que mais de 50% do custo em torno de um software ocorra na fase de evolução, podendo chegar a 90% em alguns casos. Considerando modelos de desenvolvimento, surgiram modelos de negócio sustentados na evolução de plataformas, como o Software as a Service – SaaS. Nesse modelo de entrega, métodos ágeis têm tido um papel importante, entregando software com time-to-market adequado, mas com desafios relacionados às mudanças constantes de backlogs. Isso porque novas features precisam de entregas contínuas e imediatas que o modelo de serviço naturalmente carrega consigo. Desta forma, analisar o impacto do modelo de entrega de software como serviço sobre as metodologias ágeis e propor um novo processo de desenvolvimento de software, considerando aspectos de documentação, qualidade de código, auto-gestão dos times e a instanciação de processos definidos nas metodologias comumente adotadas pela indústria, foi o objetivo desse trabalho. Para execução da pesquisa se fez uso de um mapeamento sistemático da literatura para evidenciar o uso de metodologias ágeis durante a atividade de evolução de software em processos de manutenção. Adicionalmente, foram aplicados questionários e entrevistas junto a atores que possuam papéis de gerência de equipes e priorização de backlogs. Como última etapa e a fim de confrontar os dados, foi analisado os resultados de uma pesquisa-ação executada durante toda extensão do trabalho em uma empresa de software paraibana. O resultado consistiu em uma generalização interpretativa com ênfase qualitativa do case observado e das evidências coletadas através demais métodos. Conforme o mapeamento sistemático da literatura, evidenciou-se que os processos de desenvolvimento de software que fazem uso de metodologias ágeis tradicionais, como Scrum, geram tensões nos times que executam manutenção de software, por não permitirem mudanças nas janelas de entregas e escopos, características essas encontradas em ambientes no modelo SaaS, onde as atividades de manutenção precisam ser resolvidas com rapidez. Neste contexto, o uso das técnicas e ferramentas, como metodologia se apresentam em maior consonância aos métodos tradicionais isolados, uma vez que trabalham com o conceito de entrega contínua, DevOps e times autogerenciados.
|
|
16
|
-
DENISSON AUGUSTO BASTOS LEAL
-
Ensembles Dinâmicos para Detecção de Concept Drift em Séries Temporais
-
Leader : ADRIANO LORENA INACIO DE OLIVEIRA
-
MEMBRES DE LA BANQUE :
-
ADRIANO LORENA INACIO DE OLIVEIRA
-
JARLEY PALMEIRA NOBREGA
-
PAULO SALGADO GOMES DE MATTOS NETO
-
Data: 3 mars 2022
-
-
Afficher le Résumé
-
Séries temporais são medições realizadas em um intervalo fixo de tempo, que podem ser usadas em diversos tipos de problemas. Elas são estudadas por diversas áreas a fim de compreender as características de sua geração. Existe uma área mais específica de previsão de séries temporais que busca capturar a tendência e encontrar um padrão dos movimentos em situações que já ocorreram para prever a próxima observação da série. Porém, ao longo do tempo podem acontecer alguns eventos que mudam todo o contexto da série, o concept drift, e o conhecimento armazenado da série pode não refletir mais a realidade da série após esse evento. Então, quando um modelo de aprendizado de máquina é treinado para realizar previsões e um concept drift acontece, esse modelo passa a ficar defasado e para a atualização do modelo, alguns pontos do novo conceito precisam ser capturados e armazenados, até serem suficientes para um novo treinamento. Durante esse período de coleta de dados os modelos aumentam exponencialmente seu erro, afetando o desempenho geral do sistema de previsão e dependendo da frequência em que o concept drift aconteça, pode inviabilizar o seu uso. O objetivo deste trabalho é propor um método para previsão de séries temporais na presença de concept drift, minimizando o impacto da redução do desempenho preditivo durante o processo de adaptação ao novo conceito. Para isso foram propostos três métodos que usam o conceito antigo para melhorar o desempenho nessa fase de adaptação. Os métodos usam PSO para otimização do treinamento de partículas ELM, que são usadas na previsão e como sensores para detecção concept drift. O primeiro método usa um ensemble com todas as partículas treinadas. O segundo usa uma combinação, usando o algoritmo guloso, das melhores partículas quando o concept drift é detectado até a sua adaptação. E o terceiro usa a melhor combinação das partículas desde o início e atualiza a combinação depois da detecção de um concept drift. Todos os métodos propostos fazem adaptação para o novo conceito depois de ter dados suficientes para o treinamento. Nos experimentos foram usadas sete séries, sendo elas quatro geradas sinteticamente com concept drift conhecidos e três séries reais de índices do mercado financeiro com concept drift desconhecidos. Os resultados do experimento foram comparados com métodos disponíveis na literatura e os métodos propostos que se adaptam usando uma combinação das melhores partículas conseguiram resultados melhores com significância estatística. Mostrando que, o período de adaptação do método ao novo conceito é relevante no erro geral da previsão e que o treinamento anterior pode ajudar a reduzir esse erro.
|
|
17
|
-
MARIA CECILIA CAVALCANTI JUCÁ
-
Como startups e corporações se envolvem em iniciativas de inovação aberta? Um estudo exploratório
-
Leader : CARINA FROTA ALVES
-
MEMBRES DE LA BANQUE :
-
CARINA FROTA ALVES
-
GIORDANO RIBEIRO EULALIO CABRAL
-
IVAN DO CARMO MACHADO
-
Data: 3 mars 2022
-
-
Afficher le Résumé
-
Nos últimos anos, a crescente pressão do mercado e o constante surgimento de novas tecnologias levaram as empresas a realizar transformações digitais para criar valor e entregar melhores produtos ou serviços para os clientes. As corporações enfrentam vários desafios quando se trata de incorporar novas tecnologias ou acelerar e digitalizar seus processos bem estabelecidos. Por outro lado, as startups são reconhecidas por sua capacidade de inovação, disposição para assumir riscos, soluções escaláveis e processos ágeis. Na busca por velocidade e inovação, as corporações estão se engajando com startups para atingir objetivos complementares. As corporações desejam o potencial criativo das startups, enquanto as startups precisam de recursos abundantes nas corporações. Portanto, identificamos o crescente interesse de corporações e startups em se envolverem por meio de iniciativas de inovação aberta. Esta pesquisa explora como a inovação aberta é realizada na perspectiva de startups e corporações. Identificamos uma oportunidade de explorar as relações startup-corporação no Porto Digital, um dos ecossistemas de inovação mais relevantes do Brasil. Em um estudo exploratório, realizamos entrevistas semiestruturadas em oito startups e cinco corporações para entender a dinâmica de seus relacionamentos durante iniciativas de inovação aberta. Todas as oito startups fazem parte do Porto Digital, e as corporações foram selecionadas devido ao relacionamento com as startups estudadas. Nossos resultados revelam os principais direcionadores, benefícios e desafios envolvidos no engajamento entre startups e corporações. Por fim, apresentamos um conjunto de recomendações para estabelecer e fomentar as relações startup-corporação.
|
|
18
|
-
RAPHAEL CRESPO PEREIRA
-
Otimização de Combinação de Modelos para Previsão de Consumo de Energia
-
Leader : PAULO SALGADO GOMES DE MATTOS NETO
-
MEMBRES DE LA BANQUE :
-
LUCIANO DE ANDRADE BARBOSA
-
MANOEL HENRIQUE DA NÓBREGA MARINHO
-
PAULO SALGADO GOMES DE MATTOS NETO
-
Data: 7 mars 2022
-
-
Afficher le Résumé
-
A previsão do consumo de energia elétrica é um processo que permite a melhoria de tomada de decisões auxiliando na gestão e gerenciamento de consumo em edifícios de pequeno porte, graças aos avanços dos medidores inteligentes. Na literatura pode-se observar que a previsão de consumo de energia é um problema desafiador por ser um tipo de série temporal composta de correlações lineares e não-lineares. Por este motivo, os modelos estatísticos clássicos que são amplamente utilizados na literatura, possuem uma capacidade limitada de identificar todos os padrões da série, já que tais modelos são construídos considerando uma correlação linear dos dados. Assim, a utilização de modelos não-lineares baseados em Aprendizagem de Máquina (AM), se mostram bons candidatos por serem capazes de identificar os padrões não- lineares. Além da utilização destes modelos, existem trabalhos que mostram um ganho de desempenho com a utilização de Sistemas Híbridos, na qual realizam a combinação dos modelos lineares estatísticos com modelos não-lineares de AM. Tal combinação considera que o resíduo dos modelos lineares, ou seja, a série composta pela diferença entre o real e o previsto, possui padrões não-lineares que não foram captados. Este trabalho propõe uma nova abordagem baseada na utilização de Sistemas Híbridos Inteligentes composta por três modelos, sendo eles: modelo linear para realizar a extração dos padrões lineares da série temporal, modelo não-linear para realizar a extração dos padrões não-lineares presentes na série de resíduos e um modelo de combinação que considera que existe uma relação não linear entre a série temporal, a série de resíduos, a previsão da série temporal e a previsão da série de resíduos. Para contornar os problemas de seleção dos dados que serão utilizados como entrada (lags) e a escolha subótima dos hiperparâmetros dos modelos de AM, a metodologia proposta possui 2 etapas de otimização, sendo uma delas na seleção da quantidade de lags e dos hiperparâmetros do modelo de resíduos; e a outra no modelo de combinação, realizando a seleção dos hiperparâmetros e da quantidade de lags de cada uma das quatro séries utilizadas como dados de entrada (Real, Resíduos, Previsão da Real e Previsão dos Resíduos). Desta forma o sistema se mostra flexível por permitir explorar diferentes combinações das séries e assim avaliar unificadamente diferentes propostas de combinações que são encontradas na literatura. Nos experimentos realizados foram utilizados o ARIMA como modelo linear e LSTM como modelo não-linear. Para o modelo de combinação foram testados o XGBoost e SVR e o Tree Parzen Estimator como algoritmo de otimização. Os resultados encontrados apresentaram um desempenho superior ao estado da arte para previsão do consumo de energia, a partir de dados de medidores inteligentes utilizando as métricas clássicas de avaliação de modelos de previsão de série temporal.
|
|
19
|
-
ARTHUR DO REGO BARROS MENDONÇA
-
Avaliação Experimental de uma Arquitetura de Microsserviços para o Gerenciamento de Notas Fiscais Eletrônicas
-
Leader : VALERIA CESARIO TIMES ALVES
-
MEMBRES DE LA BANQUE :
-
RICARDO RODRIGUES CIFERRI
-
ANA CAROLINA BRANDAO SALGADO
-
VALERIA CESARIO TIMES ALVES
-
Data: 8 mars 2022
-
-
Afficher le Résumé
-
Notas fiscais eletrônicas são documentos digitais no formato XML que registram operações de circulação de mercadorias ou prestação de serviços. Por meio de convênios de cooperação, os órgãos de arrecadação e controle fiscal têm intensificado o compartilhamento das notas fiscais que envolvem compras governamentais com os órgãos de controle da Administração Pública, como tribunais de contas e o Ministério Público. No entanto, o gerenciamento desses dados em SGBDs relacionais se mostra desafiador, principalmente pelo volume de dados gerado e pela variedade de formatos da NF-e, em cujo leiaute estão previstos campos multivalorados e opcionais. O leiaute é frequentemente modificado, o que leva à necessidade de retrabalho na modelagem dos dados. Neste trabalho, se descreve a arquitetura ControleNF, uma arquitetura que utiliza microsserviços, uma REST API e SGBD NoSQL para o gerenciamento das notas fiscais por órgãos de controle. A arquitetura é avaliada do ponto de vista qualitativo, através dos critérios de manutenibilidade e portabilidade, previstos no ISO/IEC 25010, e quantitativo, em que os aspectos de desempenho e escalabilidade são mensurados através de uma avaliação experimental. Embora a avaliação qualitativa aponte possíveis ganhos relativos à facilidade de manutenção e à portabilidade da arquitetura, o desempenho mensurado no experimento foi consideravelmente inferior àquele observado na arquitetura tradicional que utiliza SGBDs relacionais. Uma investigação detalhada é realizada e possíveis causas da perda de desempenho são relatadas.
|
|
20
|
-
MILTON VASCONCELOS DA GAMA NETO
-
Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais
-
Leader : GERMANO CRISPIM VASCONCELOS
-
MEMBRES DE LA BANQUE :
-
PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
-
GERMANO CRISPIM VASCONCELOS
-
JAIRSON BARBOSA RODRIGUES
-
Data: 10 mars 2022
-
-
Afficher le Résumé
-
As soluções de Inteligência Artificial (IA), mais especificamente de Aprendizagem de Máquina (AM), têm alcançado crescentes níveis de desempenho devido à capacidade computacional, disponibilidade de dados e aparecimento de novos métodos. Ao mesmo tempo, os desafios são cada vez mais complexos. Essa complexidade tem aumentado a dificuldade de interpretar o funcionamento interno que conduz os modelos de AM na recomendação das decisões. Com objetivo de aumentar a interpretabilidade e manter a acurácia desses modelos complexos, surgiu a área de Explainable AI (XAI), com papel importante para impulsionar a ética, responsabilidade e performance nas soluções de IA. Este trabalho apresenta uma análise do estado da arte da área, e realiza uma comparação entre as principais técnicas da literatura através de experimentos em uma base de dados reais para interpretar um modelo treinado para classificar o desempenho escolar, domínio que a interpretação dos resultados dos modelos é fundamental. Os resultados apontam as vantagens e desvantagens das abordagens, discussões sobre as saídas fornecidas, bem como uma forma de combinar algumas estratégias. Diferente de alguns trabalhos comparativos, a análise em uma mesma base de dados fornece uma visão mais justa das explicações geradas. Em decorrência das limitações encontradas nas abordagens investigadas, é proposto um novo método, o Textual SHAP. O método busca endereçar necessidades da área, como por exemplo, considerar a perspectiva do usuário leigo como foco da explicabilidade. O método extrai as principais informações do gráfico da interpretação global do SHAP, técnica do estado da arte de XAI, e converte para um formato mais simples por meio de textos. Foi realizada uma avaliação com pessoas com conhecimento no domínio da educação e sem familiaridade com IA. Os resultados demonstraram que a abordagem proposta é menos complexa de interpretar e fornece maior nível de compreensão do que é exposto para os usuários. Com a abordagem de explicação textual, o método proposto apresenta potencial para alcançar explicações compreensivas e eficazes, contribuindo para os avanços das abordagens centradas nos humanos.
|
|
21
|
-
PEDRO VINICIUS BATISTA CLERICUZI
-
Desenvolvimento de um Sistema de Gerenciamento de Uso de Equipamentos em um Laboratório baseado em RFID
-
Leader : EDNA NATIVIDADE DA SILVA BARROS
-
MEMBRES DE LA BANQUE :
-
ADRIANO AUGUSTO DE MORAES SARMENTO
-
EDNA NATIVIDADE DA SILVA BARROS
-
VICTOR WANDERLEY COSTA DE MEDEIROS
-
Data: 10 mars 2022
-
-
Afficher le Résumé
-
Novas tecnologias voltadas para o controle no uso de bens têm surgido ano após ano para tornar o controle patrimonial cada vez mais ágil e confiável. Este trabalho teve como objetivo o desenvolvimento de um sistema de monitoramento de uso dos equipamentos de um laboratório usando a tecnologia RFID. O sistema foi desenvolvido a fim de possibilitar que os alunos do Centro de Informática (CIn) da Universidade Federal de Pernambuco (UFPE) usem o laboratório de hardware a qualquer hora sem a supervisão de terceiros e os equipamentos contidos nele estejam sempre seguros e sob supervisão automatizada. No contexto atual isso não é possível, as baias são abertas apenas com chave e só quem tem acesso a elas são os monitores e funcionários. Isso é um problema porque o CIn funciona 24h todos os dias, sendo o laboratório de hardware um dos poucos que funcionam apenas em dias e horários específicos. A solução desenvolvida usa como meio de acesso às baias crachás com tags RFID, tecnologia essa que é amplamente utilizada no CIn. Para os equipamentos, também foram utilizados leitores RFID dentro das baias para garantir que os equipamentos estejam no local correto após seu uso. Todas as informações do monitoramento e log de uso ficam armazenadas em um sistema na nuvem, desenvolvido no contexto deste trabalho. O sistema em nuvem permite identificar os usuários dos equipamentos, enviar notificações de uso e efetuar reservas para uso do laboratório em horários não comerciais.
|
|
22
|
-
ASSIS TIAGO DE OLIVEIRA FILHO
-
UMA ANÁLISE EXPERIMENTAL DE DESEMPENHO DO PROTOCOLO QUIC
-
Leader : KELVIN LOPES DIAS
-
MEMBRES DE LA BANQUE :
-
DJAMEL FAWZI HADJ SADOK
-
GLAUCO ESTACIO GONÇALVES
-
NELSON SOUTO ROSA
-
Data: 10 mars 2022
-
-
Afficher le Résumé
-
O protocolo Quick UDP Internet Connection (QUIC) foi apresentado pelo Google inicialmente em 2012 como uma solução para alguns dos problemas estruturais da Internet evidenciados principalmente pelas limitações do protocolo Transmission Control Protocol (TCP) frente às novas necessidades das aplicações e serviços Web. Diante desse cenário, mesmo que esse protocolo venha sendo considerada progressivamente favorável, algumas questões ainda estão em aberto, como por exemplo à avaliação do seu efetivo ganho em relação ao modelo já estabelecido (TCP + HTTP/2) utilizado na atualidade para navegação Web. Sendo assim, este trabalho utilizou o método de pesquisa considerando o estudo de caso. Ficando ao fim deste evidenciado, através da análise dos resultados que o QUIC apresenta melhor desempenho em relação ao TCP apenas casos específicos, como por exemplo em redes com grande quantidade de atraso e perda de pacotes. Possibilitando, portanto, a visualização, de forma evidente, que a proposta do QUIC ainda não é suficientemente robusta e que necessita se desenvolver para ser efetivamente aplicada.
|
|
23
|
-
RODRIGO LUDERMIR DE OLIVEIRA
-
Detecção de Posicionamento em Tweets sobre Covid-19 no Brasil utilizando métodos de Aprendizagem de Máquina
-
Leader : CLEBER ZANCHETTIN
-
MEMBRES DE LA BANQUE :
-
ADRIANO LORENA INACIO DE OLIVEIRA
-
CLEBER ZANCHETTIN
-
RENATO VIMIEIRO
-
Data: 10 mars 2022
-
-
Afficher le Résumé
-
A onipresença da pandemia de Covid-19 durante os últimos dois anos acarretou na urgência de ações responsivas contra o avanço da contaminação do novo coronavírus e em estratégias de imunização da população, através de políticas de saúde pública e medidas sanitárias preventivas por parte das autoridades responsáveis e também da sociedade civil. No Brasil, de modo semelhante a outros países, esse processo foi profundamente politizado, suscitando discussões polarizadas que inundaram as redes sociais - ocupando agora, mais do que nunca, diante do isolamento social, o centro das discussões sociais e políticas - com opiniões e posicionamentos acerca das medidas adotadas contra a Covid-19 e suas repercussões. Enquanto um paradigma emergente no campo de mineração de opiniões nas redes sociais, sistemas de detecção de posicionamento têm produzido resultados frutíferos. Isso ocorre principalmente em aplicações que utilizam métodos de Processamento de Linguagem Natural e Análise de Redes, sobretudo quando são implementados para classificar o posicionamento de usuários e/ou textos implicados em temas sociais e políticos. A tarefa de detecção de posicionamentos, no entanto, alcança um maior desempenho quando os objetos de classificação, sejam usuários ou textos, estão segmentados por um tópico alvo sobre o qual os posicionamentos foram direcionados. Desse modo, esta dissertação investiga a utilização de métodos de aprendizagem de máquina no desenvolvimento de sistemas de detecção de posicionamento em Tweets - publicações na rede social Twitter - de usuários brasileiros comentando as medidas relacionadas ao Covid-19, exercidas por eles próprios e pelo governo brasileiro em seus diferentes órgãos e níveis de atuação. O trabalho envolve quatro partes principais: (1) Construção da base de dados, na qual houve o levantamento de aproximadamente 6 milhões de Tweets e Retweets em português que mencionam palavras relacionadas ao Covid-19 entre Janeiro de 2020 e Outubro de 2021, das quais cerca de 350 mil Tweets foram rotulados (pseudo-labels), através de métodos de anotação fraca (weak supervision), em 'favoráveis' ou 'contrários' às medidas do governo federal frente à pandemia. (2) Limpeza, análise exploratória e segmentação da base rotulada por tópicos mais relevantes e frequentes: Vacinação, Lockdown, Tratamento Precoce, Uso de Máscaras, CPI da Covid e atuação dos Governadores e Prefeitos. (3) Avaliação de modelos tradicionais de Aprendizagem de Máquina na detecção de posicionamentos. (4) Avaliação de modelos de aprendizagem profunda, sobretudo Transformers, na mesma tarefa. Uma arquitetura específica foi investigada em detalhes através de três abordagens de aprendizagem distintas, mas complementares. Utilizando o modelo de linguagem de domínio geral em português-brasileiro BERTimbau, que segue a arquitetura base do BERT, foram realizados experimentos com: (1) adaptação de domínio, usando os dados não rotulados; (2) uso de dados relacionais dos usuários (rede de interações - retweets, mentions e replies); (3) Aprendizado via Multi-tasking, realizando o ajuste-fino em todos os tópicos ao mesmo tempo. Os experimentos realizados demonstraram que os modelos inicializados usando BERTimbau e treinados combinando as três abordagens citadas acima se sobressaem sobre os demais em seu desempenho diante da variedade de tópicos relacionados ao Covid-19 no contexto brasileiro.
|
|
24
|
-
ELISA DE FÁTIMA ANDRADE SOARES
-
Um Mapeamento Sistemático de Problemas de Otimização no Compartilhamento de Caronas
-
Leader : VALERIA CESARIO TIMES ALVES
-
MEMBRES DE LA BANQUE :
-
FRANCISCO CHAGAS DE LIMA JÚNIOR
-
SERGIO CASTELO BRANCO SOARES
-
VALERIA CESARIO TIMES ALVES
-
Data: 10 mars 2022
-
-
Afficher le Résumé
-
O compartilhamento de caronas (CC) é um serviço de mobilidade compartilhada que traz diversos benefícios ambientais, econômicos e sociais. Sistemas de Compartilhamento de Caronas englobam diferentes problemas e, para solucioná-los técnicas de otimização são empregadas para realizar a intermediação entre motoristas e passageiros que tenham horários e itinerários semelhantes. Para efetivação das caronas é indispensável o uso de algoritmos para definição das rotas dos participantes. Além disso, para obter os melhores resultados desse tipo de serviço são considerados alguns desafios, como: maximizar o número de participantes, determinar as melhores rotas e minimizar os custos da viagem. Nesse contexto, o objetivo desta pesquisa é investigar os problemas de otimização existentes no compartilhamento de caronas e, também, identificar os métodos, as ferramentas, os algoritmos e as técnicas utilizados para solucionar tais problemas. Para esta pesquisa, um protocolo foi elaborado para a condução de um Mapeamento Sistemático da Literatura (MSL), método utilizado para identificar, classificar, analisar e sintetizar as evidências encontradas através dos estudos selecionados que abordam o compartilhamento de caronas. Nesse mapeamento sistemático, foram analisados 138 artigos publicados no período entre 2012 e 2020, e resultados dessa análise mostram os problemas e as soluções de otimização voltadas para o compartilhamento de carona. Diante das análises e dos resultados desta pesquisa, constata-se que há um interesse crescente de pesquisadores nos últimos anos por essa área. Conforme os estudos selecionados, conclui-se que 134 autores consideram o compartilhamento de caronas somo sendo do tipo dinâmico, assim como grande parte deles utilizam a abordagem exata e definem problemas de otimização multiobjetivo para serem solucionados. Por fim, foi identificado que quinze métodos e algoritmos diferentes foram empregados na resolução de problemas otimização para o compartilhamento de caronas.
|
|
25
|
-
VITÓRIA MARIA DA SILVA MACIEL
-
Um Modelo de Suporte para Conformidade de Data Lake com a LGPD
-
Leader : BERNADETTE FARIAS LOSCIO
-
MEMBRES DE LA BANQUE :
-
BERNADETTE FARIAS LOSCIO
-
JESSYKA FLAVYANNE FERREIRA VILELA
-
PRISCILLA KELLY MACHADO VIEIRA AZÊVEDO
-
Data: 10 mars 2022
-
-
Afficher le Résumé
-
Na era do Big Data, um grande volume de dados estruturados, semi-estruturados, e principalmente não estruturados é gerado muito mais rápido por tecnologias digitais e sistemas de informação. Neste contexto, Data Lakes surgiram como uma alternativa aos tradicionais Data Warehouses, tornando-se uma das soluções de Big Data mais utilizadas para análise e gerenciamento distribuído de grande volumes de dados. A ideia principal do Data Lake é ingerir dados brutos e processá-los durante seu uso, caracterizando a abordagem \textit{schema on-read}. Durante seu ciclo de vida em um Data Lake, um dado pode passar por inúmeras transformações, levando a questões de rastreabilidade. Com a LGPD em vigor, as organizações precisam ter ao seu dispor além das mudanças ocorridas, informações sobre quem modificou os dados, onde modificou e as dependências geradas. Visando atender esse problema, alguns modelos de metadados foram propostos na literatura. No entanto, nenhum deles foca em apresentar metadados que descrevam a linhagem dos dados. Sendo assim, essa dissertação propõe um Modelo de Suporte para Conformidade de Data Lake com a LGPD (Data Lake Compliance Model - DLCM), que tem como objetivo descrever os conjuntos de dados no Data Lake e os tratamentos aplicados sobre eles.
|
|
26
|
-
HÉLIO GONÇALVES DE SOUZA JÚNIOR
-
Comparação de métodos de inferência dos rejeitados em modelos de Credit Scoring
-
Leader : GERMANO CRISPIM VASCONCELOS
-
MEMBRES DE LA BANQUE :
-
GERMANO CRISPIM VASCONCELOS
-
RENATA MARIA CARDOSO RODRIGUES DE SOUZA
-
ROSALVO FERREIRA DE OLIVEIRA NETO
-
Data: 11 mars 2022
-
-
Afficher le Résumé
-
Os modelos de Credit Scoring oferecem benefícios para os credores e tomadores por muitos anos. No entanto, na prática, esses modelos são normalmente construídos em uma amostra da população de clientes aprovados e não consideram os que foram rejeitados. Isso tende a causar um viés amostral. Inferência dos rejeitados é um método para estimar como os requerentes rejeitados teriam se comportado se tivessem sido concedidos e incorporando essas informações na reconstrução do modelo de Credit Scoring. Nesta dissertação vão ser comparados 4 (cinco) métodos de inferência dos negados: Reclassificação, Augmentation, Cluster e Parcelamento. E também a inclusão de um algoritmo de deep learning, o Deep Embedded Clustering (DEC). Os métodos serão avaliados por diversas métricas de performance, tais como: AUC, KS, F1, acurácia, DTI, teste não paramétrico de Kruskal-Wallis e um teste post-hoc de Nemenyi. Os métodos são analisados em 3 (três) conjuntos de dados reais com diversos perfis de taxa de reprovação, para verificar se o efeito do comportamento da aprovação impacta na performance dos métodos. Os experimentos realizados evidenciaram que existe diferença significativa entre os métodos estudados e também que o método de DEC teve desempenho superior que os demais métodos para a maioria das métricas avaliadas.
|
|
27
|
-
VALDI FERREIRA DO NASCIMENTO JUNIOR
-
Mineração de dados de crowdsourcing para investigar o uso de energia em dispositivos Android
-
Leader : FERNANDO JOSE CASTOR DE LIMA FILHO
-
MEMBRES DE LA BANQUE :
-
FERNANDO JOSE CASTOR DE LIMA FILHO
-
IVAN DO CARMO MACHADO
-
VINICIUS CARDOSO GARCIA
-
Data: 11 mars 2022
-
-
Afficher le Résumé
-
Um dos fatores essenciais para o sucesso de uma aplicação ou modelo é o consumo de energia, que impacta diretamente na autonomia e na satisfação da usabilidade de dispositivos móveis e seus aplicativos. Em geral, os estudos relacionados à área são realizados em laboratório, por meio de simulações, com um número limitado de dispositivos e aplicações. Portanto, este estudo investiga o uso dados coletados através de crowndsourcing desses dispositivos para prever seu comportamento e entender os fatores que mais impactam o seu consumo de energia. Para isso foram desenvolvidos modelos de regressão utilizando dados de uso real de dispositivos móveis em larga escala, capazes de correlacionar diversos fatores como configurações, aplicações e processos do sistema do contexto móvel com o tempo de consumo de energia de 1% do nível da bateria usando. Foram estudados os 100 modelos mais populares e suas configurações, juntamente com os aplicativos e processos, presentes no banco de dados GreebHub, uma iniciativa colaborativa e voluntária para coletar dados para estudos de dispositivos móveis Android. No estudo foram utilizados algoritmos de regressão baseados em árvore (Decision Tree, Random Forest e XGboot), avaliados com auxilio das métricas de regressão do Scikit-Learn, e com a importância das features (feature importance) sendo medida utilizando a abordagem SHAP (SHapley Additive exPlanations). Os resultados indicam um grau de dificuldade elevado ao estudar as relações contidas nos dados, pois a precisão das predições varia bastante de acordo com o modelo de dispositivo a ser estudado, refletindo a heterogeneidade do contexto. Além disso, foi detectada uma variação muito grande no impacto dos aplicativos e processos de um modelo de dispositivo pra outro, e que as configurações foram consideradas mais relevantes que ambos no consumo de energia.
|
|
28
|
-
HORHANNA ALMEIDA DE OLIVEIRA
-
Um processo de concepção e prototipação rápida de visualizações animadas de música
-
Leader : GIORDANO RIBEIRO EULALIO CABRAL
-
MEMBRES DE LA BANQUE :
-
FILIPE CARLOS DE ALBUQUERQUE CALEGARIO
-
GIORDANO RIBEIRO EULALIO CABRAL
-
PEDRO MARTINS ALESSIO
-
Data: 11 mars 2022
-
-
Afficher le Résumé
-
A produção de animações para área de Visualização de Informação Musical, ainda é escassa e possui desafios pela necessidade de domínios de softwares de edição exigindo capacidades técnicas e conhecimentos específicos relacionados a cada área. Nesse trabalho, trazemos uma revisão sistemática da área da visualização, mais especificamente visualização da informação, visualização de música e Animação. Mapeando os processos de concepção de visualizações, elaboramos um modelo experimental para ideação, prototipação, construção e validação de animações de informações musicais, realizado com especialistas em música. E através de sessões desenvolvendo protótipos rápidos obtivemos resultados qualitativos com coleta de feedbacks de especialistas em música. Concluímos que é notável a importância da animação, como uma aliada nos processos de concepção e criação de uma visualização musical, pois facilita a representação e acompanhamento do tempo para comunicar elementos estruturais da música, todos eles dispostos dinamicamente em uma área gráfica.
|
|
29
|
-
HYGOR JARDIM DA SILVA
-
Plataforma Integrada 4G, IMS e 5G baseada em software e hardware abertos e de baixo custo
-
Leader : KELVIN LOPES DIAS
-
MEMBRES DE LA BANQUE :
-
TASSIO COSTA DE CARVALHO
-
KELVIN LOPES DIAS
-
RENATO MARIZ DE MORAES
-
Data: 11 mars 2022
-
-
Afficher le Résumé
-
A difusão dos paradigmas de softwarização e virtualização de redes, bem como de tecnologias de rádio definido por software (SDR – Software-Defined Radio), estão fomentando o desenvolvimento protótipos para sistemas móveis de quinta geração (5G), tanto pela academia quanto pela indústria. Este novo cenário influenciou a transição dos clássicos sistemas monolíticos baseado em hardware proprietário, das gerações anteriores (2G/3G/4G), para uma nova filosofia com inúmeros projetos de código aberto relacionados às redes de acesso por rádio (RAN) e de núcleo constituintes de sistemas 4G e 5G. Entretanto, a interoperabilidade entre soluções RAN e de núcleo distintas, e avaliações de desempenho fim-a-fim, bem como o suporte a sistemas tradicionais, como o amplamente difundido IMS (IP Multimedia Subsystem) para chamadas VoLTE (Voice over LTE) 4G, são aspectos pouco entendidos, implementados parcialmente, ou mesmo ainda não avaliados. Esta dissertação tem como objetivo analisar a compatibilidade das implementações de código aberto para sistemas celulares com os padrões preconizados pelo 3GPP (Third Generation Partnership Project); realizar a implementação de protótipos utilizando software e hardware abertos; conceber uma abordagem de virtualização e implantação utilizando contêineres para os serviços do núcleo da rede, da RAN e integração com sistema IMS. O estudo considerou plataformas de computação de propósito geral, juntamente com placas SDR para implantar a rede. Smartphones e cartões SIM com suporte 4G, VoLTE e 5G foram utilizados para realizar os experimentos e a coleta dos resultados. Como parte dos resultados da avaliação, a infraestrutura composta pelo núcleo Open5Gs, RAN srsLTE e IMS OpenIMSCore em conjunto com Kamailio (P-CSCF, I-CSCF, S-CSCF) se mostrou capaz de estabelecer chamadas VoLTE com duração até 1h. Os resultados do estudo também mostraram que a plataforma OAI (OpenAirInterface) alcançou um desempenho 15% superior ao da plataforma srsRAN. Com isto, este trabalho concebeu e descreveu uma infraestrutura de baixo custo capaz de executar todo um ambiente de redes móveis 4G/5G e prover funcionalidades do sistema IMS, como ligações VoLTE.
|
|
30
|
-
IVONILDO PEREIRA GOMES NETO
-
Um Instrumento de Inspeção da Aderência de Soluções Iot à LGPD
-
Leader : SERGIO CASTELO BRANCO SOARES
-
MEMBRES DE LA BANQUE :
-
LUIS JORGE ENRIQUE RIVERO CABREJOS
-
KIEV SANTOS DA GAMA
-
SERGIO CASTELO BRANCO SOARES
-
Data: 15 mars 2022
-
-
Afficher le Résumé
-
Introdução: Com os atuais avanços digitais, a sociedade torna-se mais dependente da tecnologia. Para acompanhar estes avanços, o investimento na segurança das informações passa a ser cada vez mais necessário. Isto não é diferente para no contexto da IoT (do inglês, Internet of things), pois ela traz diversos benefícios para o cotidiano tanto de pessoas como empresas, pois diversos projetos na IoT tratam diversos dados pessoais. Diante disso, se faz necessária certa proteção de informações relacionadas. Atualmente no Brasil, a gestão de segurança de informação é regida pela LGPD (Lei Geral de Proteção dos Dados). Objetivo: Visando verificar a adequação de projetos com a LGPD, pesquisadores da UFMA propuseram um mecanismo de auxílio à averiguação de adequação à LGPD. Desta forma, este trabalho visa propor uma extensão a esse mecanismo para auxiliar à averiguação de adequação à LGPD considerando as características específicas de IoT. Metodologia: O mecanismo foi avaliado em uma instituição privada ligada à inovação industrial. Consideramos que esse é o perfil do público-alvo do mecanismo proposto. A avaliação foi conduzida como um estudo de caso onde, após inspeção de possíveis falhas de segurança no sistema da empresa, foi aplicado um questionário de pós-inspeção com o mecanismo proposto. Este questionário avaliou a facilidade em usá-lo e a intenção dos participantes em utilizá-lo em outros sistemas. Por fim, ocorreu um focus group, onde foram discutidos benefícios, pontos críticos e melhorias aplicáveis ao checklist. Resultados: Foram apresentadas opiniões positivas sobre o uso do mecanismo proposto, os participantes conseguiram utilizá-lo sem grandes problemas. Além disso, foi possível encontrar defeitos de segurança nos sistemas. Os participantes consideraram o mecanismo como de grande utilidade para guiar os profissionais nas soluções dos defeitos encontrados. Conclusões: Conclui-se que o mecanismo proposto é capaz de auxiliar profissionais na averiguação de adequação à LGPD em projetos que envolvem IoT à LGPD. O estudo foi realizado em uma instituição específica, identificando defeitos reais de uma empresa, porém, os resultados não podem ser generalizados. É necessário replicações do estudo para identificar se esses resultados se aplicam a outras empresas.
|
|
31
|
-
JUSCELINO SEBASTIAO AVELINO JUNIOR
-
Uma abordagem de seleção dinâmica de classificadores para predição de defeitos de software
-
Leader : GEORGE DARMITON DA CUNHA CAVALCANTI
-
MEMBRES DE LA BANQUE :
-
ARAKEN DE MEDEIROS SANTOS
-
GEORGE DARMITON DA CUNHA CAVALCANTI
-
RAFAEL MENELAU OLIVEIRA E CRUZ
-
Data: 16 mars 2022
-
-
Afficher le Résumé
-
A predição de defeitos é uma tarefa que visa alocar recursos e informações para predizer módulos de software propensos a defeitos. Contudo, devido a necessidade de quantidades suficientemente grandes de dados requeridas pelos modelos, pesquisadores tem se concentrado em pesquisas sobre Cross-Project Defect Prediction (CPDP). Essa abordagem envolve construir modelos usando um conjunto de treinamento composto por informações de diversos projetos externos. Diversas abordagens CPDP propostas na literatura utilizam abordagens tradicionais como, por exemplo, normalização/transformação dos dados através do logaritmo ou uso de algoritmos de aprendizagem de máquina, entretanto, essas abordagens não possuem nenhum mecanismo capaz de selecionar um classificador ou um conjunto de classificadores mais apto em predizer uma determinada amostra de teste. Logo, a seleção dinâmica de classificadores é uma abordagem ao qual seleciona classificadores básicos em tempo real de acordo com cada amostra de teste a ser classificada. Neste contexto e considerando as limitações das abordagens CPDP tradicionais, propomos uma abordagem CPDP que, com base nos dados de treinamento, seleciona a melhor configuração de parâmetros (técnica de seleção dinâmica de classificadores, classificador básico e tamanho do pool de classificadores) para classificaras novas amostras de entrada (dados de teste). A abordagem proposta é composta por três etapas: Definição do Alvo, Superprodução e Avaliação do Modelo. Portanto, nessa dissertação são almejados quatro principais pontos. Primeiro, é conduzida uma análise experimental para investigar o comportamento da abordagem proposta na predição de defeitos de software. Segundo, são realizadas comparações entre a abordagem proposta versus abordagens CPDP da literatura. Neste contexto, foram investigados quais métodos apresentam melhor desempenho para os mesmos conjuntos de dados ou projetos de software. Terceiro, para verificar a precisão de classificação dos métodos CPDP, foi analisada a qualidade da performance dos método sem relação à algumas escalas da área sob a curva ROC (ROC-AUC). Quarto, foi realizada uma análise experimental para verificar quando utilizar a abordagem proposta. Neste ponto, utilizamos um meta-classificador (árvore de decisão) que, através de regras de decisão, define quais características dos dados a abordagem proposta deve ser aplicada e, consequentemente, apresentar maior desempenho.
|
|
32
|
-
GEORGE DE VASCONCELOS CARVALHO NETO
-
Mineração de subgrupos aplicada a dados de metilação de pacientes com câncer de mama
-
Leader : RICARDO BASTOS CAVALCANTE PRUDENCIO
-
MEMBRES DE LA BANQUE :
-
DANYELLY BRUNESKA GONDIM MARTINS
-
MARCELO RODRIGO PORTELA FERREIRA
-
RICARDO BASTOS CAVALCANTE PRUDENCIO
-
Data: 25 mars 2022
-
-
Afficher le Résumé
-
O câncer de mama é um dos tipos de câncer mais prevalentes em mulheres, com uma ênfase crescente na pesquisa relacionada ao câncer, muitos trabalhos foram realizados para classificar o diagnóstico, a sobrevivência ou a recorrência desse tipo de câncer. Como um dos biomarcadores epigenéticos mais descritos em cânceres humanos, a metilação do DNA desempenha um papel essencial na regulação da expressão gênica e tem sido implicada no prognóstico e na terapêutica de muitos cânceres. Nesse estudo exploramos os perfis de metilação de DNA capturando grupos heterogêneos de pacientes com câncer de mama para melhorar o prognóstico desses pacientes no nível epigenético. Perfis de metilação do DNA de um estudo caso-controle com 235 indivíduos com câncer de mama e 424 indivíduos normais saudáveis foram obtidos do banco de dados Gene Expression Omnibus (GEO). Os marcadores diferencialmente metilados foram identificados por teste T moderado. Novas características foram adicionadas aos dados usando ferramentas de predição de idade biológica, tipos celular e condição de fumante. Subgrupos de pacientes foram encontrados usando as ferramentas de mineração de subgrupos Beam search e SSDP+. Um total de 20 subgrupos foram selecionados, sendo 10 subgrupos encontrados pelo Beam search e 10 pelo SSDP+. Onde o algoritmo Beam search encontrou subgrupos com mais elementos e alto grau de redundância englobando diferentes genes relacionados previamente ao câncer de mama, enquanto o SSDP+ encontrou subgrupos com menos elementos e alto grau de diversidade, mas que por englobar menos regiões não tiveram genes previamente relacionados a câncer de mama. Nosso estudo identificou múltiplos painéis de metilação de DNA associados a grupos específicos de pacientes com câncer de mama que podem, se validados clinicamente, ser úteis para a previsão do risco de câncer de mama no futuro.
|
|
33
|
-
JESSICA TAIS DE SOUZA REINALDO
-
Using Item Response Theory to evaluate feature relevance in missing
-
Leader : RICARDO BASTOS CAVALCANTE PRUDENCIO
-
MEMBRES DE LA BANQUE :
-
RAFAEL GOMES MANTOVANI
-
GEORGE DARMITON DA CUNHA CAVALCANTI
-
RICARDO BASTOS CAVALCANTE PRUDENCIO
-
Data: 29 mars 2022
-
-
Afficher le Résumé
-
A Teoria de Resposta ao Item (em inglês, Item Response Theory - IRT) tem sido historicamente usada para avaliar as habilidades latentes de respondentes humanos a um conjunto de itens. Recentemente, esforços têm sido feitos para propor soluções que utilizem a TRI para resolver problemas de classificação, onde os respondentes são classificadores e os itens são as instâncias de um conjunto de dados. O β^3-IRT oferece uma ferramenta poderosa para analisar conjuntos de dados e classificadores, pois formula o problema de TRI com duas variáveis latentes (2-PL), onde as instâncias são descritas em termos de dificuldade e discriminação, e os classificadores têm um habilidade associada. A formulação do β^3-IRT permite utilizar a predição da probabilidade de cada classificador para cada instância, o que é uma abordagem muito mais rica em informação do que modelos anteriores que propunham utilizar simplesmente uma resposta dicotômica, isto é, apenas mapeando erros e acertos de cada classificador na predição de cada instância. Uma aplicação possível de TRI em problemas de classificação é utiliza-la para resolver problemas em que faltam dados no momento do teste. A falta de dados é um problema desafiador na classificação, principalmente quando ocorre no momento de teste, ou seja, quando um classificador que já foi treinado com os dados completos precisa ser usado para fornecer uma previsão para uma nova instância, para a qual está faltando o valor de alguma variável. Nesses casos, antes de aplicar o classificador, deve-se decidir se vale a pena adquirindo o valor real do recurso ou apenas imputando o valor ausente. A imputação pode ser uma alternativa melhor, por exemplo, se a coleta de recursos for muito cara e/ou não se espera que o recurso seja realmente relevante para melhorar a qualidade do classificador predição. Neste trabalho, propomos um workflow onde esses dados faltantes em tempo de teste são preenchidos com valores imputados com diferentes técnicas de imputação, baseado nos dados de treinamento disponíveis, a fim de avaliar o quanto esses dados faltantes podem afetar a habilidade dos classificadores e a dificuldade e discriminação das instâncias em um conjunto de dados. Essa abordagem representa uma alternativa às técnicas de seleção de atributos que é capaz de fornecer uma visão geral da relevância dos recursos tanto em nível global quanto individualmente para cada instância. A análise do desempenho de classificadores e como a falta de dados impacta os modelos e as instâncias do ponto de vista da TRI ainda não foi investigada na literatura.
|
|
34
|
-
HEITOR DE CASTRO FELIX
-
OGNet-AD: Um método para detecção de falhas em equipamentos através da detecção de anomalias em imagens com GAN baseado na OGNet
-
Leader : VERONICA TEICHRIEB
-
MEMBRES DE LA BANQUE :
-
CLEBER ZANCHETTIN
-
FRANCISCO PAULO MAGALHAES SIMOES
-
PERICLES BARBOSA CUNHA DE MIRANDA
-
Data: 13 avr. 2022
-
-
Afficher le Résumé
-
A aplicação de visão computacional com Deep Learning (DL) vem sendo utilizada para resolver problemas complexos. Um desses problemas é a inspeção automática de objetos industriais. A inspeção pode ocorrer em cenário controlado, como mostrado no dataset MVTec AD ou em um cenário não controlado, como ocorre em torres de linhas de transmissão de energia. Um dos maiores desafios na inspeção automática é a disponibilidade limitada de dados de falhas para o treinamento dos classificadores tradicionais baseados em DL. Pois, em aplicações de inspeção industrial, há poucos dados de falhas e baixa diversidade nos exemplos. Mesmo em linhas de transmissão de energia, que são essenciais para vida humana moderna, não existem datasets de inspeção para o treinamento supervisionado de classificadores. Portanto, abordagens de treinamento não supervisionado são usadas para contornar a escassez de dados, como detecção de anomalias e One-Class Classification (OCC). Nessas abordagens, os treinamentos dos modelos são realizados apenas com os dados dos equipamentos em seus estados normais, sem defeitos. Este trabalho investiga a detecção de anomalias com o uso da OGNet, uma técnica de estado da arte de OCC e busca adaptá-la para a detecção de anomalias, criando uma nova rede, a OGNet-AD. A nova rede e a OGNet foram avaliadas quantitativamente em um ambiente controlado com MVTec AD e em um ambiente não controlado com um dataset privado de inspeção de linhas de transmissão de energia, o DILTE. Como resultado da pesquisa, verificou-se que a OGNet pode ser utilizada para detecção de anomalias e compara-se com técnicas tradicionais desse contexto. A OGNet-AD conseguiu superar a OGNet tanto no cenário controlado do MVTec-AD quanto no cenário não controlado do DILTE, com média de AUC-ROC de 87,4 contra 84,7 da OGNet no MVTec-AD e 77 contra 72 no DILTE, comprovando os benefícios das modificações realizadas no modelo. Apesar da evolução da OGNet-AD, a técnica também foi comparada com técnicas elaboradas para detecção de anomalias, não superando ainda a técnica do estado da arte. Além dos testes quantitativos, uma técnica de Explainable Artificial Inteligente foi explorada para a validação qualitativa da OGNet-AD. A validação foi realizada utilizando a Grad-CAM para visualizar as regiões que influenciam nas decisões da rede. A validação qualitativa mostrou-se eficiente para analisar o uso da OGNet-AD, principalmente em cenários com poucos dados para realização da validação quantitativa tradicional.
|
|
35
|
-
STHEFANIE DAL MAGRO
-
ENGENHARIA DE REQUISITOS EM SISTEMAS CRÍTICOS DE SEGURANÇA: uma abordagem para auxiliar na descoberta de requisitos iniciais de segurança
-
Leader : JAELSON FREIRE BRELAZ DE CASTRO
-
MEMBRES DE LA BANQUE :
-
CARLA TACIANA LIMA LOURENCO SILVA SCHUENEMANN
-
JAELSON FREIRE BRELAZ DE CASTRO
-
JOHNNY CARDOSO MARQUES
-
Data: 28 avr. 2022
-
-
Afficher le Résumé
-
Sistemas Críticos de Segurança (SCSs) são considerados sistemas que caso falhem podem levar à perda de vida, perdas financeiras e danos ao meio ambiente. A Engenharia de Requisitos é essencial no desenvolvimento destes sistemas, tendo em vista que a utilização de requisitos inadequados ou incompreendidos são reconhecidos como a principal causa de acidentes e catástrofes relacionados com a segurança. Portanto, os requisitos iniciais de segurança dos SCSs devem ser cuidadosamente identificados e adequadamente modelados. No entanto, a literatura apresenta poucas técnicas de elicitação e modelagem. Ademais, de acordo com Vilela et al. (2020) é mais econômico corrigir problemas na fase da Engenharia de Requisitos do que na etapa de desenvolvimento do sistema em de requisitos voltadas para o domínio de SCSs. Esta pesquisa propõe o desenvolvimento de uma abordagem para auxiliar na descoberta de requisitos iniciais de segurança no contexto de sistemas críticos de segurança que posteriormente serão modelados através da notação iStar4Safety. Inicialmente, foi realizado um levantamento para aquisição de conhecimento acerca do tema, depois foram identificadas as técnicas de elicitação de requisitos para SCSs existentes na literatura. Em seguida, foi desenvolvida uma nova abordagem para elicitação de requisitos iniciais de segurança, uma ferramenta para dar apoio a abordagem e regras de mapeamento em iStar4Safety. Por último, foi realizada uma avaliação da proposta através de um quasi-experimento. Sendo assim, este trabalho propôs a abordagem Elicit4Safety que visa auxiliar na descoberta e modelagem dos perigos e requisitos iniciais de segurança no contexto dos SCSs, além do desenvolvimento de uma ferramenta que dá suporte a abordagem. De acordo com os resultados encontrados na análise de dados qualitativa e quantitativa, obtidos através aplicação de testes estatísticos e um questionário aplicado aos sujeitos experimentais, é possível observar que a abordagem Elicit4Safety é fácil de entender e de ser utilizada.
|
|
36
|
-
GERALDO PIRES CORDEIRO JUNIOR
-
Reconhecimento de espécies de mosquitos por meio de métodos computacionais inteligentes baseados em aprendizagem profunda
-
Leader : LEANDRO MACIEL ALMEIDA
-
MEMBRES DE LA BANQUE :
-
FERNANDO MACIANO DE PAULA NETO
-
LEANDRO MACIEL ALMEIDA
-
ROSÂNGELA MARIA RODRIGUES BARBOSA
-
Data: 18 mai 2022
-
-
Afficher le Résumé
-
As doenças transmitidas por mosquitos vetores expressam um grande perigo à sociedade. Arboviroses como Dengue, Zika, Febre Amarela, Chikungunya, causaram alto número de mortes nas últimas décadas, além de diminuírem a qualidade de vida das pessoas, causarem outras doenças, como é o caso de microcefalia em recém-nascidos por conta da Zika, e impactarem a economia. Ações que visem o controle dos vetores se mostraram eficazes no combate a essas doenças. Entretanto, em áreas em que essas doenças são endêmicas, os vetores coexistem com outros mosquitos que não transmitem doenças, sendo essencial a identificação desses mosquitos, para que se possa analisar a densidade e entender mais sobre a população deles. Todavia é necessário a atuação de um especialista, sendo muitas vezes um trabalho cansativo. Observando a importância da identificação desses vetores e os problemas das atuais técnicas de identificação, esse estudo propõe um modelo computacional inteligente para a classificação automática de mosquitos vetores, baseado em imagens. Para isso foi construída uma base com 5432 imagens de mosquitos de 3 espécies: Aedes aegypti, Aedes albopictus e Culex quinquefasciatus. Foram utilizadas três redes convolucionais: VGG16, ResNet50 e EfficientNetB0. O modelo de Deep Learning que obteve maior resultado foi a VGG16, com acurácia de 95%, mostrando-se eficiente na identificação das espécies estudadas.
|
|
37
|
-
JÉSSICA FELICIANO COUTINHO
-
Avaliação de técnicas de Combinação de Embeddings para a Análise de Sentimentos de Produtos escritos em Português-BR
-
Leader : LEANDRO MACIEL ALMEIDA
-
MEMBRES DE LA BANQUE :
-
JOÃO FAUSTO LORENZATO DE OLIVEIRA
-
LEANDRO MACIEL ALMEIDA
-
LUCIANO DE ANDRADE BARBOSA
-
Data: 26 mai 2022
-
-
Afficher le Résumé
-
A Análise de Sentimentos é uma área de pesquisa voltada para a determinação da polaridade do sentimento presente em um texto, buscando identificar se a informação é de caráter positivo, negativo ou neutro, dentre outras formas de classificação. Com o expressivo volume de informações textuais que circulam na web diariamente, o processo de análises automáticas dos sentimentos torna-se ainda mais necessário. Para conteúdos relacionados à avaliação de produtos e serviços, a detecção de sentimentos é de grande relevância, uma vez que entender a mensagem que um consumidor está querendo passar sobre um produto é essencial para as empresas por diversos fatores, dentre eles campanhas de marketing e melhoria no relacionamento com seus clientes. Nesse cenário, o estudo das formas de melhorar a representação das informações textuais, de modo que elas sejam processadas através de modelos de aprendizagem de máquina, é de extrema importância para contribuir com o aumento de performance na classificação dos sentimentos presentes nos textos. Diante disto, o presente trabalho realiza um estudo experimental do comportamento de diferentes técnicas de vetorização de textos, com foco nos embeddings: vetores representativos compostos por valores reais capazes de armazenar informações sintáticas e semânticas das palavras. Para isso, são avaliados diferentes tipos de vetores de embeddings e três formas de combinação desses vetores, que são utilizados no processo de classificação de cinco diferentes algoritmos de aprendizagem de máquina. Além disso, também é utilizado um algoritmo de aprendizagem profundo onde a etapa de embedding é realizada pela própria camada da rede neural. Com o intuito de contribuir com a Análise de Sentimentos de textos em Português-BR, foram estudadas quatro bases de dados neste idioma: Buscapé, B2W, Olist e UTL Movies. Essas bases são compostas por avaliações de usuários reais da web sobre produtos e serviços. Os resultados encontrados nessa pesquisa mostraram que nem todos os algoritmos de aprendizagem de máquina sofrem impacto diante da mudança na técnica de vetorização, porém quando pelo menos duas técnicas são combinadas a partir da concatenação entre seus vetores de pesos, é possível obter melhoria na performance de algoritmos comumente utilizados na área de aprendizagem de máquina, como a MLP e o XGBoost
|
|
38
|
-
KARL VANDESMAN DE MATOS SOUSA
-
Desenvolvimento de base de dados e algoritmo de classificação antecipada de exames RT-qPCR para COVID-19
-
Leader : ADENILTON JOSÉ DA SILVA
-
MEMBRES DE LA BANQUE :
-
ADENILTON JOSÉ DA SILVA
-
ANDRÉ CÂMARA ALVES DO NASCIMENTO
-
GEORGE GOMES CABRAL
-
Data: 2 juin 2022
-
-
Afficher le Résumé
-
A doença denominada COVID-19, causada pelo vírus SARS-CoV-2, foi a responsável por gerar uma pandemia, preocupando diversos órgãos e instituições ao redor do mundo de forma a combatê-la e reduzir o seu impacto. Um dos fatores importantes para esse combate, é o diagnóstico da doença, que deve considerar a assertividade e o tempo levado para sua conclu- são. Este trabalho atuou nos dados quantitativos gerados pelo exame RT-qPCR, obtidos pela disponibilização feita pelo Núcleo de Pesquisa em Inovação Terapêutica (NUPIT) da Universidade Federal de Pernambuco. Os arquivos de saída do exame foram filtrados e ajustados de forma a se ter uma base de dados disponível para treinamento de algoritmos de aprendizagem supervisionada, totalizando 75.716 linhas com 45 características temporais (ciclos de máquina) e um alvo a ser classificado como positivo ou negativo. Esses dados formam uma série temporal, sendo cada característica um valor de fluorescência do processo da reação química do RT-qPCR, de forma a detectar genes do SARS-CoV-2. Foram elencados diferentes algoritmos da literatura, desde mais genéricos para classificação, a outros mais complexos, utilizando comitês, e considerando a ordenação temporal das características do problema. Primeiramente, esses algoritmos foram treinados com a totalidade dos ciclos, para se ter uma referência do desempenho que poderia ser obtido. Posteriormente, foram realizados treinamentos com uma redução desse número de ciclos, com o intuito de antecipar o exame e consequentemente diminuir o tempo necessário para sua conclusão. Para comparar os desempenhos, foram analisadas as métricas AUROC (do inglês, Area Under the Receiver Operating Characteristic), acurácia, especificidade e sensibilidade, com média e desvio padrão calculadas em cima de cem reamostragens da base de dados. Para o cenário de redução de 30 ciclos, foi realizada a otimização de hiperparâmetros dos três algoritmos que se destacaram na etapa anterior: um baseado em redes neurais, MLP (Multilayer Perceptron) e dois comitês de classificadores, o XGBoost e o Time Series Forest (TSF), sendo que este último considera a relação temporal das características. Testes estatísticos realizados indicaram um maior desempenho do TSF (AUROC 98,98 ± 0, 07%) e do MLP (98,94 ± 0, 19%) para 30 ciclos, uma melhoria de desempenho graças à otimização, mas ainda com desempenho inferior ao algoritmo treinado com 35 ciclos com valores padrões de hiperparâmetros. Com isso, este trabalho fornece respaldo para a redução do tempo do RT-qPCR aplicado para COVID-19, por meio de algoritmos de aprendizagem de máquina.
|
|
39
|
-
MATEUS GONÇALVES MACHADO
-
DyLam: A Dynamic Reward Weighting Method for Reinforcement Learning Policy Gradient Algorithms
-
Leader : HANSENCLEVER DE FRANCA BASSANI
-
MEMBRES DE LA BANQUE :
-
ANNA HELENA REALI COSTA
-
HANSENCLEVER DE FRANCA BASSANI
-
TSANG ING REN
-
Data: 7 juin 2022
-
-
Afficher le Résumé
-
Aprendizagem por Reforço (AR) é um subcampo emergente de Aprendizagem de Máquina no qual um agente interage com um ambiente e aproveita suas experiências para aprender, por tentativa e erro, quais ações são as mais adequadas para cada estado. A cada passo o agente recebe um sinal de recompensa positivo ou negativo, que é o principal feedback utilizado para o aprendizado. A AR encontra aplicações em diversas áreas, como robótica, bolsa de valores e até mesmo em sistemas de refrigeração, apresentando desempenho sobre-humano no aprendizado de jogos de tabuleiro (Xadrez e Go) e videogames (jogos de Atari, Dota2 e StarCraft2). No entanto, os métodos AR ainda lutam em ambientes com recompensas escassas. Por exemplo, um agente pode receber poucas recompensas por gols em um jogo de futebol. Assim, é difícil associar recompensas (gols) com ações. Os pesquisadores frequentemente introduzem várias recompensas intermediárias para ajudar no aprendizado e contornar esse problema. No entanto, combinar adequadamente várias recompensas para compor o sinal de recompensa único usado pelos métodos AR frequentemente não é uma tarefa fácil. Este trabalho visa resolver este problema específico através da introdução do DyLam. Ele estende os métodos de gradiente de política existentes decompondo a função de recompensa usada no ambiente e ponderando dinamicamente cada componente em função do desempenho do agente na tarefa associada. Provamos a convergência do método proposto e mostramos empiricamente que ele supera métodos concorrentes nos ambientes avaliados em termos de velocidade de aprendizado e, em alguns casos, desempenho final.
|
|
40
|
-
DANILO AUGUSTO MENEZES CLEMENTE
-
Modelagem hierárquica da disponibilidade de serviços hospedados em Centro de Dados distribuídos
-
Leader : PAULO ROMERO MARTINS MACIEL
-
MEMBRES DE LA BANQUE :
-
CARLOS ALEXANDRE SILVA DE MELO
-
ERICA TEIXEIRA GOMES DE SOUSA
-
PAULO ROMERO MARTINS MACIEL
-
Data: 20 juin 2022
-
-
Afficher le Résumé
-
A computação em nuvem fornece uma abstração das camadas físicas, permitindo uma sensação de recursos infinitos. No entanto, os recursos físicos não são ilimitados e precisam ser utilizados de maneira cada vez mais assertiva. Um dos desafios da computação em nuvem é aprimorar esta utilização dos recursos físicos sem comprometer a disponibilidade dos ambientes neles hospedados. Os modelos hierárquicos possibilitam uma avaliação eficiente dos sistemas que se utilizam da computação em nuvem, permitindo um melhor aproveitamento dos recursos físicos. Este trabalho se utiliza desta estratégia para conduzir uma avaliação de disponibilidade de um sistema hospedado em uma nuvem privada. Foram realizados estudos preliminares na infraestrutura física e lógica utilizada pelo sistema, visando identificar possíveis pontos de melhorias nas configurações, incluindo uma análise de sensibilidade que identifica os componentes que possuem a maior capacidade de interferência na disponibilidade do sistema. Modelos hierárquicos foram concebidos para representar o ambiente atual (baseline), possibilitando a identificação da disponibilidade do sistema. Foi desenvolvido também uma metodologia que permite a replicação adequada deste estudo, podendo ser utilizada para este sistema ou em sistemas similares. Após a correta identificação e modelagem da baseline, foram propostas alterações nos componentes internos ao CD, visando um aprimoramento da disponibilidade do sistema. Posteriormente da descoberta de um valor da disponibilidade considerado como satisfatório pelos administradores do sistema, foram adicionadas aos modelos previamente desenvolvidos, componentes físicos da estrutura do CD, em conjunto com as CCF. Neste momento do estudo, foram aplicadas técnicas de sintetização em modelos SPN, permitindo a realização dos cálculos com um baixo custo operacional. Foram concebidos modelos que possibilitam a análise de cenários em casos de redundância de CD, permitindo a identificação do CD ativo, além de qual cenário possibilita uma melhor disponibilidade para o sistema.
|
|
41
|
-
PAULO JÚNIOR DE MORAES VASCONCELOS
-
Identificação de fungos anemófilos, em ambientes abertos, através de um nariz eletrônico e modelos de Inteligência Artificial
-
Leader : LEANDRO MACIEL ALMEIDA
-
MEMBRES DE LA BANQUE :
-
PAULO SALGADO GOMES DE MATTOS NETO
-
CLEBER ZANCHETTIN
-
REGINALDO GONCALVES DE LIMA NETO
-
Data: 22 juin 2022
-
-
Afficher le Résumé
-
Os fungos dispersam-se na natureza através do ar atmosférico ou por outras vias, como água, insetos, humanos e animais. Os fungos que são dispersados através do ar atmosférico são denominados fungos anemófilos. Sendo assim, a microbiota fúngica anemófila pode ser semelhante ou diferente em cada cidade ou região. Em indústrias como farmacêutica e de alimentos, a preservação da qualidade do ar dos ambientes é ponto importante para a garantia asséptica dos produtos. Hospitais constituem ambientes que necessitam de maior atenção, no que diz respeito ao monitoramento ambiental das áreas críticas. Por outro lado, em climatizadores de ar, o acúmulo de umidade e material orgânico pode torná-los poderosas fontes dispersoras de bioaerossóis. Outra problemática na disseminação de fungos é a produção de micotoxinas. Para conhecer o objeto desse trabalho apresenta-se um estudo sobre os fungos anemófilos, uma breve discursão sobre Inteligência Artificial, em seguida é apresentado o nariz eletrônico utilizado nos experimentos, apresenta-se e explica-se os princípios de funcionamento dos modelos de aprendizagem de máquina testados como solução do problema. Relata-se a exploração dos dados levantados e experimentos das bases de dados de leituras do nariz eletrônico. Os resultados foram satisfatórios em duas bases e insatisfatório em uma base. O classificador InceptionTime obteve o melhor desempenho em uma das bases, atingindo acurácia 97,7% no conjunto de teste. Em outra base o classificador HIVE-COTE 2.0 obteve os melhores resultados alcançando acurácia 96,4% no conjunto de teste. Na última base testada, os resultados foram insatisfatórios, com acurácia máxima de apenas 41,6% no conjunto de teste. Estando no princípio da pesquisa, um ou outro resultado adverso é natural, contudo, conclui-se que essa dissertação contribui desenvolver produtos e serviços que monitorem a qualidade do ar em áreas sensíveis como indústrias alimentícias e farmacêuticas, áreas hospitalares críticas, acúmulo de umidade e material orgânico em condicionadores de ar, como também a presença de micotoxinas produzidas por esses microrganismos. A ampliação e a diversificação da testagem de fungos anemófilos objetivando cobrir uma gama maior de problemas e patologias associadas a mais espécies de fungos anemófilos, como também ampliação das bases de dados, isto é, mais dados e melhores dados para minimizar os erros, implica em modelos mais bem treinados, que generalizam adequadamente para casos novos, que não são conhecidos pelos modelos. Outra frente de trabalho importante é aprofundar o estudo dos modelos de classificadores especializados em séries temporais. O objetivo é encontrar o modelo com resultados mais satisfatórios e com os menores custos computacionais.
|
|
42
|
-
CLEISON CORREIA BATISTA DE AMORIM
-
Uma Abordagem Linguística para o Reconhecimento de Línguas de Sinais
-
Leader : CLEBER ZANCHETTIN
-
MEMBRES DE LA BANQUE :
-
BYRON LEITE DANTAS BEZERRA
-
CLEBER ZANCHETTIN
-
LEANDRO MACIEL ALMEIDA
-
Data: 5 juil. 2022
-
-
Afficher le Résumé
-
A língua de sinais é uma ferramenta essencial na vida do Surdo, capaz de assegurar seu acesso à comunicação, educação, desenvolvimento cognitivo e socio-emocional. Na verdade, ela é a principal força que une essa comunidade e o símbolo de identificação entre seus membros. Por outro lado, o número de indivíduos ouvintes que conseguem se comunicar por meio dessa língua atualmente é pequeno e, na prática, isso acaba trazendo alguns obstáculos para o cotidiano do Surdo. Tarefas simples como utilizar o transporte público, comprar roupas, ir ao cinema ou obter assistência médica acabam se tornando um desafio por conta dessa comunicação limitada. O Reconhecimento de Língua de Sinais é uma das áreas de pesquisa que atuam para desenvolver tecnologias capazes de reduzir essas barreiras linguísticas e facilitar a comunicação entre esses indivíduos. Apesar disso, ao analisarmos sua evolução ao longo das últimas décadas, percebemos que seu progresso ainda não é suficiente para disponibilizar soluções efetivamente aplicáveis ao mundo real. Isso ocorre principalmente porque várias pesquisas nessa área acabam não se apropriando ou abordando adequadamente as particularidades linguística apresentadas pelas línguas de sinais, que são decorrentes de sua natureza visual. Tendo isso em vista, este trabalho introduz uma abordagem linguística para o reconhecimento de língua de sinais que objetiva estabelecer uma direção capaz de conduzir a avanços mais efetivos para essa área e, consequentemente, contribuir com a superação dos obstáculos hoje enfrentados pelo Surdo.
|
|
43
|
-
FERNANDO HENRIQUE DE ALBUQUERQUE ALVES
-
On the usage of functional programming concepts in JavaScript
-
Leader : FERNANDO JOSE CASTOR DE LIMA FILHO
-
MEMBRES DE LA BANQUE :
-
BRENO ALEXANDRO FERREIRA DE MIRANDA
-
FERNANDO JOSE CASTOR DE LIMA FILHO
-
RODRIGO BONIFACIO DE ALMEIDA
-
Data: 8 juil. 2022
-
-
Afficher le Résumé
-
Constructos de linguagem de programação inspirados no paradigma funcional chegaram à maioria das linguagens convencionais. Muitos pesquisadores e desenvolvedores consideram que esses constructos levam a programas mais concisos, reutilizáveis e mais fáceis de entender. No entanto, poucos estudos investigam a prevalência dessas estruturas e as implicações de usá-las em linguagens de programação convencionais. Este trabalho quantifica a prevalência de quatro conceitos, normalmente associados à programação funcional, em JavaScript: recursão, imutabilidade, avaliação preguiçosa e funções como valores. Dividimos o último em dois grupos, funções de ordem superior e callbacks & promises. Focamos em programas JavaScript devido à disponibilidade de alguns desses conceitos na linguagem desde seu início, sua inspiração em linguagens de programação funcionais e a popularidade da linguagem. Mineramos 91 repositórios GitHub (mais de 22 milhões de linhas de código (LOC)) escritos principalmente em JavaScript (mais de 50% do código), medindo o uso desses conceitos de perspectivas estáticas e temporais. Também medimos a probabilidade de commits de correção de bugs removendo usos desses conceitos (o que sugeriria propensão a bugs) e sua associação com a presença de comentários de código (o que sugeriria um código difícil de entender). Descobrimos que esses conceitos estão em uso generalizado (478,605 ocorrências, 1 para cada 46.65 linhas de código, 43.59% de LOC). Além disso, o uso de funções de ordem superior, imutabilidade e estruturas relacionadas à avaliação preguiçosa vêm crescendo ao longo dos anos para os projetos analisados, enquanto o uso de recursão e callbacks & promises diminuiu. Também encontramos evidências estatísticas de que a remoção dessas estruturas, com exceção das associadas à imutabilidade, é menos comum em commits de correção de bugs do que em outros commits. Além disso, sua presença não está correlacionada com o tamanho do comentário associado. Nossas descobertas sugerem que os conceitos de programação funcional são importantes para desenvolvedores que usam uma linguagem multiparadigma, como JavaScript, e seu uso não torna os programas mais difíceis de entender.
|
|
44
|
-
JORGE FÉLIX PUIG BATLLE
-
DIFUSÃO ÓTIMA MULTICANAL EM REDES ALOHA VEICULARES COM RESTRIÇÃO TEMPORAL
-
Leader : RENATO MARIZ DE MORAES
-
MEMBRES DE LA BANQUE :
-
JOSE AUGUSTO SURUAGY MONTEIRO
-
JULIANO BANDEIRA LIMA
-
RENATO MARIZ DE MORAES
-
Data: 27 juil. 2022
-
-
Afficher le Résumé
-
Este trabalho desenvolve o acesso aleatório ótimo na transmissão de mensagens com prazo de entrega final em uma rede veicular de rádio cognitivo, considerando que as mensagens devem ser entregues para todos os nós da rede em um prazo de entrega estrito. No modelo proposto são considerados vários canais de transmissão de dados sincronizados, não sobrepostos e independentes. O transmissor é um usuário secundário (SU), que acessa a um desses canais usados pelos usuários primários (PU), de forma oportunista. O protocolo de controle de acesso ao meio usado é o Slotted-Aloha onde uma transmissão por difusão tem sucesso se todos os nós receptores, dentro do alcance de transmissão do emissor, recebem as mensagens dentro do prazo de entrega estritamente definido, considerando terminais ocultos na rede. Uma abordagem com retransmissão de mensagens é utilizada para melhorara confiabilidade de entrega, que necessita ter uma taxa de sucesso maior ou igual a 99,9 %,com uma latência máxima de 100 ms para cumprir as regulamentações de confiabilidade e segurança das redes de veículos. Além disso, um novo método de análise de transmissão multicanal periódica é proposto usando uma abordagem com coeficientes multinomiais e outra baseada na função de distribuição de probabilidade geométrica. Nos resultados, exibimos como o aumento do numero de canais para as transmissões, o aumento do tempo limite de entrega de pacotes assim como as retransmissões, tem um efeito positivo na vazão do sistema modelado. Por outra parte, será exposto como a presença de terminais escondidos e o aumento de usuários prioritários, vão em detrimento do desempenho da rede.
|
|
45
|
-
DAVI JOSÉ MENDES MAIA
-
Revelando Competências no PBL Aplicado ao Ensino de Computação: Uma Solução Baseada em IA para Alinhamento Construtivo entre Objetivos Educacionais e Feedbacks dos Estudantes
-
Leader : SIMONE CRISTIANE DOS SANTOS LIMA
-
MEMBRES DE LA BANQUE :
-
EDUARDO HENRIQUE DA SILVA ARANHA
-
SIMONE CRISTIANE DOS SANTOS LIMA
-
VERONICA TEICHRIEB
-
Data: 28 juil. 2022
-
-
Afficher le Résumé
-
Existe um movimento crescente na educação superior em computação para mudar um paradigma educacional que vai além da educação baseada no conhecimento. Por isso, metodologias ativas de aprendizagem baseadas em experiências práticas, como o PBL, têm se tornado cada vez mais populares para desenvolver conhecimentos técnicos, habilidades e atitudes do aluno, capacitando-o para um melhor desempenho profissional. Todos esses elementos envolvem iterações que precisam ser mapeadas e acompanhadas continuamente por meio de um modelo abrangente de avaliação de diferentes aspectos e perspectivas. Nesse contexto, surge a educação baseada em competências como uma abordagem pedagógica que envolve a redefinição do objetivo do programa, da sala de aula e da educação, tendo como referência o desenvolvimento de competências nos alunos. Neste estudo, o termo “competência” é definido por três atributos: conhecimento, habilidades e atitudes. Assim, é necessário monitorar esses atributos nos alunos, considerando esse modelo de ensino. Com essa motivação, este trabalho defende a Teoria do Alinhamento Construtivo de Biggs como forma de acompanhamento de competências profissionais. Essa teoria sugere o alinhamento entre os resultados da aprendizagem na perspectiva do aluno e os objetivos educacionais definidos pelo professor no planejamento do curso. Esse acompanhamento pode ser feito de várias maneiras e incluir muitas fontes de dados, como os questionários de feedback dos alunos, aplicados pelos professores ao longo do curso/disciplina. Entretanto, esse acompanhamento exige muito esforço do professor ou da equipe pedagógica, pois o professor precisa adotar um modelo de avaliação contínua que capte vários aspectos subjetivos desses feedbacks, geralmente numerosos. Assim, processar feedbacks pessoais, alinhando-os com o desenvolvimento de competências para melhorar a aprendizagem, envolve dificuldades relacionadas ao esforço, carga de trabalho e tempo gasto para fazer melhorias. Considerando os desafios encontrados e o contexto da educação baseada em competências, esta pesquisa se propõe a responder a seguinte questão: Como acompanhar competências profissionais dos alunos de forma automatizada, tendo como referência a Teoria do Alinhamento Construtivo e o planejamento do curso? Para responder a essa pergunta, este estudo propõe a criação e aplicação de uma solução baseada em IA para processamento dos feedbacks dos alunos que auxiliará o professor no acompanhamento de competências, considerando os objetivos educacionais planejados. O método Design Science Research foi utilizado para construir a SkillSight em ciclos, por meio de técnicas de mineração de texto como modelagem de tópicos e reconhecimento de entidades nomeadas, utilizando as bibliotecas BERTopic e Spacy. Como resultados, um protótipo funcional da SkillSight foi construído e avaliado por professores e especialistas, mostrando uma boa aceitação da ferramenta e evidências iniciais de sua utilidade no processo de acompanhamento de competências, auxiliando o professor no processamento de feedbacks.
|
|
46
|
-
MIGUEL ANGEL ORTIZ ACUÑA
-
Cooperação Cientifica e Inovadora STEM sob a Égide da Tríplice Hélice para Brasil, Argentina, Chile e México: uma abordagem de Teoria dos Jogos Cooperativos.
-
Leader : ADIEL TEIXEIRA DE ALMEIDA FILHO
-
MEMBRES DE LA BANQUE :
-
ADIEL TEIXEIRA DE ALMEIDA FILHO
-
CARMELO JOSÉ ALBANEZ BASTOS FILHO
-
FRANCISCO DE SOUSA RAMOS
-
Data: 4 août 2022
-
-
Afficher le Résumé
-
Esta Dissertação utiliza Jogos Cooperativos para analisar as contribuições individuais e coletivas realizadas no contexto da Tríplice Hélice (Universidade, Industria e Governo) em áreas consideradas de impacto significativo para a inovação (denominadas como STEM - Science, Technology, Engineering and Mathematics), nas quatro principais economias da América Latina. Os países analisados possuem sistemas de inovação limitados e passa- ram por muitas mudanças em sua estrutura política e econômica nos últimos anos. Três métricas foram utilizadas, o Núcleo, o Valor de Shapley e o Nucléolo, com o objetivo de modelar a contribuição individual e coletiva de cada jogador para criar e manter a si- nergia. As informações bibliométricas tanto de publicações cientificas e patentes de áreas STEM foram coletadas da Web of Science e The Lens respectivamente para o período de 2010 a 2020, posteriormente foi aplicado o algoritmo RegexTH para classificar os atores em cada sistema de inovação. Os resultados mostram que em publicações cientificas, a universidade é a protagonista com maior poder de criação de sinergia. Dois resultados emergem, com características bem definidas: i) um modelo de intervenção mínima, se- guindo princípios liberais, em que a universidade é considerada referência. Este modelo é utilizado pelo Chile, com grande protagonismo universitário, escassa contribuição indivi- dual da Indústria e do Governo, mas cuja participação em coalizão é muito significativa; e ii) o modelo intervencionista, que segue direções progressistas, em que a universidade é um ator importante, mas o governo e a indústria têm influência significativa, economica- mente e politicamente. A análise de patentes demostra que o principal ator é a indústria mas a área do núcleo dos sistemas de inovação é vazio portanto o nível de maturidade ainda está na etapa de competição e precisará de tempo e políticas de inovação para fazer uma transição a uma etapa de colaboração.
|
|
47
|
-
ERALDO BARBOSA DOS ANJOS FILHO
-
Otimização de Portfólio de Markowitz Através da Estratégia de Pares de Negócios Cointegrados em Investimento a Longo Prazo Aplicado ao Mercado Brasileiro
-
Leader : ADIEL TEIXEIRA DE ALMEIDA FILHO
-
MEMBRES DE LA BANQUE :
-
ADRIANO LORENA INACIO DE OLIVEIRA
-
ADIEL TEIXEIRA DE ALMEIDA FILHO
-
CARLOS ALBERTO GOMES DE AMORIM FILHO
-
Data: 4 août 2022
-
-
Afficher le Résumé
-
Os modelos clássicos de portfólio geralmente consideram critérios de média e variância de retorno, analisados e estudados em condições de certeza, enquanto os modelos contemporâneos consideram outros objetivos e restrições mais realistas, como a estratégia de pares. Este trabalho buscou analisar o desempenho de uma otimização de Markowitz em conjunto com métodos contemporâneos, em particular, a otimização da carteira Mar- kowitz através da estratégia de pares de negócios cointegrados, com base em dados históricos sobre o preço de abertura dos principais ativos que compõem o índice Bovespa, de janeiro de 2010 até dezembro de 2021. Para analisar e comparar o desempenho da carteira, foi realizada uma simulação de Monte Carlo em R, armazenando o retorno acumulado e o índice de Sharp de cada iteração. Os métodos de comparação adotados foram: modelo de médias móveis autorregressivas (ARIMA) e XGboost em conjunto com Markowitz e otimização de portfólio utilizando o Algoritmo Genético de Ordenação Não Dominada II (NSGA-II). Após a comparação se observou que a estratégia de pares obteve um retorno anual médio de 0,21 utilizando a estratégia de pares e 0,31 com a otimização via NSGA-II, resultado bem superior aos indicadores (Ibovespa, CDI e Selic) e aos modelos ARIMA e XGboost. A estratégia de pares também apresentou o maior índice de Sharp, 0,10 e 0,13, também superior aos demais modelos e indicadores. Os resultados demostraram a eficiência da estratégia de pares de negócios cointegrados no mercado financeiro brasileiro.
|
|
48
|
-
GABRIEL FONSECA REIS DE SOUZA
-
Manipulação robótica: Projeto e desenvolvimento de uma garra para conectores RJ45
-
Leader : JUDITH KELNER
-
MEMBRES DE LA BANQUE :
-
ANNA PRISCILLA DE ALBUQUERQUE
-
JUDITH KELNER
-
PATRICIA TAKAKO ENDO
-
Data: 5 août 2022
-
-
Afficher le Résumé
-
Uma vez que as garras são os elementos responsáveis por interagir com o ambiente físico, a manipulação robótica tem uma importância relevante na automação de tarefas. Existem diversas garras robóticas no mercado, entretanto, nem sempre elas são adequadas aos sistemas de automação por não apresentarem confiabilidade ou terem custo elevado. Esse trabalho descreve o desenvolvimento de uma garra robótica para trabalhar em conjunto com um sistema autônomo de manutenção para ERB, o RBOT. A garra foi projetada com o foco em manipular conectores RJ45. O processo de desenvolvimento englobou a especificação de requisitos, passando por várias iterações de prototipagem até a realização de testes a fim de validar o uso da garra em um cenário real. Foram executados testes de manipulação do conector RJ45 de forma teleoperada e automática parasimular a tarefa de retirar cabos de uma ERB. Os usuários ainda avaliaram o sistema através da escala numérica de usabilidade SUS. Ao fim, a garra impactive com dois dedos construída com peças impressas em 3D mostrou-se confiável e robusta o bastante para ser utilizada em laboratório.
|
|
49
|
-
KEVIN IAN RUIZ VARGAS
-
UR-SRGAN: A Generative Adversarial Network for Real-world Super-resolution with a U-Net-based Discriminator
-
Leader : TSANG ING REN
-
MEMBRES DE LA BANQUE :
-
GEORGE DARMITON DA CUNHA CAVALCANTI
-
TSANG ING REN
-
ING JYH TSANG
-
Data: 8 août 2022
-
-
Afficher le Résumé
-
Apesar de várias melhorias nas técnicas de aprendizado profundo de super-resolução, esses métodos propostos tendem a falhar em muitos cenários do mundo real, pois seus modelos geralmente são treinados usando um processo de degradação predefinido de imagens de verdade de alta resolução (HR) para baixa resolução (LR). Neste trabalho, propomos um modelo supervisionado de Generative Adversarial Network (GAN) para Super-Resolução (SR) de Imagem que tem como primeira etapa estimar kernels de blur e estimativa de ruído de imagens do mundo real para gerar imagens LR para a fase de treinamento. Além disso, a proposta inclui a implementação de um novo discriminador baseado em U-Net, para considerar o contexto global e local de uma imagem de entrada, e permite empregar um aumento de dados CutMix para regularização de consistência no espaço de saída bidimensional do decodificador. O modelo proposto foi aplicado a três conjuntos de dados principais que são normalmente usados em competições oficiais de super-resolução. As métricas de avaliação comumente usadas para restauração de imagem PSNR, SSIM e LPIPS foram usadas para esta avaliação. Após a implementação desta nova arquitetura, três outros modelos de destaque nas propostas GAN de super-resolução de última geração foram treinados com os mesmos parâmetros e bancos de dados para realizar uma comparação global entre todos eles. Por fim, os resultados da experimentação em tarefas de treinamento e avaliação entre todos os modelos sugerem uma melhora no desempenho do trabalho apresentado em relação às demais arquiteturas baseadas nas métricas estabelecidas.
|
|
50
|
-
KESSIA THAIS CAVALCANTI NEPOMUCENO
-
A Machine Learning Approach to Escaped Defect Analysis
-
Leader : RICARDO BASTOS CAVALCANTE PRUDENCIO
-
MEMBRES DE LA BANQUE :
-
ALEXANDRE CABRAL MOTA
-
ANDRÉ CÂMARA ALVES DO NASCIMENTO
-
RICARDO BASTOS CAVALCANTE PRUDENCIO
-
Data: 11 août 2022
-
-
Afficher le Résumé
-
Encontrar defeitos em sistemas ou aplicações computacionais é uma das principais atividades na indústria de software. Isso impacta diretamente a qualidade e performance do produto final, gerando consequências para o usuário e o fornecedor. Uma das situações atreladas às atividades de detectar defeitos, é quando o defeito não é percebido na etapa que ele deveria ser detectado, e então é incorporado ao produto. Chamamos este acontecimento de defeito escapado, uma vez que o defeito foi escapado pelo testador daquela etapa. A fim de mitigar ou eliminar os defeitos escapados, é comum se ter um setor responsável pelas suas análises. Esse setor analisa e avalia os bugs perdidos com o intuito de entender o contexto em que eles estão inseridos e corrigir as falhas. Assim a falha não volta a acontecer e temos um ganho na qualidade do produto e performance dos testes. A análise de defeitos escapados também é uma forma de medir o desempenho da equipe de testes, bem como o lançamento de novos produtos e serviços. Entretanto, apesar de ser uma atividade importante, ela exige recursos como tempo, equipamentos, treinamentos e outros. Portanto, nem sempre é possível ser aplicada de forma constante e precisa. Neste trabalho, construímos um sistema de aprendizagem de máquina para automatizar o processo de análise de defeitos escapados. Utilizamos Bug Reports reais da indústria como dados históricos no nosso modelo. Esses documentos de Bug Report representam os defeitos rotulados como defeito escapado e defeito não escapado. Os dados dos campos do Bug Report foram coletados, tratados e utilizados como entrada pro nosso modelo, o qual utilizou o Random Forest como classificador principal. Como resultado, obtivemos o ranking dos Bug Reports com maior probabilidade de ser um defeito escapado. Com isso, é possível que os testadores da indústria de software concentrem e direcionem os esforços nos Bugs Reports com maior ou menor chance de ser um defeito escapado. Dessa forma, eles conseguem otimizar recursos de operação de trabalho. Para medir o desempenho do classificador, utilizamos a Curva ROC e uma nova métrica que propomos, a curva de custo-benefício. Em ambas as métricas, obtivemos resultados significativos e promissores.
|
|
51
|
-
BRUNO DE SOUZA JERONIMO
-
Human-Robot Interaction Engagement Strategies for Children’s Education
-
Leader : JUDITH KELNER
-
MEMBRES DE LA BANQUE :
-
CARMELO JOSÉ ALBANEZ BASTOS FILHO
-
JAELSON FREIRE BRELAZ DE CASTRO
-
JUDITH KELNER
-
Data: 11 août 2022
-
-
Afficher le Résumé
-
A Robótica Assistiva e Educacional é uma das áreas de amplo destaque no campo da Interação Humano-Robô. Em relação a esse aspecto, recente revisão de literatura indica que o uso de robôs sociais no domínio educacional tem despertado significativa atenção nos últimos anos. Recursos tecnológicos podem apoiar a educação musical no desenvolvimento de habilidades individuais, além de apoio ao ensino à distância e o fortalecimento da autoeficácia e do aprendizado de habilidades independentes. As tecnologias podem reforçar as estratégias de aprendizagem existentes e incentivar mais pessoas a aprender música. O engajamento, nesse sentido, é fundamental para evitar a desistência e induzir o interesse do indivíduo em desenvolver novos horizontes de aprendizagem. O presente trabalho concentra-se então na comparação de dois modelos de robôs sociais que executam a mesma aplicação de Interação Humano-Robô (IHR) visando o contexto da educação musical para crianças, e a descoberta dos designs robóticos preferidos pelo público-alvo nas tarefas avaliadas. A avaliação realizada usou um protocolo remoto experimental que apoia a coleta de feedback online com os usuários durante a pandemia do COVID-19. Os resultados empíricos apoiaram a realização de avaliações quantitativas e qualitativas de nossa aplicação, além de destacar as diferenças percebidas nos recursos existentes nos corpos desses robôs.
|
|
52
|
-
JONATHAN HENRIQUE ANDRADE DE CARVALHO
-
Parametrized Constant-Depth Quantum Neuron: framework, conception, and applications
-
Leader : FERNANDO MACIANO DE PAULA NETO
-
MEMBRES DE LA BANQUE :
-
PAULO SALGADO GOMES DE MATTOS NETO
-
FERNANDO MACIANO DE PAULA NETO
-
TIAGO ALESSANDRO ESPINOLA FERREIRA
-
Data: 11 août 2022
-
-
Afficher le Résumé
-
A computação quântica vem revolucionando o desenvolvimento de algoritmos, o que inclui notáveis avanços em redes neurais artificiais. A exploração de fenômenos inerentemente quânticos traz a promessa de transcender a computação clássica. No entanto, apenas dispositivos quânticos de escala intermediária e ruidosos estão disponíveis atualmente. Para demonstrar vantagens nesta era quântica, o desenvolvimento de algoritmos quânticos precisa satisfazer diversos requisitos de software devido à insuficiência de recursos computacionais quânticos. Nesta pesquisa, nós propomos uma estrutura que constrói neurônios quânticos baseados em máquinas de kernel. Esta estrutura generalizada não apenas contempla neurônios quânticos existentes como também abre espaço para definir inúmeros outros, incluindo neurônios quânticos que atendam às atuais restrições de hardware. Por exemplo, nós propomos aqui um neurônio quântico que é implementado por um circuito de profundidade constante com um número linear de portas elementares de um único bit quântico. Neurônios quânticos existentes são implementados por circuitos exponencialmente custosos, mesmo usando portas complexas de múltiplos bits quânticos. Nós melhoramos o neurônio quântico proposto através de uma parametrização que consegue mudar a forma da sua função de ativação a fim de se ajustar a padrões subjacentes que neurônios quânticos existentes não conseguem se ajustar. Como uma demonstração inicial, nós mostramos o neurônio quântico proposto produzindo soluções ótimas para seis problemas de classificação que um neurônio quântico existente consegue resolver apenas dois deles. A superioridade do neurônio quântico proposto é realmente confirmada aqui por um benchmark entre neurônios quânticos e clássicos em diversos problemas de classificação. Na maioria dos casos, o neurônio quântico proposto é o melhor entre todos os neurônios. A parametrização definitivamente fornece flexibilidade para não apenas se ajustar a uma ampla variedade de problemas mas também para otimizar a margem entre classes, pelo menos melhor que os neurônios clássicos e os neurônios quânticos existentes. Portanto, esta pesquisa abre o caminho para desenvolver redes neurais quânticas que podem demonstrar uma vantagem quântica prática já na era quântica atual.
|
|
53
|
-
EDUARDO HENRIQUE ALVES MAIA MATIOS OLIVEIRA
-
Autenticação no Ambiente IoV baseada em Blockchain com suporte a Computação de Borda (ABE-IoV)
-
Leader : KELVIN LOPES DIAS
-
MEMBRES DE LA BANQUE :
-
NELSON SOUTO ROSA
-
KELVIN LOPES DIAS
-
TASSIO COSTA DE CARVALHO
-
Data: 12 août 2022
-
-
Afficher le Résumé
-
Com o advento dos Sistemas de Transporte Inteligentes (ITS - Intelligent Transportation Systems), os dados de vários sensores incorporados em veículos ou infraestrutura de cidades inteligentes são de extrema importância. O ambiente da Internet Veicular (IoV) demanda soluções eficazes de autenticação e validação das informações e dados compartilhados, considerando os requisitos de latência e vazão das aplicações veiculares. Diante deste cenário o suporte de segurança é de suma importância para o sucesso e a ampla adoção de carros conectados e autônomos. Este ecossistema exigirá poder de processamento e mecanismos de confiança eficientes para os diversos modos de comunicações entre os veículos e demais dispositivos no ambiente (V2I, V2V e V2X). Os estudos atuais de avaliação de desempenho com base na adoção das redes móveis de nova geração 5G e da computação de borda com o processamento mais próximo dos veículos são incipientes quanto à análise comparativa entre sistemas de autenticação centralizados tradicionais e blockchain como serviço de autenticação. Para realizar esta análise foram elaborados diferentes cenários com variação do número de estações radio-base, road-side units, veículos, mineradores e tamanho do bloco. Além disso, este trabalho de pesquisa implementou duas soluções de Autenticação no Ambiente IoV, uma baseada em Blockchain com suporte a Computação de Borda (ABE-IoV) e outra baseada em Trust Authority centralizada. Essas soluções foram desenvolvidas como aplicações no simulador de rede NS-3. Simulando os diferentes cenários foi possível identificar as principais características, vantagens e limitações do uso de blockchain como serviço de autenticação de veículos. Observou-se que ao aumentar a quantidade total de veículos mantendo o número de mineradores, as métricas de Quality of Service (QoS) para blockchain se mantiveram estáveis com poucas alterações. No entanto, ao aumentar a quantidade de mineradores mantendo a quantidade de veículos o QoS caiu drasticamente
|
|
54
|
-
THIAGO BATISTA RODRIGUES SILVA
-
Predição de compatibilidade entre cultivares em processos de enxertia: um estudo comparativo de técnicas baseadas em sistemas de recomendação
-
Leader : RICARDO BASTOS CAVALCANTE PRUDENCIO
-
MEMBRES DE LA BANQUE :
-
ROSIMAR DOS SANTOS MUSSER
-
DOUGLAS VÉRAS E SILVA
-
RICARDO BASTOS CAVALCANTE PRUDENCIO
-
Data: 12 août 2022
-
-
Afficher le Résumé
-
A viticultura é a ciência que estuda o cultivo da uva para produção de sucos, vinhos e outros derivados. Tanto os produtos quanto a cadeia produtiva possuem elevada importância socioeconômica e cultural em grande parte do mundo. Recentemente, técnicas de enxertia vêm sendo aplicadas para aumentar a produtividade e a qualidade no setor, no entanto, o processo para encontrar cultivares de porta-enxerto que sejam compatíveis com enxertos de videiras é essencialmente experimental, lento e custoso. Embora a utilização de aprendizagem de máquina no Agronegócio não seja novidade, a literatura carece de trabalhos que demonstrem a aplicabilidade dessa técnica para apoiar especificamente processos de enxertia. Este trabalho, por meio de uma perspectiva de Sistema de Recomendação, oferece uma comparação entre abordagens de predição e de classificação para o problema da seleção de cultivares de enxerto e porta-enxerto. Além disso, também avalia os desempenhos de algoritmos baseados em filtragem colaborativa com os de algoritmos baseados em métodos de Kernel, para as tarefas de predição de ratings e de classificação de interações. Ao todo, 17 modelos baseados em algoritmos de filtragem colaborativa e métodos de kernel foram avaliados em um conjunto de dados de 251 interações rotuladas, atingindo o valor máximo de 96% para a métrica f1-score. Os resultados indicaram uma vantagem significativa para a abordagem de classificação, especialmente para os modelos baseados em kernel, bem como a viabilidade de uma ferramenta de apoio à decisão para orientar as escolhas de especialistas das melhores cultivares para enxertia.
|
|
55
|
-
FERNANDA TEIXEIRA DOS SANTOS
-
Espaço de dissimilaridade simbólicos usando distâncias intervalares para classificação e regressão
-
Leader : RENATA MARIA CARDOSO RODRIGUES DE SOUZA
-
MEMBRES DE LA BANQUE :
-
MARCUS COSTA DE ARAUJO
-
PAULO SALGADO GOMES DE MATTOS NETO
-
RENATA MARIA CARDOSO RODRIGUES DE SOUZA
-
Data: 12 août 2022
-
-
Afficher le Résumé
-
Apresenta como objetivo principal a aplicação de algoritmos clássicos de aprendizagem de máquina na transformação de dados simbólicos em dados clássicos, na busca de alcançar resultados tão bons quanto utilizando dados clássicos. Tendo em vista que, o estudo de dados simbólicos originou a área de análise de dados simbólicos, que está diretamente ligada a uma abordagem na área de descoberta automática de máquinas para os dados clássicos. Para tanto,utilizar-se-á da matriz de dissimilaridade já que vem sendo amplamente explorada na literatura de aprendizagem de máquina,por obter bons resultados em variadas tarefas, sendo testadas tarefas de classificação e regressão.
|
|
56
|
-
FLAVIANO DIAS FONTES
-
Deejai: Uma plataforma open source para recomendação de músicas para grupos de usuários de serviços de streaming
-
Leader : GIORDANO RIBEIRO EULALIO CABRAL
-
MEMBRES DE LA BANQUE :
-
FILIPE CARLOS DE ALBUQUERQUE CALEGARIO
-
GILBERTO AMADO DE AZEVEDO CYSNEIROS FILHO
-
GIORDANO RIBEIRO EULALIO CABRAL
-
Data: 15 août 2022
-
-
Afficher le Résumé
-
Consumir música é algo que fazemos ao longo dos séculos e é uma atividade bastante importante em nossas vidas. Realizar esse consumo de forma coletiva nos dá a possibilidade de criar uma relação emocional forte, pois associamos as pessoas ao redor com o ambiente que consumimos criando toda uma experiência diferenciada. Mas essa experiência acaba ficando nas mãos de poucas pessoas, o artista que está tocando, o DJ da festa, ou até o amigo que põe a sua playlist para tocar durante o encontro com os amigos. Para aprimorar a experiência de se consumir músicas em ambiente coletivo, nos propusemos a utilizar de estudos sobre sistemas de recomendação focado em música, aproveitando suas técnicas já estudadas para construir uma plataforma open source e com a possibilidade de integrar dois serviços de streaming a fim de facilitar a colaboração dos usuários levando em consideração os seus gostos e principalmente seus desgostos para tentar melhorar o resultado da playlist gerada. Foram utilizadas técnicas de filtro colaborativo aplicadas a grupo, de consumo das informações previamente disponíveis pelos usuários nos seus serviços de streaming, levando em consideração os problemas de partida a frio que essas técnicas apresentam além de uma filtragem automática das músicas que não agradam o indivíduo para responder a pergunta: Levar em consideração os desgostos dos usuários cria uma lista de reprodução mais legal. Foi criado o conceito de salas, local onde é definido um contexto para que os usuários possam acompanhar a montagem da playlist, um sistema de votação onde é possível salvar a opinião de uma determinada música para melhorar as futuras recomendações, pois essa informação não é disponibilizada pelos serviços de streaming. Esse sistema de votação se mostrou importante, pois o consumo de música se mostrou algo muito efêmero, uma música que um usuário gosta muito hoje pode não ser tão apreciada meses depois. Além de que o consumo de músicas é baseado em um contexto, onde, por exemplo, o usuário tem a preferência em ouvir um determinado ritmo durante a prática de exercícios ou em uma festa e para um outro momento tem a preferência por outro, fazendo com que o não gostar dele possa ser tanto pra música que ele detesta, como também para músicas que não combinam com aquele contexto. Com base no do EveryNoiseAtOnce onde os estilos são mapeados como pontos cartesianos, a fim de aproximar estilos próximos é um bom auxílio para poder criar a playlist para usuário que possuem gostos muito distantes, pois é possível construir um caminho entre esses pontos, buscando o vizinho mais próximo.
|
|
57
|
-
GEOVÁ JUNIO DA SILVA TAVARES
-
Uma abordagem baseada no Fluents Calculus para a axiomatização dos casos jurídicos do Direito das Sucessões
-
Leader : FREDERICO LUIZ GONCALVES DE FREITAS
-
MEMBRES DE LA BANQUE :
-
ANJOLINA GRISI DE OLIVEIRA
-
CLEYTON MÁRIO DE OLIVEIRA RODRIGUES
-
RICARDO CICERO DE CARVALHO RODRIGUES
-
Data: 17 août 2022
-
-
Afficher le Résumé
-
O Direito de Sucessão brasileiro passa por um processo de longa transformação que, naturalmente, acompanha a evolução dos valores morais de uma sociedade. Essa evolução, porém, traz diversas regras e exceções que causam confusão entre leigos e até mesmo pelos operadores do Direito. Além das diversas regras e exceções existentes no texto legal, para algumas situações a legislação ainda é omissa e fica a cargo do judiciário decidir de acordo com o caso concreto, tornando assim essa matéria ainda mais complexa e de difícil elucidação. As razões para querer formalizar o Direito de Sucessão com a ajuda da linguagem formal e a criação de sistemas capazes de inferir premissas em situações de elevada carga de regras e restrições são inúmeras. A formalização melhora a compreensão exata e específica de um texto porque ajuda a destacar ambiguidades, leituras ou interpretações não intencionais, aumenta a compreensão precisa e evita má interpretação do texto legal proveniente das frequentes alterações e revisões da legislação e jurisprudência. Isso resulta em uma expansão do acesso à informação, crescimento da produtividade, qualificação das informações, melhora no controle de prazos, aumento da eficiência e redução de custos e auxilia o órgão julgador na sua tomada de decisão e provimento de sentença. Nessa interdisciplinaridade do Direito e da Inteligência Artificial o propósito é desembaraçar problemas com a complexidade dos sistemas jurídicos, as antinomias da norma jurídica, o alto volume de informações, e a modelagem do raciocínio jurídico. Este trabalho explora como o conhecimento jurídico e o raciocínio jurídico do Direito de Sucessão se comportam ao serem formalizados pelo Fluents Calculus.
|
|
58
|
-
GEICIANFRAN DA SILVA LIMA ROQUE
-
Agente Conversacional no Autocuidado de Feridas
-
Leader : SERGIO RICARDO DE MELO QUEIROZ
-
MEMBRES DE LA BANQUE :
-
MARCOS ANTONIO DE OLIVEIRA SOUZA
-
FILIPE CARLOS DE ALBUQUERQUE CALEGARIO
-
SERGIO RICARDO DE MELO QUEIROZ
-
Data: 18 août 2022
-
-
Afficher le Résumé
-
A crescente demanda por pacientes com feridas, tem desafiado significativamente os enfermeiros em seu trabalho. Um agente conversacional com conteúdo baseado em evidências devidamente validado pode auxiliar enfermeiros e pacientes no gerenciamento do autocuidado. Este trabalho descreve o desenvolvimento de um agente conversacional (botcurativo) que visa auxiliar o autocuidado no manejo de feridas no ambiente doméstico, fornecendo orientação sobre os procedimentos de curativos recomendados para cada tipo de ferida. A pesquisa metodológica foi realizada em cinco etapas. A primeira etapa corresponde o levantamento dos requisitos, em seguida realiza à validação do conteúdo do roteiro através de um painel de enfermeiros estomaterapeutas, que avaliaram os domínios e itens do roteiro do agente conversacional. A análise dos dados foi realizada utilizando o Índice de Validade do Conteúdo por níveis individuais e de escala (≥ 0,80). Assim, para verificar o acordo entre os agente conversacional, foi utilizado o teste Kappa. O agente de conversação foi desenvolvido na segunda etapa utilizando a plataforma Dialogflow. Na terceira etapa, a usabilidade do agente conversacional foi analisado usando a Escala de Usabilidade do Sistema (SUS) por 17 usuários, 8 pacientes com feridas crônicas, 5 cuidadores de pessoas com feridas agudas e crônicas e 4 enfermeiros. Finalmente, a etapa 4 foi um estudo de caso onde 9 participantes foram entrevistados, incluindo pacientes e cuidadores. Avaliamos a percepção do usuário ao utilizar o Botcurativo. Os dados coletados foram analisados utilizando técnicas de codificação aberta e axial. Os resultados foram analisados usando a ferramenta MAXQDA. Os domínios estabelecidos alcançaram excelentes critérios de adequação, relevância e representatividade, todos acima de 90%; o índice de validade do conteúdo por nível de escala alcançou 0,97 e 0,82 pelos métodos de acordo médio e universal, respectivamente, com excelente concordância entre os avaliadores (valor Kappa: 0,83). A pontuação geral de usabilidade foi de 80,1. A percepção dos sete pacientes que utilizaram o Botcurativo, com a causa da ferida afetada por trauma ou patologia, teve uma sensação positiva. Por outro lado, quando a causa da ferida era uma lesão por pressão, os pacientes eram idosos e tinham comorbidades, e seus cuidadores, os participantes da pesquisa, tinham sentimentos negativos e precisavam de cuidados mais humanizados. O script desenvolvido e incorporado ao protótipo do agente conversacional atingiu um nível satisfatório de validade do conteúdo. A usabilidade foi considerada boa, acrescentando credibilidade ao dispositivo, e a percepção do usuário apresentou um sentimento positivo na aplicação.
|
|
59
|
-
DIÓGENES EMIDIO LEÓDIDO
-
NUDGES DIGITAIS COM CHATBOTS: UMA SOLUÇÃO DE APOIO A FISIOTERAPIA PÓS-CIRÚRGICA DO OMBRO
-
Leader : SERGIO RICARDO DE MELO QUEIROZ
-
MEMBRES DE LA BANQUE :
-
ALANA ELZA FONTES DA GAMA
-
ALEX SANDRO GOMES
-
SERGIO RICARDO DE MELO QUEIROZ
-
Data: 19 août 2022
-
-
Afficher le Résumé
-
A telessaúde tem sido foco das políticas de saúde para a zona rural, sobretudo para apoiar o processo de reabilitação pós cirúrgica do ombro .Os procedimentos pós-cirúrgicos são de suma importância para o sucesso do tratamento, uma vez que a não realização de uma série de movimentos no ombro operado pode causar atrofiamento e congelamento dos movimentos. Diversas pesquisas tecnológicas apresentam soluções para promover adesão e engajamento aos exercícios realizados à distância, entretanto sua maioria utiliza recursos de alto custo como games, sensores e smartwatch. Itens que inviabilizam a implantação deste tipo de tecnologia em áreas rurais. Por isso, esse trabalho tem como objetivo desenvolver e avaliar um nudge chatbot para auxílio da telereabilitação pós-cirúrgica do ombro. Trata-se de um estudo de desenvolvimento tecnológico que utilizou o Design Science Research Methodology (DSRM) com suas seis etapas. O artefato foi apresentado para 7 profissionais formados em Fisioterapia, os quais preencheram um questionário semi-estruturado de avaliação. Foi desenvolvido o protótipo de um chatbot que envia nudges digitais através de mensagens assíncronas na plataforma de mensagens Telegram. 71% dos participantes afirmaram acreditar que o artefato possa influenciar a prática de exercícios de fisioterapia; 85% acreditam que o sistema proposto possa dar auxílio a pacientes que realizam cirurgia de ombro. Com os resultados foi possível concluir que um nudge chatbot foi bem aceito pela área de fisioterapia e que pode ser um instrumento mais estratégico e de baixo custo para a política de saúde em áreas remotas e distantes do país.
|
|
60
|
-
JOSE WILLIAM ARAUJO DO NASCIMENTO
-
Identificação de bactérias comuns em feridas infectadas (Staphylococcus aureus e Pseudomonas aeruginosa) através de um nariz eletrônico e modelos de Inteligência Artificial
-
Leader : LEANDRO MACIEL ALMEIDA
-
MEMBRES DE LA BANQUE :
-
SERGIO RICARDO DE MELO QUEIROZ
-
LEANDRO MACIEL ALMEIDA
-
ISABEL CRISTINA RAMOS VIEIRA SANTOS
-
Data: 23 août 2022
-
-
Afficher le Résumé
-
As infecções em feridas são umas das complicações mais comuns que atrasam a sua cicatrização. As principais bactérias que causam esta infecção são Staphylococcus aureus e Pseudomonas aeruginosa, elevando a morbidade e mortalidade dos pacientes. Os principais métodos atuais para auxiliar no diagnóstico de infecções em feridas causadas por estas bactérias são a cultura e o método molecular, que possuem elevado período para identificação das espécies e elevado custo financeiro, respectivamente. Neste sentido, um excelente recurso tecnológico em informática é o nariz eletrônico, uma técnica de amostragem não invasiva, indolor e barata, com elevada taxa de precisão. Na literatura científica são abordados poucos estudos acerca do uso do nariz eletrônico no campo de feridas infectadas por bactérias, desta forma, este estudo justifica-se por apresentar uma nova metodologia que torne a identificação de bactérias de forma mais precisa e rápida, podendo ser um recurso que auxiliará profissionais de saúde em um breve futuro. Neste sentido, este estudo objetivou identificar bactérias comuns em feridas infectadas (Staphylococcus aureus e Pseudomonas aeruginosa) através de um nariz eletrônico e modelos de Inteligência Artificial. A metodologia deste estudo experimental utilizou um nariz eletrônico com controle automático e quatro culturas bacterianas, sendo duas da espécie Staphylococcus aureus e duas culturas da espécie Pseudomonas aeruginosa foram utilizadas no experimento. Após o processo de coleta das amostras no nariz eletrônico, foi desenvolvido um banco de dados composto por 4249 amostras, onde 2719 foram utilizadas para o treinamento dos modelos (60%), 850 para validação (20%) e 680 para testes dos modelos de Inteligência Artificial utilizados (20%). Quatro algoritmos de classificação supervisionados com base em séries temporais foram utilizados no processamento de dados. Após os experimentos envolvendo os modelos de Inteligência Artificial, verificou-se que no conjunto de teste (os modelos são colocados em contato com amostras desconhecidas), o classificador InceptionTime obteve o melhor desempenho para a identificação das bactérias Staphylococcus aureus e Pseudomonas aeruginosa, com uma acurácia de 99,50% (desvio padrão: 0,00074) e uma precisão de 99,51%. O desempenho médio dos modelos no conjunto de teste apresentou resultados satisfatórios, com uma acurácia de 97,70% e uma precisão de 97,73%. Constatou-se que a metodologia proposta utilizando um nariz eletrônico e modelos de aprendizado de máquina baseado em séries temporais pode ajudar a identificar espécies bacterianas presentes em feridas infectadas de forma mais precisa, rápida e eficiente do que os métodos de identificação existentes.
|
|
61
|
-
DAVI SIMÕES FREITAS
-
Uma infraestrutura assistida por robô para detecção de perda de dados em aplicativos Android.
-
Leader : BRENO ALEXANDRO FERREIRA DE MIRANDA
-
MEMBRES DE LA BANQUE :
-
ALEXANDRE CABRAL MOTA
-
BRENO ALEXANDRO FERREIRA DE MIRANDA
-
MARCIO DE MEDEIROS RIBEIRO
-
Data: 23 août 2022
-
-
Afficher le Résumé
-
Quando uma aplicação Android é interrompida por uma chamada ou quando a orientação do dispositivo é alterada (de retrato para paisagem ou vice-versa), o sistema operacional pode precisar destruir e recriar a atividade. Idealmente os dados e o estado da aplicação deveriam ser salvos (antes da destruição) e restaurados (após a recriação) para evitar perda de dados. Infelizmente, o sistema operacional Android não gerencia estes cenários nativamente e os desenvolvedores de aplicativos precisam explicitamente salvar e restaurar os dados da aplicação. Caso contrário, os usuários podem observar falhas de perda de dados (i.e., informações que estavam presentes antes da interrupção são perdidas após a recriação da atividade). Um trabalho recente (RIGANELLI et al., 2020) propôs uma abordagem automatizada para a detecção de perda de dados em aplicativos Android: casos de teste são gerados para explorar a interface do aplicativo e, durante a exploração, a aplicação é interrompida a partir do acionamento, via software, de uma rotação na tela. Capturas de tela e os dados do aplicativo antes e depois da rotação são comparados para verificar se dados foram perdidos. Tal proposta, entretanto, é i) pouco realista e ii) invasiva. Pouco realista porque a alteração na orientação da tela é acionada via software –— e não pelos sensores como aconteceria em um cenário real; e invasiva porque os comandos são enviados através de comunicação com o dispositivo via cabo USB ou dispositivo simulado. Este trabalho propõe a utilização de um braço robótico artesanal para proporcionar um ambiente de testes mais realista: os eventos de destruição e recriação das atividades são acionados pela rotação física do smartphone. A infraestrutura proposta também permite o envio de comandos sem a necessidade de conexão física com o dispositivo via cabo USB, um passo importante na direção de uma solução realista e não-invasiva. Para avaliar a viabilidade de utilização da infraestrutura proposta, uma avaliação empírica foi realizada considerando 77 aplicativos Android e 341 falhas de perda de dados foram identificadas. Todas as falhas identificadas foram reportadas aos desenvolvedores e, das 201 falhas que já foram analisadas, 180 (89,55%) foram confirmadas pelos desenvolvedores.
|
|
62
|
-
CARLOS HENRIQUE CALOETE PENA
-
An Ensemble Learning Method for Segmentation Fusion.
-
Leader : TSANG ING REN
-
MEMBRES DE LA BANQUE :
-
CARLOS ALEXANDRE BARROS DE MELLO
-
LUIS FILIPE ALVES PEREIRA
-
TSANG ING REN
-
Data: 25 août 2022
-
-
Afficher le Résumé
-
A segmentação das células presentes nas imagens microscópicas é uma etapa essencial em muitas tarefas, incluindo a aferição da concentração de proteínas e a análise da expressão gênica das células. Em estudos de genômica, as segmentações celulares são vitais para avaliar a composição genética de células individualmente e a sua localização espacial relativa. Vários métodos e ferramentas foram desenvolvidos para oferecer uma segmentação robusta, sendo, atualmente, os modelos de deep learning as soluções mais promissoras. Como alternativa ao desenvolvimento de outro modelo direcionado de segmentação de células, propomos, nesta dissertação, uma estratégia de aprendizado de fusão que agrega diversas segmentações candidatas independentes provindas de uma mesma imagem para produzir uma única segmentação de consenso. Estamos particularmente interessados em aprender como agrupar segmentações de imagens provindas de ferramentas crowdsourcing, podendo ser criadas por especialistas e não especialistas em laboratórios e data centers. Assim, comparamos nosso modelo de fusão com outros métodos adotados pela comunidade biomédica e avaliamos a robustez dos resultados em três aspectos: fusão com outliers, dados com subsegmentação e deformações sintéticas. Nossa abordagem supera os métodos em eficiência e qualidade, especialmente, quando há uma grande discordância entre as segmentações candidatas da mesma imagem.
|
|
63
|
-
LUIZA CARVALHO SILVEIRA
-
Combinação de técnicas de aprendizado profundo para classificação de raio-x toráxico em apoio ao diagnóstico de COVID-19
-
Leader : FERNANDO MACIANO DE PAULA NETO
-
MEMBRES DE LA BANQUE :
-
ALUIZIO FAUSTO RIBEIRO ARAUJO
-
FERNANDO MACIANO DE PAULA NETO
-
THAÍS GAUDENCIO DO RÊGO
-
Data: 25 août 2022
-
-
Afficher le Résumé
-
A aplicação de técnicas de deep learning no âmbito de serviços de saúde é um campo de pesquisa emergente na área de Ciência da Computação. A utilização de modelos de deep learning como ferramenta de apoio ao diagnóstico de doenças a partir de exames de imagem tem despertado interesse crescente de pesquisadores da área. A pandemia da COVID-19 motivou o desenvolvimento de modelos de deep learning para detecção de padrões de imagem tendo em vista a escassez de recursos, como exames sorológicos, ter estimulado a utilização alternativa de exames de imagem para detecção da síndrome respiratória. No caso da COVID-19, os exames de raio-x e tomografia do tórax são realizados rotineiramente para investigação da hipótese diagnóstica. Este trabalho combina diferentes técnicas anteriormente aplicadas para detecção da COVID-19 e descreve a qualidade das melhores pipelines encontradas quanto à capacidade de diferenciar três classes de pacientes: aqueles infectados pelo vírus da COVID-19, pacientes com síndrome respiratória causada por outro agente que não o SARS-CoV-2, e, finalmente, pacientes saudáveis. Além disso, é aberta uma discussão sobre a real capacidade de generalização dos modelos existentes até então ao se realizar predições para conjuntos de dados totalmente novos. As técnicas utilizadas para a construção dos pipelines foram segmentação de imagens, transfer learning e aumento de dados. O modelo proposto obteve F1-Score de 90,8% para o conjunto de testes e 55,1% para o conjunto de testes alternativo.
|
|
64
|
-
HEITOR VICTOR VEIGA DA COSTA
-
Decomposição de séries temporais utilizando o modelo GAMLSS: Uma nova metodologia híbrida para previsão de séries temporais
-
Leader : FERNANDO MACIANO DE PAULA NETO
-
MEMBRES DE LA BANQUE :
-
FERNANDO MACIANO DE PAULA NETO
-
LEANDRO MACIEL ALMEIDA
-
ULISSES RAMOS MONTARROYOS
-
Data: 26 août 2022
-
-
Afficher le Résumé
-
Este estudo teve por objetivo geral propor uma abordagem para modelagem de séries temporais aplicando o modelo estatístico Generalized Additive Models for Location, Scale and Shape (GAMLSS) para a sua decomposição. Os objetivos específicos consistiram em: (i) Observar sua capacidade preditiva; (ii) Identificar os potenciais efeitos da pandemia de COVID-19 nas séries temporais e padrões espaciais de nascidos vivos no estado de Pernambuco (2010 até 2021). Com a decomposição, foi feita a modelagem de seus resíduos para refinar a qualidade de ajustamento aos dados, sendo tal procedimento conhecido como um tipo de modelagem híbrida. Os resultados demonstraram que o procedimento proposto traz vantagens em termos de acurácia, onde obteve-se melhor performance preditiva em 7 de 15 experimentos realizados (a partir do erro quadrático médio e o erro percentual absoluto médio). Quanto aos impactos da COVID-19, os resultados não indicaram uma mudança clara no número de nascidos vivos, mas apoiou a continuação esperada da tendência decrescente dos anos anteriores. Considerando a importância do número de nascidos vivos no contexto demográfico, econômico e da saúde pública, o monitoramento deve ser mantido para analisar um possível impacto futuro da pandemia de COVID-19 nas projeções de nascidos vivos. A abordagem apresentada retornou boa performance preditiva e possibilidade de gerar resultados inferenciais confiáveis.
|
|
65
|
-
ARTHUR DÓRIA MENESES DE FREITAS
-
Análise de Topologias de Fluxo de Informação (IFT) em Veículos Autônomos e Conectados (CAV) para aplicações Platoon
-
Leader : ABEL GUILHERMINO DA SILVA FILHO
-
MEMBRES DE LA BANQUE :
-
EVANDRO LEONARDO SILVA TEIXEIRA
-
ABEL GUILHERMINO DA SILVA FILHO
-
DIVANILSON RODRIGO DE SOUSA CAMPELO
-
Data: 29 août 2022
-
-
Afficher le Résumé
-
A Topologia de Fluxo de Informações (IFT) de um Platoon, veículos conectados e automatizados (CAVs) que viajam na mesma faixa de uma rodovia, representa as conexões de comunicação inter-veicular que cada veículo utiliza para adquirir informações. Portanto, a arquitetura topológica representa o arranjo físico entre os veículos do Platoon e pode influenciar significativamente no comportamento de condução coletiva e cooperativa do Platoon. A troca de informações é essencial para um controle efetivo do Platoon, garantindo o menor espaçamento possível entre eles, ao mesmo tempo que garante requisitos e segurança dos motoristas. Sincronizando as ações de aceleração e frenagem, enquanto mantém distâncias seguras e velocidades relativas próximas de zero. O desempenho de um Platoon depende diretamente da topologia do fluxo de informações; e da qualidade das comunicações sem fio que é altamente influenciada pelo protocolo de controle de acesso ao meio (MAC) do protocolo IEEE 802.11p. Este trabalho, analisa a influência das IFTs em Platoon em cenários simulados, onde existem diferentes probabilidades de sucesso na recepção de mensagens para todos os pares de veículos. O estudo de uma IFT, necessita levar em consideração os diversos tipos de problemas que podem ocorrer em um sistema de comunicação veicular sem fio, como por exemplo, uma conectividade ruim entre os veículos, alta latência ou altas taxas de perda de pacotes. Por esta razão, a análise foi realizada no framework PLEXE (Platooning Extension for Veins), um simulador de Platooning open-source baseado no OMNeT++, capaz de avaliar o impacto do uso do protocolo IEEE 802.11p em aplicações segurança veicular. Os resultados foram obtidos a partir da análise de mais de cem mil simulações com diferentes topologias de comunicação, taxas de perda de pacotes. Além disso, a dinâmica de aceleração longitudinal do veículo líder foi modelada a partir de equação para a velocidade sinusoidal, forma que se aproxima do comportamento de um motorista humano. O veículo líder do Platoon, acelera e freia diversas vezes em uma mesma simulação para verificar se o espaçamento desejado e o erro de espaçamento entre veículos serão atendidos independentemente das condições do tráfego. Os resultados obtidos mostraram que um controlador baseado em consenso com a topologia de comunicação Leader-Predecessor-Follower (LPF) consegue manter um Platoon com erro de espaçamento médio desejado entre os veículos de 3,19%, mesmo com uma taxa de 95% perda de pacotes.
|
|
66
|
-
SAULO JOSE DE ALBUQUERQUE SILVA
-
Avaliação Automática da Qualidade de Imagens de Alta Resolução Sem Referência
-
Leader : CARLOS ALEXANDRE BARROS DE MELLO
-
MEMBRES DE LA BANQUE :
-
CARLOS ALEXANDRE BARROS DE MELLO
-
CLEBER ZANCHETTIN
-
RAFAEL GALVAO DE MESQUITA
-
Data: 6 sept. 2022
-
-
Afficher le Résumé
-
Um dos grandes desafios nas áreas de visão computacional e processamento de ima- gens é desenvolver métodos para modelar corretamente o sistema visual humano. Um dos processos existentes na modelagem do sistema visual humano é a avaliação da qualidade de uma imagem, processo complexo por envolver elementos objetivos e subjetivos. Dentre as abordagens de avaliação automática da qualidade de imagens da literatura, neste tra- balho é utilizada a avaliação da qualidade de imagens sem referência, aplicada a imagens geradas por dispositivos móveis. Nos últimos anos, houve um avanço na tecnologia das câmeras de tais dispositivos, possibilitando a captura de imagens de alta resolução. Nesse contexto, foi avaliado o comportamento de métodos de avaliação automática da qualidade de imagens quando aplicados a imagens de alta resolução. Na literatura foram encontrados vários modelos, dentre os quais destacamos: (1) BRISQUE, (2) OCPP, e (3) DIQA. Para modelos baseados em inteligência artificial, foram utilizadas para treinamento as bases de dados públicas e amplamente utilizadas nesse contexto, como: LIVE IQA, LIVE in the Wild e KonIQ-10K. Não existem bases conhecidas de imagens de alta resolução. Dessa forma, os resultados da aplicação desses modelos a tais imagens foram bastante incoeren- tes, como é apresentado nesta Dissertação. Sugere-se que pesquisas posteriores abordem modelos de aprendizagem profundo que visem corrigir os problemas encontrados no DIQA para torná-lo mais eficiente em termos de acurácia e velocidade de processamento.
|
|
67
|
-
LUCAS DE LIMA NOGUEIRA
-
Learning to Transfer What, Where and Which: Método de transfer learning entre redes convolucionais de arquiteturas diferentes
-
Leader : FERNANDO MACIANO DE PAULA NETO
-
MEMBRES DE LA BANQUE :
-
ADRIANO LORENA INACIO DE OLIVEIRA
-
BRUNO JOSE TORRES FERNANDES
-
CLEBER ZANCHETTIN
-
Data: 12 sept. 2022
-
-
Afficher le Résumé
-
Atualmente, os modelos de deep learning estão sendo utilizados para solucionar uma grande variedade de problemas. No entanto, esse tipo de algoritmo usualmente necessita de grandes quantidades de dados para alcançar bons desempenhos. Apesar do crescimento da quantidade de dados disponíveis devido à digitalização da informação, essa ainda não é uma realidade para diversos problemas, além da necessidade de um alto custo computacional, dependendo da complexidade envolvida. Nesse sentido, técnicas de transferência de aprendizagem vêm sendo desenvolvidas para transacionar essa barreira. Algumas técnicas propostas recentemente envolvem conectar camadas e/ou channels entre redes convolucionais, de forma a transferir o conhecimento de uma rede pré-treinada para uma nova. Neste trabalho, é proposto estender essa ideia, conectando unidades de ativação, além de camadas e channels, de forma a refinar a transferência de conhecimento, aumentando o desempenho do processo. Nesse sentido, foram realizados testes em diversos datasets e o método proposto se demonstrou superior ao método anterior em um cenário essencial de quantidade limitada de dados de treinamento, alcançando um aumento de até 3.75% na acurácia.
|
|
68
|
-
JULIANDSON ESTANISLAU FERREIRA
-
Specification is Law: Safe Creation and Upgrade of Ethereum Smart Contracts
-
Leader : AUGUSTO CEZAR ALVES SAMPAIO
-
MEMBRES DE LA BANQUE :
-
FABIOLA GONÇALVES PEREIRA GREVE
-
ALEXANDRE CABRAL MOTA
-
AUGUSTO CEZAR ALVES SAMPAIO
-
Data: 12 sept. 2022
-
-
Afficher le Résumé
-
Contratos inteligentes são a base do paradigma "code is law". O código do contrato inteligente descreve indiscutivelmente como seus ativos devem ser gerenciados - uma vez criado, seu código normalmente é imutável. Contratos inteligentes com falhas apresentam significativa evidência contra a praticidade desse paradigma; os bugs resultaram em perdas de ativos no valor de milhões de dólares. Para resolver esse problema, a comunidade Ethereum propôs (i) ferramentas e processos para auditar/analisar contratos inteligentes e (ii) padrões de design que implementam um mecanismo para tornar o código do contrato mutável. Individualmente, (i) e (ii) abordam apenas parcialmente os desafios levantados pelo paradigma "code is law". Neste trabalho, combinamos elementos de (i) e (ii) para criar uma estrutura sistemática que se afasta do "code is law" e dá origem a um novo paradigma "specification is law". Ele permite que contratos sejam criados e atualizados, mas somente se eles atenderem a uma especificação formal correspondente. A estrutura é centrada em um trusted deployer: um serviço off-chain que verifica e reforça formalmente essa noção de conformidade. Com essa estrutura, contratos com falhas devem ser impedidos de serem implantados e atualizações seguras podem ser realizadas para otimizar o código do contrato, por exemplo. Prototipamos essa estrutura e investigamos sua aplicabilidade a contratos que implementam três padrões Ethereum amplamente usados: o ERC20 Token Standard, ERC3156 Flash Loans e ERC1155 Multi Token Standard.
|
|
69
|
-
JOSÉ MAURÍCIO MATAPI DA SILVA
-
Efeitos potenciais da pandemia de COVID-19 sobre modelos de aprendizagem de máquina para predição de parto prematuro nas capitais Brasileiras
-
Leader : FERNANDO MACIANO DE PAULA NETO
-
MEMBRES DE LA BANQUE :
-
ADIEL TEIXEIRA DE ALMEIDA FILHO
-
CRISTINE VIEIRA DO BONFIM
-
FERNANDO MACIANO DE PAULA NETO
-
Data: 13 sept. 2022
-
-
Afficher le Résumé
-
O parto prematuro é o que ocorre antes de 37 semanas de gestação, sendo considerado um problema de saúde global, e ainda uma das principais causas de mortes em bebês e crianças menores de cinco anos de idade. A taxa de parto prematuro pode variar de acordo com a região geográfica e nível de renda, mantendo uma maior frequência de ocorrência em países subdesenvolvidos. Nos países desenvolvidos, ele é amplamente avaliado como forma de compreender as causas e na criação de ações preventivas. Nesta pesquisa, foi proposta a utilização de algoritmos de aprendizado de máquina para predição de parto prematuro em gravidez única, utilizando dados das capitais brasileiras. Foi verificado se os dois primeiros anos da pandemia COVID-19 trouxeram impactos significativos para as distribuições das variáveis contidas na base de dados, em comparação ao que foi utilizado para treinamento dos modelos. Foram utilizados 6 classificadores de aprendizagem de máquina: Árvore de Decisão, Floresta Aleatória, Regressão Logística, Adaptive Boosting, Análise de Discriminante Linear e Rede Neural do tipo Multi-layer Perceptron, analisando as métricas de acurácia, precisão, revocação, F1-SCORE e área sobre a curva ROC. Portanto, com o processamento desses resultados, foi possível verificar a predição de parto prematuro com dados secundários no período de pandemia. Com destaque para o modelo Floresta Aleatória que obteve uma acurácia e AUC de 87%. Os demais modelos mantiveram uma média de acurácia acima de 70%; a média da precisão para todos os modelos se manteve acima dos 90%. Foi possível constatar que há uma estabilidade dos modelos, quando se é testado com dados do período de pandemia e não apresentou impactos expressivos nas variáveis nesse período.
|
|
70
|
-
VINÍCIUS JOSÉ DE SIQUEIRA
-
History-based Prioritization in the Context of Manual Testing: a Study in a Real Industrial Setting
-
Leader : BRENO ALEXANDRO FERREIRA DE MIRANDA
-
MEMBRES DE LA BANQUE :
-
GENAÍNA NUNES RODRIGUES
-
BRENO ALEXANDRO FERREIRA DE MIRANDA
-
JULIANO MANABU IYODA
-
Data: 19 sept. 2022
-
-
Afficher le Résumé
-
Muitas técnicas de priorização de casos de teste foram propostas com o objetivo final de acelerar a detecção de falhas. A priorização baseada em histórico, em particular, tem se mostrado uma estratégia eficaz. A maioria dos estudos empíricos realizados neste tópico, no entanto, se concentraram no contexto de testes automatizados. Investigar a eficácia da priorização baseada em histórico no contexto de testes manuais é importante porque, apesar da popularidade das abordagens automatizadas, o teste manual ainda é amplamente adotado na indústria. Neste trabalho nós propomos duas heurísticas de priorização baseadas em histórico e avaliamos elas no contexto de testes manuais em um ambiente industrial real. Para nossa avaliação nós coletamos informações históricas de execução de testes para 35 produtos, abrangendo mais de sete anos de informações históricas, contabilizando um total de 3,196 casos de teste únicos e 5,859,989 resultados de teste passados. Os resultados de nossos experimentos mostraram que a eficácia das abordagens propostas não estão longe de uma teórica priorização ótima, e que são significativamente melhores do que as alternativas de ordenações das suítes de testes, incluindo a abordagem utilizada como comparação do estado da arte, a ordem sugerida pela ferramenta de gerenciamento de testes e a ordem de execução seguida pelos testadores durante a execução real das suítes de testes avaliadas durante o nosso estudo.
|
|
71
|
-
PAULO MARTINS MONTEIRO
-
Propostas de métodos baseados em Co-op training para aprendizado semi-supervisionado em fluxos contínuos de dados
-
Leader : ROBERTO SOUTO MAIOR DE BARROS
-
MEMBRES DE LA BANQUE :
-
ROBERTO SOUTO MAIOR DE BARROS
-
PAULO MAURICIO GONÇALVES JUNIOR
-
RODOLFO CARNEIRO CAVALCANTE
-
Data: 28 oct. 2022
-
-
Afficher le Résumé
-
No contexto de fluxo contínuo de dados, no qual os dados são gerados em tempo real, é comum a existência de dados sem rótulos, por exemplo, devido ao alto custo para rotulá-los. Para lidar com estes dados, estão sendo propostas estratégias de aprendizagem semi-supervisionadas em que são utilizados dados rotulados e não rotulados ao mesmo tempo. Outro desafio típico dos fluxos contínuos de dados é a presença das chamadas mudanças de conceito (concept drift): neste cenário, a distribuição dos dados muda com o tempo, o que causa uma diminuição da precisão das classificações. Essa dissertação apresenta três novos métodos baseados na técnica de Co-op training, nos quais são utilizados dois classificadores que cooperam entre si para realizar predições em fluxos contínuos de dados. Estes algoritmos foram adaptados com o objetivo de obter uma melhor acurácia de classificação quando comparados ao método original e aos seus concorrentes. O primeiro método proposto é o Co-op training V2, uma versão menos rigorosa do método original; o segundo é o Co-op training V3, que utiliza apenas o grau de confiança de ambos os classificadores para rotular dados sem rótulo; e o último é o Co-op Training V4, que também utiliza apenas o grau de confiança na rotulação de dados, tendo o treinamento de ambos os classificadores como principal diferença para o V3. Os métodos propostos foram comparados aos algoritmos disponíveis no MOA-SS, a extensão do Massive Online Analysis (MOA) framework que foi utilizada para realizar os testes. Os experimentos utilizaram bases de dados artificiais e reais, tanto em conjuntos de dados sem mudanças de conceito quanto em cenários com mudanças de conceito. Finalmente, analisamos quais algoritmos se saíram melhor em cada um dos cenários testados, incluindo a avaliação estatística dos resultados.
|
|
72
|
-
CLÁUDIO CÉSAR MIRANDA SALGUEIRO
-
DEPÓSITOS JUDICIAIS NO TRIBUNAL DE JUSTIÇA: UMA PROPOSTA DE SISTEMA PARA ADMINISTRAÇÃO E OTIMIZAÇÃO DOS RENDIMENTOS
-
Leader : RICARDO MARTINS DE ABREU SILVA
-
MEMBRES DE LA BANQUE :
-
CÍCERO GARROZI
-
PAULO SALGADO GOMES DE MATTOS NETO
-
RICARDO MARTINS DE ABREU SILVA
-
Data: 25 nov. 2022
-
-
Afficher le Résumé
-
Os depósitos judiciais nos Tribunais de Justiça são administrados por instituições financeiras oficiais que remuneram seus depositantes por taxas análogas às da poupança. Atualmente os tribunais delegam as instituições financeiras à administração destes depósitos judiciais através de contratos, contudo percebe-se vários pontos negativos nesta contratação como: baixo rendimentos; grande dependência das instituições financeiras; falta transparência, ausência de integração dos sistemas dos tribunais com os sistemas das instituições financeiras; inconsistência de informações; procedimentos manuais, morosidade e insegurança. Dessa forma, é proposto um sistema para administração e otimização via gerenciamento de portfólio segundo o modelo de Markowitz dos rendimentos sobre os depósitos judiciais e que solucione os pontos negativos acima descritos. Ou seja, o sistema proposto proporcionará ao poder judiciário realizar diretamente o gerenciamento dos depósitos judiciais, que é composto pelo módulo externo, módulo vara e módulo gerencial os quais apresentam funcionalidades distintas. Consequentemente, esse sistema possibilitará aos tribunais de justiça algumas vantagens como: maior rendimento dos recursos depositados, uma vez que o spread bancário que até então favorecia os bancos oficiais será destinado aos tribunais; maior controle já que o sistema proposto seria integrado com o PJE, evitando inconsistência; transparência, uma vez que o tribunal saberia a qualquer tempo para quem e quantos boletos foram gerados e pagos, para quem e quantos alvarás foram autorizados e creditados; maior usabilidade, uma vez que viabilizaria maior eficiência, eficácia, segurança utilidade, aprendizagem e manutenção.
|
|
73
|
-
LEVI DA SILVA RAMOS JÚNIOR
-
RequestBERT-BiLSTM: Detecção de anomalias em Requisições HTTP sem Log Parser
-
Leader : CLEBER ZANCHETTIN
-
MEMBRES DE LA BANQUE :
-
BRUNO JOSE TORRES FERNANDES
-
CLEBER ZANCHETTIN
-
DIVANILSON RODRIGO DE SOUSA CAMPELO
-
Data: 30 nov. 2022
-
-
Afficher le Résumé
-
No cenário atual da internet, a maioria dos serviços, como compartilhamento de informações, entretenimento e educação são prestados por servidores web. Essa gama de serviços compartilhados tornou a web o principal foco de atuação para invasores e fraudadores. A maioria das técnicas defensivas nos servidores web não consegue lidar com a complexidade e evolução dos ataques cibernéticos em requisições HTTP. No entanto, as abordagens de aprendizagem de máquina podem ajudar a detectar ataques, sejam eles conhecidos ou desconhecidos. Neste trabalho, é apresentado o modelo RequestBert-BiLSTM, o qual permite detectar possíveis ataques em requisições HTTP sem a utilização de Log Parser. O Log Parser é uma fase importante na detecção automática de ataques atual, mas também uma fonte de possíveis erros na detecção dos ataques. O modelo proposto foi testado nos conjuntos de dados públicos CSIC 2010, ECML/PKDD 2007, BGL. Além disso, foi construído um conjunto de dados baseado em um ambiente real. Observou-se que o modelo proposto apresentou o melhor desempenho, quando comparado com outros modelos da literatura, na detecção de ataques. Outra contribuição a destacar é que este trabalho evidencia que a etapa de análise de log pode prejudicar o desempenho do modelo na detecção de ataques devido a erros gerados pelos métodos tradicionais de parser. A proposta ainda sugere que modelos baseados em aprendizado de máquina são promissores estratégias para detecção de ataques na web.
|
|
74
|
-
ADRIANO MARABUCO DE ALBUQUERQUE LIMA
-
Sistema baseado em seleção dinâmica para previsão de casos de COVID-19
-
Leader : PAULO SALGADO GOMES DE MATTOS NETO
-
MEMBRES DE LA BANQUE :
-
ADRIANO LORENA INACIO DE OLIVEIRA
-
JOÃO FAUSTO LORENZATO DE OLIVEIRA
-
PAULO SALGADO GOMES DE MATTOS NETO
-
Data: 13 déc. 2022
-
-
Afficher le Résumé
-
A pandemia da COVID-19 provocou 546 milhões casos e 20 milhões óbitos até 30 de junho de 2022, além disso gerou uma queda de 3% no PIB mundial em 2020. Um dos desafios no enfrentamento da doença é a previsão da quantidade de casos e óbitos, assim como a tendência de crescimento e decrescimento. Muitos trabalhos têm focado nessa tarefa, entretanto nenhum deles considerou a mudança de conceito nas séries temporais da COVID-19. Essas séries possuem basicamente três conceitos principais: crescimento exponencial, decrescimento e platô. Dessa forma, modelos que não tratam dessa questão podem apresentar baixa precisão em virtude da mudança na distribuição dos dados ao longo do tempo. Esse trabalho propõe o Concept Drift Dynamic Forecasting System (CODYS) para previsão de casos da COVID-19. O CODYS primeiramente realiza a detecção de conceitos na fase treinamento para gerar um conjunto de preditores especialistas nos padrões encontrados. Na fase de teste, o método proposto seleciona dinamicamente a partir de uma região de competência o modelo mais apto para prever um dado padrão de teste. O CODYS foi avaliado utilizando conjuntos de dados dez países de diferentes continentes e graus de desenvolvimento. Os resultados mostram que o CODYS alcançou desempenho superior quando comparado com modelos da estatísticos, de aprendizado de máquina e ensembles.
|
|
75
|
-
VICTOR VIANA DE ARAÚJO SILVA
-
Um Método Difuso Multivariado Baseado em Medoids
-
Leader : RENATA MARIA CARDOSO RODRIGUES DE SOUZA
-
MEMBRES DE LA BANQUE :
-
ADRIANO LORENA INACIO DE OLIVEIRA
-
BRUNO ALMEIDA PIMENTEL
-
GETULIO JOSE AMORIM DO AMARAL
-
Data: 15 déc. 2022
-
-
Afficher le Résumé
-
A Análise de agrupamentos foi inicialmente utilizada por Tyron em 1939, em que visa organizar dados que possuam características similares dentro de um mesmo grupo e no caso contrário em que os dados possuam características distintas, eles serão alocados em grupos diferentes. Ou seja, se é levado em consideração a ideia deminimizar a distância intra-grupos e maximizar a distância inter-grupos. Com isso, dentre outros benefícios, podem ser visualizadas algumas vantagens da utilização desta técnica, como por exemplo a diminuição da dimensionaliMeans (FCM), o qual possui algumas desvantagens tal como considerar que todos os grupos possuem formas esféricas e ser altamente influenciado em casos de conjuntos de dados ruidosos. O Fuzzy C-medoid (FCMdd)dade dos dados e a extração das características dos grupos. O principal método de agrupamento difuso é o Fuzzy C- foi criado com o intuito de tentar mitigar esta problemática, porém não leva em consideração o impacto de cada variável no cálculo dos graus de pertinências. Diante desse cenário, o Multivariate Fuzzy C-means (MFCM) foi criado com o intuito de levar em consideração o efeito de cada variável no cálculo dos protótipos, porém, utiliza a média para o cálculo dos centróides podendo ser fortemente influenciado negativamente por dados ruidosos. Este trabalho introduz o método Multivariate Fuzzy C-medoids (MFCMdd), em que como o próprio nome já diz, os graus de pertinência são multivariados e utilizam observações do próprio conjunto de dados para serem os centróides, também conhecidos como medoids. Diante deste cenário, o método proposto MFCMdd, é comparado com os outros três métodos (FCM, FCMdd e MFCM) abordados de acordo com as métricas utilizadas para avaliação dos algoritmos, sendo elas o Índice de Rand Ajustado e o F-score. Com o objetivo de avaliar o desempenho dos métodos, um estudo comparativo em relação aos agrupamentos difusos usando o experimento Monte Carlo é realizado. Além disso,foram planejados experimentos com dados sintéticos e reais. Os resultados mostraram que o método proposto MFCMdd, perante o MFCM é preferível quando se há conjuntos de dados sem ruído ou também quando os conjuntos de dados possuem caráter esférico com dados ruidosos.
|
|
76
|
-
MAYARA WANESSA ALVES DOS SANTOS
-
Os impactos do Ensino Remoto Emergencial no processo de ensino e aprendizagem nos cursos de Tecnologia: percepções de discentes e docentes
-
Leader : RAFAEL DUEIRE LINS
-
MEMBRES DE LA BANQUE :
-
ALEX SANDRO GOMES
-
GABRIEL DE FRANCA PEREIRA E SILVA
-
RAFAEL DUEIRE LINS
-
Data: 22 déc. 2022
-
-
Afficher le Résumé
-
Em março de 2020, diversos países vivenciaram uma crise devido a pandemia da COVID-19. No Brasil não foi diferente, em consequência do alto nível de contágio do vírus, o controle da pandemia exigiu o isolamento social, afetando o ensino em todos os níveis. Com isso, a educação passou por mudanças significativas. Diante deste cenário, as Instituições de Ensino Superior (IES) brasileiras necessitaram de uma reformulação nas práticas pedagógicas, promovendo ações, buscando estratégias e recorrendo ao auxílio das ferramentas digitais para que possibilitassem o Ensino Remoto Emergencial (ERE). Desse modo, esta dissertação tem como objetivo investigar as percepções de discentes e docentes dos cursos de Tecnologia de IES sobre os impactos do ERE no processo de ensino e aprendizagem. Metodologicamente, foi utilizado uma pesquisa quali-quantitativa abordando docentes que atuaram no Ensino Superior e discentes que tiveram aulas durante o período do ensino remoto emergencial. Nesse estudo, o instrumento de coleta utilizado foi um questionário online com perguntas objetivas e discursivas, obtendo a participação voluntária de 126 docentes e 366 discentes de diversas Instituições Federais. Baseado nos dados obtidos nesta pesquisa, fornecemos orientações e elaboramos um conjunto de diretrizes para auxiliar gestores e professores no planejamento para o ensino remoto, caso seja necessário. Os resultados obtidos confirmam que o ERE requer um planejamento adequado, divisão de tarefas e trabalhos em grupos. Os docentes mencionaram a falta de interação dos discentes e o baixo engajamento como os principais desafios enfrentados durante as aulas síncronas. Também indicaram fatores como a sobrecarga de trabalho, o despreparo tecnológico, a infraestrutura inadequada e falta de apoio institucional durante o ERE
|
|
|
Thèses |
|
1
|
-
REGINA ROSA PARENTE
-
Classificação de Uma Classe para Seleção de Conjuntos de Dados Sintéticos em Meta-Aprendizado
-
Leader : RICARDO BASTOS CAVALCANTE PRUDENCIO
-
MEMBRES DE LA BANQUE :
-
RONNIE CLEY DE OLIVEIRA ALVES
-
GISELE LOBO PAPPA
-
PAULO SALGADO GOMES DE MATTOS NETO
-
PERICLES BARBOSA CUNHA DE MIRANDA
-
TSANG ING REN
-
Data: 4 févr. 2022
-
-
Afficher le Résumé
-
A seleção de algoritmos é uma tarefa crucial e desafiadora no aprendizado de máquina em diferentes domínios do conhecimento. O meta-aprendizado trata a seleção de algoritmos como uma tarefa de aprendizado supervisionado. Exemplos de treinamento (ou seja, meta-exemplos) são gerados a partir de experimentos realizados com um conjunto de algoritmos candidatos em vários conjuntos de dados. Pode haver uma pequena disponibilidade de conjuntos de dados reais em alguns domínios, o que torna difícil gerar bons meta-exemplos. Portanto, confiar em conjuntos de dados sintéticos pode ser uma boa alternativa para gerar meta-exemplos. No entanto, não é garantido que todos os conjuntos de dados sintéticos sejam relevantes e representativos em comparação com os conjuntos de dados reais. Desta forma, o uso indiscriminado de muitos conjuntos de dados sintéticos aumenta o custo computacional da realização de experimentos sem melhorar significativamente a precisão do meta-aprendizado. Nesta tese, lidamos com a seleção de conjuntos de dados sintéticos para meta-aprendizagem como um problema de classificação de uma classe (OCC). Em OCC, os classificadores são construídos assumindo a disponibilidade de exemplos de treinamento pertencentes a uma classe única de interesse (ou seja, a classe positiva), enquanto os rótulos de classe dos outros exemplos são desconhecidos. Na solução proposta, técnicas de OCC são utilizadas para selecionar os conjuntos de dados sintéticos mais relevantes (a classe desconhecida), considerando os conjuntos de dados reais (a classe positiva) disponíveis. Também conduzimos experimentos em dois estudos de caso, nos quais empregamos dois procedimentos diferentes de manipulação de dados para produzir conjuntos de dados sintéticos e duas técnicas de OCC para seleção de conjuntos de dados. Os resultados demonstraram que é possível usar um número reduzido de conjuntos de dados sintéticos selecionados, mantendo um bom desempenho de meta-aprendizagem.
|
|
2
|
-
WAGNER JORGE FIRMINO DA SILVA
-
Métodos de Aprendizagem Estatística para Dados Simbólicos Poligonais
-
Leader : RENATA MARIA CARDOSO RODRIGUES DE SOUZA
-
MEMBRES DE LA BANQUE :
-
ADRIANO LORENA INACIO DE OLIVEIRA
-
BRUNO ALMEIDA PIMENTEL
-
GETULIO JOSE AMORIM DO AMARAL
-
LEANDRO CARLOS DE SOUZA
-
TELMO DE MENEZES E SILVA FILHO
-
Data: 14 févr. 2022
-
-
Afficher le Résumé
-
Ciência de Dados é um campo que diz respeito à análise e extração de conhecimento e informações valiosas de dados estruturados e não estruturados. A Análise de Dados Simbólicos fornece uma estrutura que fornece respostas para dados grandes e complexos. Nesta tese, propomos ferramentas para manipulação e extração de conhecimento em dados simbólicos poligonais, um tipo de dado simbólico multivalorado. Dessa forma, modelos bivariados poligonais são discutidos a partir de um caso especial desses modelos para dados intervalares. O modelo bivariado é menos sensível na presença de valores discrepantes de intervalo. Além disso, desenvolvemos um cluster dinâmico considerando a distância de Hausdorff para dados poligonais, onde os protótipos são obtidos a partir de uma solução analítica independente do número de lados. Outra contribuição desta tese é a criação de um pacote na linguagem R, chamado psda para análise de dados simbólicos poligonais. Este pacote fornece ferramentas que permitem agregação de dados por classes, representação de dados no centro e raio do polígono, análise descritiva e modelagem de dados poligonais. Para ilustrar a aplicabilidade do modelo, algoritmo de clusterização e do pacote, alguns exemplos são exibidos.
|
|
3
|
-
DOMINGOS SÁVIO DE OLIVEIRA SANTOS JÚNIOR
-
Método de Ensemble para correção de modelos ARIMA: uma abordagem de sistema híbrido para previsão de séries temporais
-
Leader : PAULO SALGADO GOMES DE MATTOS NETO
-
MEMBRES DE LA BANQUE :
-
MANOEL HENRIQUE DA NÓBREGA MARINHO
-
ADRIANO LORENA INACIO DE OLIVEIRA
-
HUGO VALADARES SIQUEIRA
-
PAULO RENATO ALVES FIRMINO
-
RICARDO BASTOS CAVALCANTE PRUDENCIO
-
Data: 17 févr. 2022
-
-
Afficher le Résumé
-
Nas últimas décadas Sistemas Híbridos (SH) que utilizam a modelagem residual têm sido amplamente aplicados no contexto de previsão de séries temporais. Esta abordagem utiliza como previsão final a combinação da previsão de um modelo linear com a previsão do resíduo obtida por um modelo de Aprendizagem de Máquina (AM) não linear. Essa série de resíduo representa a diferença entre a previsão linear e valor real da série temporal. Uma vez que normalmente são encontrados padrões lineares e não lineares em séries temporais reais, esta classe de SH tem alcançado resultados empíricos e teóricos promissores em razão da sua arquitetura ser capaz de modelar esses padrões em etapas especificas. Contudo, são identificadas limitações na etapa de modelagem residual, sendo que por conta de sua complexidade, um modelo de AM pode apresentar problemas de má especificação de parâmetros, sobre ajuste e sub ajuste, prejudicando os resultados de todo SH. Baseado neste problema, este trabalho propõe um método de ensemble para previsão residual (Ensemble method for Residual Forecast (ERF)). O método ERF é composto por três fases gerais: (i) previsão da série temporal por meio de um modelo linear; (ii) previsão do erro realizada por um ensemble; (iii) combinação pela soma das previsões das fases (i) e (ii). A fase (ii) é a principal contribuição desta tese, na qual é proposta uma abordagem homogênea que cria um ensemble de modelos de AM diverso e de forma sistemática. O ARIMA é utilizado como modelo linear, já como modelo não linear são avaliados o MLP e SVR. Desta forma, são obtidas duas versões do método proposto: ERFMLP e ERFSVR. Essas versões são aplicadas em doze séries temporais reais com os respectivos modelos simples (ARIMA, MLP e SVR) e sete sistemas híbridos da literatura. Todos os métodos são avaliados por meio da métrica Raiz do Erro Quadrático Médio e testes estatísticos de Wilcoxon, Friedman e Nemenyi. Com base nessas formas de avaliação, visualiza-se que as abordagens propostas possuem a capacidade de encontrar bons resultados quando aplicadas em diferentes séries temporais.
|
|
4
|
-
JOSÉ GUEDES DOS SANTOS JÚNIOR
-
Método Robusto à Oclusão para Rastreamento 6-DOF de Objetos em Imagens RGB-D com Otimização por Enxame de Partículas
-
Leader : VERONICA TEICHRIEB
-
MEMBRES DE LA BANQUE :
-
JOAO PAULO PAPA
-
CLÁUDIO ROSITO JUNG
-
CLEBER ZANCHETTIN
-
PERICLES BARBOSA CUNHA DE MIRANDA
-
SILVIO DE BARROS MELO
-
Data: 17 févr. 2022
-
-
Afficher le Résumé
-
Rastreadores visuais podem ser usados para determinar a trajetória de objetos 3D rígidos com 6 graus de liberdade em tempo real. Essa funcionalidade é necessária para vários tipos de aplicações, como em realidade aumentada ou robótica, e sua eficiência muitas vezes está relacionada com a acurácia, a robustez a falha e o desempenho de tempo desses rastreadores. Nos últimos anos, vários trabalhos contribuíram para a melhoria dessas técnicas, apresentando métodos com boa acurácia que são executados em tempo real, dentre os quais se destacam aqueles baseados em otimização, baseados em aprendizagem e híbridos, ou seja, que utilizam otimização e aprendizagem de forma cooperativa. Neste contexto, o presente trabalho propõe melhorias no rastreamento com 6 graus de liberdade de objetos 3D arbitrários que usa otimização por enxame de partículas. Dentre elas, destacam-se: o aperfeiçoamento da função de aptidão usando média harmônica das coordenadas 3D, cor e normais dos pontos; a seleção dinâmica da região de interesse na nuvem de pontos da cena; a filtragem dos pontos visíveis do modelo considerando a auto-oclusão e a oclusão por outros objetos da cena; o cálculo das fronteiras do subespaço de soluções em tempo de execução, observando a inércia do objeto alvo; a filtragem de poses em tempo de execução a partir da trajetória encontrada; e a implementação da otimização por enxame de partículas completamente em GPU. Experimentos mostraram que tais mudanças possibilitaram melhorias na robustez a falhas, na acurácia e no desempenho de tempo da técnica. Quando comparado com métodos presentes no estado da arte, o rastreador proposto nessa proposta de tese foi, em média, 19,3% e 16,3% mais acurado em relação aos erros de translação e rotação, respectivamente, e apresentou um número de falhas 78,4% menor. O rastreador proposto ainda foi de 5 a 7 vezes mais rápido que uma técnica existente baseada em otimização por enxame de partículas.
|
|
5
|
-
MÁRCIO ROBÉRIO DA COSTA FERRO
-
AStar: A Modeling Language for Document-oriented Geospatial Data Warehouses
-
Leader : ROBSON DO NASCIMENTO FIDALGO
-
MEMBRES DE LA BANQUE :
-
VÍTOR ESTEVÃO SILVA SOUZA
-
ANA CAROLINA BRANDAO SALGADO
-
CLAUDIO DE SOUZA BAPTISTA
-
LUCIANO DE ANDRADE BARBOSA
-
VINICIUS CARDOSO GARCIA
-
Data: 18 févr. 2022
-
-
Afficher le Résumé
-
Um Data Warehouse Geoespacial (DWG) é uma extensão de um Data Warehouse tradicional que inclui dados geoespaciais nos processos de tomada de decisão. Diversos estudos propõem o uso de bancos de dados orientados a documentos em um DWG como alternativa aos bancos de dados relacionais. Isso se deve à capacidade dos bancos de dados não relacionais de escalar horizontalmente, permitindo o armazenamento e o processamento de grandes volumes de dados. Nesse contexto, modelar por meio da análise visual a maneira como fatos e dimensões estão estruturados é importante para entender, manter e evoluir o DWG Orientado a Documentos (DWGD). No entanto, até onde sabemos, não há linguagens de modelagem conhecidas que suportem o design de fatos e dimensões como documentos referenciados (normalizados) ou embutidos (desnormalizados), particionados em uma ou mais coleções. Para superar essa lacuna, propomos Aggregate Star (AStar), uma linguagem de modelagem específica de domínio para projetar esquemas lógicos de DWGD. AStar é definida por uma sintaxe concreta (notação gráfica), uma sintaxe abstrata (metamodelo) e semântica estática (regras de boa formação). Para descrever a semântica dos conceitos definidos em AStar, semântica translacional é usada para mapear a notação gráfica para o metamodelo e o respectivo código que define o esquema no MongoDB (usando JSON Schema). Avaliamos a notação gráfica usando \textit{Physics of Notations} (PoN), que fornece um conjunto de princípios para projetar notações visuais cognitivamente eficazes. Essa avaliação revelou que AStar está de acordo com oito dos nove Princípios PoN, um nível adequado de eficácia cognitiva. Como prova de conceito, o metamodelo e as regras de boa formação foram implementados em um protótipo de ferramenta de Engenharia de Software Assistida por Computador, denominado AStarCASE. Nesta versão atual, AStarCASE pode ser usada para projetar esquemas lógicos de DWGD e gerar seu código correspondente na forma de esquemas JSON. Além disso, apresentamos uma guia que mostra como projetar esquemas que possuem fatos, dimensões convencionais e dimensões geoespaciais relacionadas como documentos referenciados ou incorporados, particionados em uma ou mais coleções. O guia também apresenta boas práticas para obter baixo volume de dados e baixo tempo de execução de consulta em um DWGD.
|
|
6
|
-
SARA INÉS RIZO RODRÍGUEZ
-
Clustering algorithms with new automatic variables weighting
-
Leader : FRANCISCO DE ASSIS TENORIO DE CARVALHO
-
MEMBRES DE LA BANQUE :
-
VINICIUS LAYTER XAVIER
-
CLEBER ZANCHETTIN
-
HELOISA DE ARRUDA CAMARGO
-
PAULO SALGADO GOMES DE MATTOS NETO
-
TSANG ING REN
-
Data: 21 févr. 2022
-
-
Afficher le Résumé
-
Todos os dias, uma grande quantidade de informações é armazenada ou representada como dados para posterior análise e gerenciamento. A análise de dados desempenha um papel indispensável na compreensão de diferentes fenômenos. Um dos meios vitais de lidar com esses dados é classificá-los ou agrupá-los em um conjunto de categorias ou grupos. O agrupamento ou análise de agrupamento visa dividir uma coleção de itens de dados em grupos, dada uma medida de similaridade. O agrupamento tem sido usado em vários campos, como processamento de imagens, mineração de dados, reconhecimento de padrões e análise estatística. Geralmente, os métodos de agrupamento lidam com objetos descritos por variáveis de valor real. No entanto, essa representação é muito restritiva para representar dados complexos, como listas, histogramas ou mesmo intervalos. Além disso, em alguns problemas, muitas dimensões são irrelevantes e podem mascarar os grupos existentes, por exemplo, os grupos podem existir em diferentes subconjuntos das variáveis. Este trabalho enfoca a análise de agrupamento de dados descritos por variáveis de valor real e de valor de intervalo. Nesse sentido, novos algoritmos de agrupamento de subespaço flexível foram propostos, nos quais a correlação e a relevância das variáveis são consideradas para melhorar o desempenho. No caso de dados com valor de intervalo, assumimos que a importância dos limites das variáveis com valor de intervalo pode ser a mesma ou pode ser diferente para o processo de agrupamento. Como os métodos baseados em regularização são robustos à inicializações, as abordagens propostas introduzem um termo de regularização para controlar o grau de pertinência dos objetos aos grupos. Essas regularizações são populares devido ao alto desempenho no agrupamento de dados em grande escala e baixa complexidade computacional. Esses algoritmos iterativos de três etapas fornecem uma partição difusa, um representante para cada grupo, e o peso de relevância das variáveis ou sua correlação, minimizando uma função objetivo adequada. Experimentos com conjuntos de dados sintéticos e reais corroboram a robustez e utilidade dos métodos de agrupamento propostos.
|
|
7
|
-
DAILYS MAITE ALIAGA REYES
-
Predição para Dados Simbólicos Multi-valorados de Tipo Quartis: Caso Especial Dados Representados por Boxplots
-
Leader : RENATA MARIA CARDOSO RODRIGUES DE SOUZA
-
MEMBRES DE LA BANQUE :
-
FRANCISCO CRIBARI NETO
-
LEANDRO CARLOS DE SOUZA
-
NIVAN ROBERTO FERREIRA JUNIOR
-
PAULO SALGADO GOMES DE MATTOS NETO
-
TELMO DE MENEZES E SILVA FILHO
-
Data: 23 févr. 2022
-
-
Afficher le Résumé
-
Um dado simbólico de tipo 𝑏𝑜𝑥𝑝𝑙𝑜𝑡 pode ser considerado como um caso particular das variáveis numéricas multi-valoradas no contexto da Análises de Dados Simbólicos (ADS). Este tipo de dado tem uma estrutura simples que permite resumir informações de unidades agregadas, chamadas de classes. No entanto, esse tipo de estrutura tem sido pouco explorada na literatura de ADS. Este trabalho apresenta duas novas abordagens de predição com o objetivo de extrair conhecimento e fazer inferência usando dados de 𝑏𝑜𝑥𝑝𝑙𝑜𝑡. A primeira abordagem considera um modelo de regressão para 𝑏𝑜𝑥𝑝𝑙𝑜𝑡 através da equação paramétrica da reta. Esta parametrização permite o ajuste dos pontos nas variáveis regressoras que permite melhorar a qualidade da variável resposta. Nessa direção, um critério é também proposto para verificar a coerência matemática da predição. Se a coerência não é garantida, uma nova estratégia, através de transformações 𝐵𝑜𝑥 −𝐶𝑜𝑥 é aplicada sobre a variável resposta de tipo 𝑏𝑜𝑥𝑝𝑙𝑜𝑡. A segunda abordagem proposta nesse trabalho consiste de um modelo que combina agregação, seleção de protótipos e previsão de series temporais. Inicialmente, as séries temporais são agregadas em classes de entidades e representadas por 𝑏𝑜𝑥𝑝𝑙𝑜𝑡𝑠. Um processo de seleção de protótipos baseado na informação mútua é aplicado para mitigar ruídos no conjunto de dados. Por último, um modelo multivariado para previsão de 𝑏𝑜𝑥𝑝𝑙𝑜𝑡𝑠 é construído. Ambos modelos são avaliados com conjuntos de dados sintéticos e reais. Uma comparação entre as abordagens propostas e outros métodos de predição da literatura de ADS é também descrita. Além disso, este trabalho apresenta uma aplicação do mundo real no Setor Elétrico Brasileiro para fazer predição da temperatura dos motores usando a abordagem de regressão paramétrica para dados de 𝑏𝑜𝑥𝑝𝑙𝑜𝑡.
|
|
8
|
-
ALYSSON BISPO PEREIRA
-
FILTRAGEM ROBUSTA DE RUÍDO DE RÓTULO PARA PREVISÃO DE DEFEITOS DE SOFTWARE
-
Leader : RICARDO BASTOS CAVALCANTE PRUDENCIO
-
MEMBRES DE LA BANQUE :
-
ANA CAROLINA LORENA
-
ALEXANDRE CABRAL MOTA
-
ANNE MAGALY DE PAULA CANUTO
-
CLEBER ZANCHETTIN
-
LUCIANO DE ANDRADE BARBOSA
-
Data: 23 févr. 2022
-
-
Afficher le Résumé
-
Várias métricas de software e métodos estatísticos foram desenvolvidos para ajudar as empresas a prever defeitos de software. Tradicionalmente, para garantir a qualidade do software, o código-fonte pode ser inspecionado estaticamente por processos de revisão de código ou mesmo avaliado por meio da execução de testes por meio da execução do software. Por outro lado, os métodos de aprendizado de máquina foram treinados usando conjuntos de dados rotulados com base nas alterações de código e bugs relatados. Estudos anteriores demonstraram que esses conjuntos de dados são geralmente barulhentos devido a bugs não relatados ou devido a inconsistências nos relatórios de bug. Nesses casos, muitas instâncias de treinamento são atribuídas ao rótulo de classe errado. Como em qualquer outro contexto de aprendizado de máquina, o desempenho de um preditor de defeito depende de um conjunto de dados de treinamento confiável. Assim, evitar o uso de instâncias ruidosas na fase de treinamento pode ser crucial. As abordagens usadas até agora para detectar ruídos não consideraram métodos tradicionais de garantia de qualidade de software, como revisão de código. Neste artigo, propomos Robust Label Noise Filtering (RLNF) para aplicar técnicas de detecção de ruído de rótulo para identificar defeitos de software não relatados, identificando artefatos de software rotulados como livres de defeitos quando na verdade possuem defeitos ainda não encontrados pelos usuários finais. Para isso, estamos utilizando diferentes estratégias de detecção de ruído de rótulo para reproduzir os mecanismos usados no processo de revisão de código. Os experimentos foram realizados em um conjunto de benchmarking de projetos de software, alcançando resultados promissores.
|
|
9
|
-
GUSTAVO HENRIQUE FERREIRA DE MIRANDA OLIVEIRA
-
TACKLING VIRTUAL AND REAL CONCEPT DRIFTS VIA ADAPTIVE GAUSSIAN MIXTURE MODEL APPROACHES
-
Leader : ADRIANO LORENA INACIO DE OLIVEIRA
-
MEMBRES DE LA BANQUE :
-
LUIZ EDUARDO SOARES OLIVEIRA
-
JOAO GAMA
-
FRANCISCO DE ASSIS TENORIO DE CARVALHO
-
GEORGE DARMITON DA CUNHA CAVALCANTI
-
TERESA BERNARDA LUDERMIR
-
Data: 24 févr. 2022
-
-
Afficher le Résumé
-
As aplicações do mundo real têm lidado com uma grande quantidade de informações, que chegam de forma contínua e sequencialmente ao longo do tempo, caracterizadas como fluxos de dados. Esse tipo de dado desafia os algoritmos de aprendizado de máquina devido à mudança de conceito. A mudança de conceito é uma mudança na distribuição de probabilidade conjunta do problema e tem duas variações: a mudança virtual que afeta a distribuição de probabilidade incondicional p(x); e a mudança real que afeta a distribuição de probabilidade condicional p(y|x). Essas mudanças podem ocorrer separadamente e simultaneamente e ter impactos diferentes no desempenho do classificador. Os trabalhos da literatura geralmente não compreendem bem esses aspectos. Devido a isso, se concentram apenas nas mudanças reais, por que elas causam degradação direta no desempenho do classificador. No entanto, desvios virtuais também podem causar essa degradação de forma indireta. Novas observações podem chegar em uma região não treinada pelo classificador, forçando-o a confundir sua verdadeira classe, assim cometendo erros de classificação. O ideal seria ter classificadores que entendam que tipo de mudança ocorre em determinado momento para ativar estratégias apropriadas para lidar com este desafio. Este processo é chamado de entendimento da mudança. Como as abordagens da literatura não compreendem bem os diferentes impactos causados pelas mudanças virtuais e reais, o seu desempenho fica limitado. Motivados por isso, propomos três abordagens para entender o tipo da mudança e usar a estratégia correta para se adaptar, sendo elas: (i) (GMM-VRD) Gaussian Mixture Model For Dealing With Virtual and Real Concept Drifts; (ii) (OGMMF-VRD) On-line Gaussian Mixture Model With Noise Filter For Handling Virtual And Real Concept Drifts ; e (iii) (GLDD-DU) Gaussian Local Drift Detector for Drift Understanding. Essas abordagens atualizam e criam Gaussians on-line para lidar com mudanças virtuais, usam detectores de mudança para reinicializar o conhecimento do sistema para lidar com mudanças reais e recuperam modelos do pool para acelerar a adaptação a um novo conceito. Os principais resultados mostraram que todas as abordagens apresentam desempenho competitivo, mas o OGMMF-VRD foi mais consistente ao longo dos conjuntos de dados, apresentando melhor desempenho.
|
|
10
|
-
LÉUSON MÁRIO PEDRO DA SILVA
-
Detectando, Entendendo e Resolvendo Conflitos de Build e Teste
-
Leader : PAULO HENRIQUE MONTEIRO BORBA
-
MEMBRES DE LA BANQUE :
-
EVERTON LEANDRO GALDINO ALVES
-
MARCIO DE OLIVEIRA BARROS
-
BRENO ALEXANDRO FERREIRA DE MIRANDA
-
MARCIO LOPES CORNELIO
-
RODRIGO BONIFACIO DE ALMEIDA
-
Data: 24 févr. 2022
-
-
Afficher le Résumé
-
Durante o desenvolvimento colaborativo de software, desenvolvedores geralmente adotam práticas de criação e integração (merge) de ramos de desenvolvimento quando trabalham em suas contribuições, permitindo que eles contribuam para um projeto de software independentemente. Apesar destes benefícios, estas práticas vem com um custo, a necessidade de integrar software e resolver conflitos de merge, que frequentemente ocorrem na prática. Enquanto técnicas modernas de merge, tais como merge estruturado ou 3-way, podem automaticamente resolver muitos destes conflitos, elas falham quando o conflito surge no nível semântico conhecidos como conflitos semânticos. Estes conflitos são revelados por falhas durante o processo de build e execução de testes do código integrado conhecidos como conflitos de build e teste, respectivamente. Detectar estes conflitos semânticos requer um entendimento do comportamento do software, o que está além da capacidade da maioria das ferramentas de integração de código e assistentes. Para resolver a necessidade de melhores ferramentas assistentes, nós investigamos a ocorrência de conflitos semânticos identificando suas causas e propondo ferramentas que possam apoiar os desenvolvedores quando eles enfrentam estes conflitos durante integrações de código em cenários de merge. Inicialmente, nós realizamos um estudo identificando a frequência, estrutura e padrões de resolução adotados em conflitos de build analisando empiricamente 451 projetos Java open-source. Como resultado, nós provemos um catálogo de conflitos com 239 ocorrências divididos em seis categorias. A maioria dos conflitos de build são causados por declarações não-resolvidas, removidas ou renomeadas por um desenvolvedor mas referenciadas por outra pessoa. Além disso, analisando alguns destes conflitos, nós também reportamos um catálogo de padrões de resolução. Por exemplo, conflitos causados por ações de renomeações são frequentemente resolvidas por meio da atualização da referência não-resolvida, enquanto que declarações removidas são frequentemente reintroduzidas. Ferramentas de reparo automático podem se beneficiar deste último catálogo para resolver conflitos automaticamente; nós ilustramos isto com uma implementação de prova de conceito de uma ferramenta que recomenda soluções para três categorias de conflitos de build. Para avaliar a ocorrência de conflitos de teste, nós adotamos uma abordagem diferente, pois estes conflitos envolvem a semântica de um programa. Consequentemente, eles não podem ser detectados durante a fase de compilação do processo de build. Desta forma, inicialmente, nós realizamos um segundo estudo investigando sua ocorrência, explorando a criação automática de testes unitários como especificações parciais para detectar conflitos. Baseando-se em um conjunto de dados de mais de 80 mudanças mútuas em elementos de classes de 51 cenários de merge com ground-truth, nós manualmente analisamos e investigamos se conflitos de teste existiam. Em seguida, nós exploramos sistematicamente a detecção de conflitos por meio de ferramentas de geração de testes, como também a adoção de Transformações de Testabilidade visando aumentas a testabilidade do código em análise. Como resultado, nós apresentamos um catálogo de 28 conflitos de testes, dos quais 9 foram detectados por nossa abordagem. Nossos resultados mostram que a melhor abordagem para detectar conflitos envolve a combinação das ferramentas Differential EvoSuite e EvoSuite aplicadas com Transformações de Testabilidade. Como contribuição final, nós apresentamos SAM, uma ferramenta de merge semântica baseada na geração de testes unitários, que avisa desenvolvedores sobre proeminentes conflitos em cenários de merge em andamento. No geral, nossos resultados se atentam a uma lacuna na literatura sobre a ocorrência de conflitos de integração de código semânticos durante o desenvolvimento de software. Baseado no tipo de conflito, nós investigamos suas causas e opções para lidar com eles. Enquanto conflitos de build podem ser detectados e solucionados por uma ferramenta de reparo automático, conflitos de teste poderiam ser detectados por uma ferramenta de merge semântica baseada na geração de testes unitários.
|
|
11
|
-
MANOELA MILENA OLIVEIRA DA SILVA
-
Desenvolvimento de Princípios de Design para Autoria de Realidade Aumentada na Educação com Base na Perspectiva Docente
-
Leader : VERONICA TEICHRIEB
-
MEMBRES DE LA BANQUE :
-
CREDINE SILVA DE MENEZES
-
APUENA VIEIRA GOMES
-
GIORDANO RIBEIRO EULALIO CABRAL
-
PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
-
ROMERO TORI
-
Data: 4 mars 2022
-
-
Afficher le Résumé
-
Realidade Aumentada (RA) tem um impacto positivo na motivação e no desempenho cognitivo dos alunos de várias idades e em diferentes contextos. Porém, seu uso ainda está longe de ser difundido na educação. Poucas ferramentas de autoria de RA disponíveis são pensadas do ponto de vista educacional, o que evidencia a necessidade de novas pesquisas sobre ferramentas de autoria para a criação de atividades de RA. Assim, este trabalho investiga quais características são importantes na autoria de RA para a educação. Através da pesquisa baseada em design, com a participação de uma equipe interdisciplinar para investigar e propor princípios de design para autoria educacional de RA, buscamos identificar como os professores gostariam de criar experiências de RA com base em suas necessidades pedagógicas. Nosso estudo desenvolveu-se em quatro etapas: (1) análise dos problemas de RA a partir da literatura e práticos por pesquisadores e profissionais em colaboração, (2) desenvolvimento de soluções a partir de princípios de design existentes e inovações tecnológicas advindos da etapa 1, (3) ciclos iterativos de teste e refinamento das soluções identificadas na prática, e (4) desenvolvimento dos princípios de design para autoria docente de RA. Na etapa 1, realizamos entrevistas com 15 professores que usavam tecnologia; 7 professores e 2 coordenadores que utilizaram RA juntamente com uma pesquisa com 106 professores de contextos variados. Essa etapa também abrangeu a revisão da literatura. Embora os professores pareçam interessados e ávidos por aprender sobre RA, seu uso ainda não atingiu níveis mais elevados de maturidade nas escolas. Diferentes aspectos estão relacionados a isso, como falta de infraestrutura, ferramentas de autoria e tempo. Observamos a necessidade de ferramentas de RA para apoiar a colaboração, a criatividade por meio da criação de conteúdo e a capacidade de avaliar os alunos de maneiras mais flexíveis. A partir dos resultados iniciais, definimos um estudo de caso focado na aprendizagem de línguas para crianças e adolescentes. A etapa 2 consistiu em uma série de sessões interativas com um grupo interdisciplinar a fim de mapear os problemas, esboçar as soluções possíveis e decidir aquela a ser prototipada e testada. Na etapa 3, uma ferramenta de RA, Virtual Playground, que permite a criação de narrativas aumentadas de forma colaborativa, bem como sua ferramenta de autoria foi concebida, prototipada e testada com os usuários por meio de uma série de interações e ciclos iterativos de teste e refinamento de soluções. A primeira e a segunda rodada de testes foram realizadas com 5 e 6 professores de inglês com experiência prévia em RA, respectivamente. Os principais problemas relacionaram-se à limitada biblioteca 3D e à falta de possibilidades de criação. Os resultados foram usados para melhorar a UI e UX dos protótipos. Também analisamos ferramentas de autoria de RA que não exigem programação. Boa parte delas carecem de recursos importantes para os professores, especificamente os pedagógicos. Finalmente, na etapa 4, através da reflexão sobre os resultados das etapas anteriores, desenvolvemos princípios de design e aprimoramos a implementação da solução. O principal resultado deste estudo são 11 princípios de design identificados e divididos em três aspectos: infraestrutura, realidade aumentada e pedagogia. Esses princípios foram validados durante a segunda rodada de testes. O protótipo da ferramenta de autoria de RA foi baseado em sete dos princípios de design identificados e apresenta as seguintes características: é flexível e permite que os professores criem planos de aula diferentes, bem como trabalhem com diferentes habilidades e competências.
|
|
12
|
-
AMIRTON BEZERRA CHAGAS
-
A Recommender System to Support the Development of Context-Aware Intelligent Transportation Systems
-
Leader : CARLOS ANDRE GUIMARAES FERRAZ
-
MEMBRES DE LA BANQUE :
-
THAIS VASCONCELOS BATISTA
-
ABEL GUILHERMINO DA SILVA FILHO
-
DIVANILSON RODRIGO DE SOUSA CAMPELO
-
PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
-
VANINHA VIEIRA DOS SANTOS
-
Data: 8 mars 2022
-
-
Afficher le Résumé
-
O desenvolvimento de Sistemas de Transporte Inteligentes (ITS, do inglês Intelligent Transportation Systems) Sensíveis ao Contexto necessita de uma cuidadosa análise para identificar quais Elementos Contextuais podem contribuir na definição do Contexto da aplicação. Esta atividade é complexa, principalmente no cenário de ITS, muito vasto e com centenas de possibilidades. Há um conhecimento tácito em outros projetos da área e este não é utilizado atualmente em todo seu potencial por projetistas de sistemas. O objetivo desta pesquisa é analisar o uso de sensibilidade ao contexto em ITS e propor alternativas de organização desta informação para permitir a criação de ferramentas que contribuam para automatizar parte da tarefa de identificação dos elementos contextuais úteis para o desenvolvimento de uma nova aplicação. Uma revisão da literatura de projetos de ITS serviu para mapear o uso de elementos contextuais. Foram encontados 70 projetos acadêmicos, aos quais adicionou-se 3 projetos comerciais, chegando a um total de 73 projetos. Com o mapeamento, procedeu-se à definição de uma Taxonomia de Categorias de Elementos Contextuais, para aumentar a granularidade da informação e facilitar seu uso em um sistema automatizado. A taxonomia conta com 79 categorias no total. Uma base de conhecimento foi construída relacionando os 73 projetos às categorias da taxonomia. A partir da taxonomia e da base de conhecimento, foi projetado um Sistema de Recomendação de Categorias de Elementos Contextuais para ITS, que utilizando um subconjunto inicial de Elementos Contextuais já identificados como necessários para uma nova aplicação, é capaz de recomendar categorias de Elementos Contextuais para a posterior análise do projetista da aplicação. A validação do sistema de recomendação indicou sua capacidade de recomendar categorias que são relevantes aos projetos. Ao utilizar um número n >= 8 de projetos similares para identificar as categorias, mesmo limitando a quantidade de recomendações em 15 itens, em mais de 75% das vezes o sistema recomendou categorias sabidamente utilizadas para o subconjunto informado como entrada. A criação de uma taxonomia associada ao desenvolvimento de um sistema de recomendação utilizando uma base de conhecimento de projetos da área de ITS apresentou potencial de contribuir positivamente no projeto e desenvolvimento de aplicações deste domínio, permitindo a identificação e consequente uso de mais elementos contextuais relevantes para a aplicação em projeto.
|
|
13
|
-
SYLVIA EMMANUELLE CASTELO BRANCO DE HOLANDA VICTOR
-
Otimização de Aspectos do Aprendizado para Lidar com Fluxo de Dados
-
Leader : SILVIO DE BARROS MELO
-
MEMBRES DE LA BANQUE :
-
ANDRÉ CÂMARA ALVES DO NASCIMENTO
-
CLEBER ZANCHETTIN
-
EMERSON ALEXANDRE DE OLIVEIRA
-
FRANCISCO MADEIRO BERNARDINO JUNIOR
-
SERGIO DE CARVALHO BEZERRA
-
Data: 8 mars 2022
-
-
Afficher le Résumé
-
Muitos desafios de aplicações comerciais envolvem mineração de dados aplicado a classificação em fluxo de dados. Onde os classificadores são métodos incrementais de instâncias que aprendem com cada exemplo conforme chegam e são capazes de lidar com um fluxo teoricamente infinito de instâncias, suscetível a mudança de conceito, com severas restrições de tempo de processamento e quantidade de memória, além disso, também precisam ser capazes de predizer um padrão a qualquer momento. Assim sendo, diferentes modelos de classificação foram adaptados para manipular fluxos de dados nessas condições, destacando-se para este trabalho a estratégia de aprendizado adaptativo aplicado a classificação com detecção, na qual a adaptação do modelo de aprendizado leva em consideração sinais de detecção do método de detecção de mudança de conceito. Normalmente, os trabalhos da literatura de detecção de mudança de conceito escolhem essa estratégia. Entretanto, é comum nas avaliações de desempenho entre métodos detectores não fazer distinção entre métodos que consideram dos que não consideram, sinais de detecção Warning. Neste trabalho, foram analisados os impactos do sinal de detecção Warning na acurácia de modelos e para isso são fornecidas evidências empíricas, referências e justificativas para descrever os efeitos do Warning na acurácia. Deste modo, sendo possível concluir que os sinais de detecção Warning na maioria das situações analisadas, quando são omitidos degradam da acurácia Prequential, resultando em diferenças estatísticas. Baseando-se nesses resultados, foram desenvolvidas duas estratégias para melhor lidar com os efeitos do sinal de detecção Warning. Elas possuem mecanismos capazes de garantir que novos modelos sejam treinados antes de serem testados sem depender dos sinais de detecção Warning do método de detecção de mudança de conceito. Assim sendo, foi possível fornecer uma análise aprofundada comparando os impactos dos sinais de detecção Warning na acurácia Prequential, incluindo um estudo empírico para comparar várias versões diferentes de métodos de detecção de mudança de conceito em cada estratégia. Por fim, os experimentos empíricos, tanto com bases artificiais como reais e os novos algoritmos foram implementados no framework Massive Online Analysis (MOA) e executados na ferramenta MOAManager, alcançando resultados promissores nos novos algoritmos.
|
|
14
|
-
DAVI HIRAFUJI NEIVA
-
Tradução entre línguas de sinais utilizando Deep Learning
-
Leader : CLEBER ZANCHETTIN
-
MEMBRES DE LA BANQUE :
-
ADRIANO LORENA INACIO DE OLIVEIRA
-
ANDRÉ CÂMARA ALVES DO NASCIMENTO
-
FRANCISCO CARLOS MONTEIRO SOUZA
-
JOÃO FAUSTO LORENZATO DE OLIVEIRA
-
LEANDRO MACIEL ALMEIDA
-
Data: 11 mars 2022
-
-
Afficher le Résumé
-
A linguagem de sinais é a forma de expressão usada por pessoas surdas para se comunicar. É com o movimento do corpo, especialmente as mãos, que uma pessoa surda consegue se expressar. Contudo, as línguas de sinais não são universais, isso quer dizer que uma pessoa surda Alemã não poderá se comunicar adequadamente com uma pessoa surda Brasileira, por exemplo. Soluções baseadas em software utilizam aprendizagem de máquina para reconhecer gestos e traduzir de língua falada e escrita para outra, mas trabalhos que combinem esses algoritmos visando uma tradução entre língua de sinais não são frequentes. Nesta pesquisa, propomos o sAIgns, uma plataforma colaborativa web e móvel para tradução entre línguas de sinais. Utilizando a câmera do celular para capturar vídeos de uma pessoa fazendo um gesto em uma língua de sinais, o usuário poderá visualizar o gesto correspondente na sua língua de sinais materna. Nós utilizamos uma combinação de algoritmos de Deep Learning, tais como Mask R-CNN, CNN e Transformers para realizar remoção de plano de fundo, extração de características, reconhecimento de sinais e tradução. Nós propomos ainda uma abordagem de reconhecimento de sentenças em língua de sinais utilizando um conjunto de dados de palavras. Além disso, propomos uma webpage para hospedar diferentes línguas de sinais, visualizar sinais individualmente ou em sentenças e criar máscaras customizadas para as mãos. Utilizando duas bases públicas de sinais (base alemã PHOENIX-14T e base Libras V-Librasil) nossa abordagem apresentou uma melhora de WER de 4% na base PHOENIX-14T e enquanto na V-Librasil, conseguimos um WER de 21.7% e 5% para palavras e sentenças respectivamente.
|
|
15
|
-
MARCOS ROCHA DE MORAES FALCÃO
-
RESOURCE ALLOCATION FOR URLLC IN NFV-MEC
-
Leader : KELVIN LOPES DIAS
-
MEMBRES DE LA BANQUE :
-
EDMUNDO ROBERTO MAURO MADEIRA
-
ANTONIO ALFREDO FERREIRA LOUREIRO
-
DIVANILSON RODRIGO DE SOUSA CAMPELO
-
PAULO ROBERTO FREIRE CUNHA
-
RENATO MARIZ DE MORAES
-
Data: 14 mars 2022
-
-
Afficher le Résumé
-
As redes móveis 5G foram projetadas para atender a três casos de uso principais: banda larga móvel aprimorada (eMBB), comunicação massiva do tipo máquina (mMTC) e comunicação de baixa latência ultra confiável (URLLC), sendo os requisitos conflitantes de latência e confiabilidade definidos pelo URLLC considerados um problema desafiador. Nesse contexto, a Computação de Borda Multiacesso (MEC) e a Virtualização de Funções de Rede (NFV) surgem como paradigmas complementares que devem suportar URLLC, oferecendo recursos distribuídos sob demanda e de maneira granular mais próximos do Equipamento do Usuário (UE), mitigando assim problemas de camada física. Por outro lado, a adoção do NFV-MEC inevitavelmente eleva os custos de implantação e operação, muitos dos quais estão relacionados ao consumo de energia. Neste trabalho, realizamos uma análise de desempenho para a camada de virtualização da arquitetura NFV-MEC da perspectiva de um Provedor de Serviços (SP), que inclui disponibilidade de nós e consumo de energia, além dos requisitos conflitantes de URLLC. Projetamos um modelo para representar um nó NFV-MEC baseado em Cadeias Contínuas de Markov (CTMC) que contém um esquema de dimensionamento de recursos virtuais para otimizar a alocação dinâmica de recursos (DRA), que visa permitir a análise de como as solicitações críticas são processadas pelos recursos de virtualização subjacentes de um nó NFV-MEC .Para tornar o modelo mais realista, incorporamos falhas de recursos, tempos de configuração/reparo e atrasos de sobrecarga de processamento em nossa formulação, pois esses aspectos podem afetar a utilização de recursos no contexto de futuras aplicações críticas. Além disso, o Veículo Aéreo Não Tripulado (UAV) habilitado para MEC é uma opção para implantação de infraestrutura URLLC sob o paradigma NFV-MEC, que pode fornecer Linha de Visada (LoS) entre o UAV e os nós de transmissão terrestres, o que é uma vantagem desta abordagem. No entanto, neste contexto, o compromisso entre os recursos computacionais e o desempenho do URLLC torna-se ainda mais desafiador,uma vez que, em geral, os veículos aéreos não tripulados são limitados devido ao seu tamanho, peso e potência, o que impõe um ônus às funções de rede (NFs) convencionais. Portanto, também formulamos um problema multiobjetivo relacionado ao dimensionamento de nós de UAV habilitado para NFV-MEC e projetamos uma abordagem baseada em Algoritmos Genéticos (GA) para resolvê-lo.
|
|
16
|
-
FERNANDO KENJI KAMEI
-
Supporting the Use of Grey Literature in Software Engineering Research
-
Leader : SERGIO CASTELO BRANCO SOARES
-
MEMBRES DE LA BANQUE :
-
TAYANA UCHÔA CONTE
-
KATIA ROMERO FELIZARDO SCANNAVINO
-
ANDRE LUIS DE MEDEIROS SANTOS
-
FABIO QUEDA BUENO DA SILVA
-
MARCOS KALINOWSKI
-
Data: 22 mars 2022
-
-
Afficher le Résumé
-
Recentemente, é crescente o interesse em explorar a Literatura Cinza (LC) na pesquisa de Engenharia de Software (ES). Apesar disso, estudos indicaram a necessidade de entender por que e como a LC pode apoiar a pesquisa em ES, pois alguns pesquisadores são céticos quanto à sua importância e credibilidade. Por isso, focamos em melhorar a compreensão da LC e propor um conjunto de recomendações para apoiar seu uso em Estudos Secundários, com base nas opiniões dos pesquisadores e de estudos anteriores. Para atingir nosso objetivo, realizamos um conjunto de estudos empíricos. Investigamos 76 pesquisadores brasileiros para entender suas percepções sobre os benefícios e desafios da LC. Identificamos blogs e sites da comunidade como fontes comumente usadas. Motivações para usar e para evitar, e benefícios e limitações também foram explorados. Como critério para avaliar a credibilidade da LC, identificamos que a reputação do produtor da LC na comunidade é importante. Em seguida, coletamos as percepções sobre os tipos de LC e como 34 pesquisadores brasileiros avaliam sua credibilidade. Embora tenhamos identificado entendimentos controversos, a maioria das fontes da LC tem controle e credibilidade de baixa a moderada. Com base em um estudo terciário, analisamos 126 estudos secundários para apresentar tendências, conceitos empregados, tipos de LC e métodos usados para selecionar e realizar a avaliação da qualidade da LC. Nossas descobertas mostram um crescimento no uso da LC nos últimos anos. Não identificamos uma definição comum da LC, e há diferentes interpretações sobre seus tipos entre os estudos. Curiosamente, apenas sete estudos empregaram critérios específicos para avaliar a qualidade do LC, e cerca de 1/4 da LC não estão mais disponíveis. Realizamos outro estudo terciário para avaliar como o uso de LC contribuiu para nove revisões multivocais da literatura. Identificamos evidências que não seriam encontradas se a LC não fosse considerada. Essas fontes forneceram principalmente recomendações e explicaram tópicos. Por fim, realizamos dois grupos focais com dez pesquisadores de ES para avaliar as diretrizes de Garousi. Em geral, as diretrizes são úteis, embora problemas tenham sido percebidos. Fornecemos recomendações para lidar com esses problemas e melhorar as diretrizes de Garousi. Nossas investigações mostram a importância do uso de LC na pesquisa de ES. No entanto, também identificamos desafios que os pesquisadores podem enfrentar. Nos esforçamos para mitigá-los, fornecendo critérios para avaliar a credibilidade e recomendações aos pesquisadores para lidar melhor com a LC.
|
|
17
|
-
EDUARDO SANTOS SILVA
-
VioLED: instrumento musical aumentado + software como serviço para adesão e engajamento do público no aprendizado musical
-
Leader : GIORDANO RIBEIRO EULALIO CABRAL
-
MEMBRES DE LA BANQUE :
-
JEAN-PIERRE MICHEL BRIOT
-
FLÁVIO LUIZ SCHIAVONI
-
ANDRE MENEZES MARQUES DAS NEVES
-
FILIPE CARLOS DE ALBUQUERQUE CALEGARIO
-
LUCAS SILVA FIGUEIREDO
-
Data: 25 mars 2022
-
-
Afficher le Résumé
-
Nos últimos anos, a área de computação musical tem presenciado o surgimento de diversas tecnologias que permitem novas formas de interação com música, variando desde novas formas de reprodução musical aos chamados Instrumentos Musicais Digitais (DMIs) e smart instruments. Particularmente, os avanços nas áreas de Internet das Coisas (IoT) e interfaces gestuais proporcionam a criação instrumentos musicais aumentados, que utilizam estas tecnologias para incorporar novas funcionalidades. No contexto de aprendizado musical, surgem sistemas que utilizam LEDs para exibir o conteúdo musical diretamente no corpo do instrumento – e.g. Fretlight, Fret Zealot e populele –, os quais serão referenciados como instrumentos musicais aumentados para estudo (AMIS, do inglês Augmented Musical Instruments for Study). Isto gera novas oportunidades para auxiliar o aprendizado de instrumentos musicais, que envolve a aquisição de habilidades cognitivas e motoras para entendimento de conceitos musicais e tradução destes conceitos para o instrumento. Desta forma, é possível que estas tecnologias possam ser utilizadas para solucionar alguns dos obstáculos relacionados com este aprendizado, e.g., guiar e motivar o estudante no aprendizado, auxiliar na aquisição destas habilidades, etc. Entretanto, estes sistemas estão inseridos em um contexto de design de interação que envolve demandas em diferentes dimensões: sistemas interativos, design simultâneo de hardware e software, sistemas de “tempo real” e o aprendizado musical. Isto demanda de aspectos de engenharia (e.g. consumo de energia, latência, confiabilidade); de usabilidade (e.g. legibilidade, antecipação e oclusão de informação); do processo de design (e.g. exploração de ideias, prototipação, seleção dos recursos, adaptabilidade a mudanças de sistema); do aprendizado musical (e.g. motivação do usuário, diferentes formas de aprendizado, etc.); além do fato de ser uma área relativamente nova, carente de métodos e diretrizes de design estruturados. Assim, este projeto busca investigar se estes AMIS podem ser utilizados para auxiliar o aprendizado, buscando atingir uma parcela do público não coberta pelas soluções existentes para o aprendizado de instrumentos, focando especialmente no processo de ativação e engajamento dos estudantes no aprendizado. Desta forma, busca-se atender as demandas dos usuários e possivelmente levantar insights que possam auxiliar futuros designers de sistemas similares. Para isso, está sendo desenvolvido, em parceria com a empresa Daccord Music Software, um violão com LEDs capaz de exibir notas/acordes musicais na escala do instrumento, focando principalmente no serviço para este AMIS. Foram realizados dois ciclos de desenvolvimento para ambos o hardware e o aplicativo do sistema além de testes com potenciais usuários. Identificou-se também obstáculos no processo que apontam para decisões de design, como antecipação de conteúdo, oclusão, consumo de energia, etc. que podem auxiliar futuros designers na criação de sistemas similares.
|
|
18
|
-
FLÁVIA MÉRYLYN CARNEIRO FALCÃO
-
Safe and Constructive Design with UML Components
-
Leader : AUGUSTO CEZAR ALVES SAMPAIO
-
MEMBRES DE LA BANQUE :
-
ALEXANDRE CABRAL MOTA
-
ANA CRISTINA VIEIRA DE MELO
-
JULIANO MANABU IYODA
-
MARCEL VINICIUS MEDEIROS OLIVEIRA
-
MARCIO LOPES CORNELIO
-
Data: 29 mars 2022
-
-
Afficher le Résumé
-
AAAA
|
|
19
|
-
MARCOS JOSÉ CANÊJO ESTEVÃO DE AZEVÊDO
-
Segmentação de Imagens de Cenas Naturais Baseada no \textit{Speed Drawing Challenge} com Aplicação em Segmentação de Mapas e Plantas Baixas
-
Leader : CARLOS ALEXANDRE BARROS DE MELLO
-
MEMBRES DE LA BANQUE :
-
CLEBER ZANCHETTIN
-
FRANCISCO MADEIRO BERNARDINO JUNIOR
-
MARCELO WALTER
-
MYLENE CHRISTINE QUEIROZ DE FARIAS
-
TSANG ING REN
-
Data: 30 mars 2022
-
-
Afficher le Résumé
-
O Speed Drawing Challenge consiste em um desafio em que artistas devem representar um desenho em segundos sem perder as principais características que o tornam fiel ao desenho original. À medida que o tempo é reduzido, o artista se encaminha a produzir um desenho mais simples, se aproximando de um desenho contendo apenas os traços mais representativos, focando nos contornos. Para o problema de detecção de contorno, uma imagem de borda representa um desenho produzido sem uma grande limitação de tempo. Assim, o método proposto faz uso dos conceitos de superpixel, detecção de bordas e mapas de saliência para produção de uma imagem, simulando a variação de tempo do Speed Drawing Challenge: a modelagem do desafio em poucos segundos expressa uma imagem com apenas os contorno mais relevantes detectados. Diferente das técnicas do estado-da-arte, o método proposto gera uma imagem de bordas já final, sem necessidade de posterior pós-processamento como binarização. Mais do que um algoritmo apenas, propomos uma metodologia que pode ser aplicada de formas diferentes, mas seguindo a mesma ideia, em outros domínios, como na segmentação de mapas e plantas baixas. Os resultados alcançados foram bastante promissores quando o método é aplicado a imagens de cenas naturais e plantas baixas.
|
|
20
|
-
JÉFERSON KÉNEDY MORAIS VIEIRA
-
MPO: A Model for Projects Observatories
-
Leader : HERMANO PERRELLI DE MOURA
-
MEMBRES DE LA BANQUE :
-
EDSON LUIZ RICCIO
-
DORZELI SALETE TRZECIAK
-
ALEXANDRE MARCOS LINS DE VASCONCELOS
-
DANIEL CARVALHO DA CUNHA
-
JOSE ADSON OLIVEIRA GUEDES DA CUNHA
-
Data: 1 avr. 2022
-
-
Afficher le Résumé
-
Ao trigésimo dia do mês de setembro do ano de dois mil e vinte, às catorze horas e trinta minutos, no Centro de Informática da Universidade Federal de Pernambuco, teve início a defesa de Proposta de Tese de Doutorado em Ciência da Computação do aluno Jeferson Kenedy Morais Vieira intitulada “MPO: A Model for Projects Observatories” elaborada sob a orientação do professor Hermano Perrelli de Moura. A Banca Examinadora, composta pelos professores Alexandre Marcos Lins de Vasconcelos, Daniel Carvalho da Cunha, ambos pertencentes ao Centro de Informática desta Universidade e Edson Luiz Riccio pertencente ao Departamento de Contabilidade Atuária da Universidade de São Paulo, sendo o primeiro presidente da Banca Examinadora decidiu: Aprovar o trabalho. E para constar lavrei a presente ata que vai por mim assinada e pela Banca Examinadora. Recife, 30 de setembro de 2020.
|
|
21
|
-
ANDREA MARIA NOGUEIRA CAVALCANTI RIBEIRO
-
Gerenciamento de energia elétrica de uma indústria de resinas termoplásticas
-
Leader : DJAMEL FAWZI HADJ SADOK
-
MEMBRES DE LA BANQUE :
-
ALUIZIO FAUSTO RIBEIRO ARAUJO
-
EDUARDO JAMES PEREIRA SOUTO
-
GLAUCO ESTACIO GONÇALVES
-
GUSTAVO MEDEIROS DE SOUZA AZEVEDO
-
NELSON SOUTO ROSA
-
Data: 1 avr. 2022
-
-
Afficher le Résumé
-
A eletricidade se tornou uma das principais fontes de calor e de força nas indústrias, representando um percentual importante nos custos da produção. É possível afirmar que no contexto mundial o setor industrial é o maior consumidor de energia elétrica e a fabricação com uso de energia-intensiva é o maior componente desse setor. No contexto nacional o consumo de energia elétrica pelas indústrias atualmente representa 35% do consumo total de energia consumida no país. A busca por uma melhor eficiência energética pelo setor industrial, vem tornando, cada vez mais frequente. O uso de dispositivos de Internet of Things (IoT), energias renováveis, gerenciamento e monitoramento de energia, bem como Inteligência Artificial (IA) são alternativas para alcançar a redução e o consumo consciente da energia elétrica. Desta forma, esta pesquisa de doutorado teve como objetivo o desenvolvimento de um framework de gerenciamento de energia elétrica em uma indústria de resinas termoplásticas. O framework recebe como entrada dados de variáveis elétricas e variáveis de processo da planta industrial e produz como saída informações para auxiliar a tomada de decisão: gráficos com a predição do identificador de desempenho energético; alertas; faixas de vazão de produção e tempo de produção; retorno do investimento de um dado equipamento ou material, entre outros. O processamento desses dados é realizado através da integração entre três modelos baseados em técnicas de IA, otimização linear e lei da afinidade - modelo de predição do consumo de energia elétrica, escalonamento da vazão de produção e viabilidade de materiais e equipamentos. Para validação do framework um estudo de caso foi realizado e foi verificado uma economia de 9,74% oriunda da aplicação do modulo de escalonamento e uma economia mensal de aproximadamente R$ 9.000 oriunda do módulo de viabilidade. Além disso, o framework contribuiu para a manutenção do certificado da ISO 50001.
|
|
22
|
-
CECILIA CORDEIRO DA SILVA
-
Uma metodologia para construção de preditores de doenças baseada em Aprendizado de Máquina, Computação Bioinspirada e Análise Espaço-Temporal
-
Leader : ABEL GUILHERMINO DA SILVA FILHO
-
MEMBRES DE LA BANQUE :
-
ANA LUCIA BEZERRA CANDEIAS
-
GISELLE MACHADO MAGALHAES MORENO
-
JOÃO FAUSTO LORENZATO DE OLIVEIRA
-
MANOEL EUSEBIO DE LIMA
-
TIAGO LIMA MASSONI
-
Data: 20 juin 2022
-
-
Afficher le Résumé
-
Em um mundo cada vez mais conectado por meio de vias físicas e virtuais, pessoas e dados circulam com cada vez mais facilidade. As mudanças demográficas e o intenso fluxo migratório das zonas rurais para as regiões urbanas geraram um crescimento desordenado das cidades. Isso combinado à ausência de boas condições de saneamento básico contribui para a proliferação do vetor. A emergência de surtos epidêmicos, como a dengue, a febre chikungunya, a zika e outras doenças tem contribuído para construir um cenário cada vez mais desafiador. A recente pandemia de Covid-19 trouxe grandes mudanças em escala mundial. Nesse cenário, cresceu fortemente o interesse por técnicas para predição espacial e temporal da distribuição de doenças a partir de tecnologias como a Internet das Coisas, aprendizado de máquina e múltiplas bases de dados. Este trabalho tem como objetivo geral propor uma metodologia para construção de preditores capazes de prever a distribuição espaço-temporal de doenças e apontar os fatores mais relevantes para a predição a partir de uma arquitetura baseada no acesso a múltiplas bases de dados. Para validação da proposta, foi adotada como estudo de caso a predição de casos de arboviroses por meio de séries históricas georreferenciadas de informações climáticas e ambientais utilizando técnicas de aprendizado de máquina. Essas informações são coletadas de múltiplos bancos de dados georreferenciados, previamente construídos a partir da coleta de informações por redes de sensores e do Sistema Único de Saúde. Foram utilizadas informações da Cidade do Recife, de casos de arboviroses (dengue, chikungunya e zika) de 2013 a 2016, e informações climáticas e ambientais do mesmo período, da APAC e doINMET. Os sistemas de predição de doenças construídos utilizando a metodologia proposta neste trabalho também devem ser capazes de apontar os fatores mais relevantes para a predição por meio do Comitê de Especialistas Artificiais, proposto neste trabalho e composto de um conjunto de algoritmos de seleção de atributos baseados em métodos de otimização por Computação Evolucionária. O Comitê de Especialistas Artificiais decide por votação. Os melhores resultados de predição de casos foram obtidos com regressão por Random Forest. Os valores do coeficiente de correlação de Pearson foram superiores a 0,99, enquanto o RMSE (%) se manteve inferior a 6%. Os índices de Kendall e Spearman também se mantiveram altos: seus valores foram superiores a 0,99 para Spearman e maiores que 0,90 para Kendall. O desempenho superior da Random Forest mostra que o problema de regressão é de difícil generalização, dado que a Random Forest é baseada em comitês de árvores de decisão e a regressão é realizada por uma média ponderada dos resultados das diferentes árvores de decisão que compõem o modelo.
|
|
23
|
-
DAVID LOPES DE MACÊDO
-
Towards Robust Deep Learning usingEntropic Losses
-
Leader : TERESA BERNARDA LUDERMIR
-
MEMBRES DE LA BANQUE :
-
RICARDO MATSUMURA DE ARAÚJO
-
ADRIANO LORENA INACIO DE OLIVEIRA
-
BYRON LEITE DANTAS BEZERRA
-
JOÃO FAUSTO LORENZATO DE OLIVEIRA
-
TSANG ING REN
-
Data: 27 juin 2022
-
-
Afficher le Résumé
-
Apesar das conquistas teóricas e resultados práticos encorajadores, o aprendizado profundo ainda apresenta limitações em muitas áreas, como raciocínio, inferência causal, interpretabilidade e explicabilidade. Do ponto de vista da aplicação, uma das restrições mais impactantes está relacionada à robustez desses sistemas. De fato, as soluções atuais de aprendizado profundo são bem conhecidas por não informar se podem classificar um exemplo de maneira confiável durante a inferência. As redes neurais modernas geralmente são superconfiantes, mesmo quando estão erradas. Portanto, construir aplicativos robustos de aprendizado profundo é atualmente um tópico de pesquisa de ponta em visão computacional, processamento de linguagem natural e muitas outras áreas. Uma das maneiras mais eficazes de construir soluções de aprendizado profundo mais confiáveis é melhorar seu desempenho na chamada tarefa de detecção fora de distribuição, que consiste essencialmente em ``saber que você não sabe'' ou ``conhecer o desconhecido''. Em outras palavras, sistemas com capacidade de detecção fora de distribuição podem rejeitar a realização de uma classificação sem sentido quando submetidos a instâncias de classes nas quais a rede neural não foi treinada. Esta tese aborda a desafiadora tarefa de detecção fora da distribuição, propondo novas funções de perda e pontuações de detecção. A estimativa de incerteza também é uma tarefa auxiliar crucial na construção de sistemas de aprendizado profundo mais robustos. Portanto, tratamos também dessa tarefa relacionada à robustez, que avalia quão realistas são as probabilidades apresentadas pela rede neural profunda. Para demonstrar a eficácia de nossa abordagem, além de um conjunto substancial de experimentos, que incluí resultados estado-da-arte, utilizamos argumentos baseados no princípio da máxima entropia para estabelecer a fundamentação teórica das abordagens propostas. Ao contrário da maioria dos métodos atuais, além de apresentarem inferência rápida e eficiente, nossas perdas e pontuações são soluções baseadas em princípios e não produzem efeitos colaterais indesejados. Além disso, nossas abordagens podem ser incorporadas em projetos atuais e futuros simplesmente substituindo a perda usada para treinar a rede neural profunda e computando uma pontuação rápida para detecção.
|
|
24
|
-
RODRIGO GOMES DE SOUZA
-
Seleção automática de fatias em volumes de imagens tomográficas: Estudo de caso no apoio ao diagnóstico da Doença de Alzheimer
-
Leader : MANOEL EUSEBIO DE LIMA
-
MEMBRES DE LA BANQUE :
-
ABEL GUILHERMINO DA SILVA FILHO
-
GISELLE MACHADO MAGALHAES MORENO
-
MARCELO CAIRRAO ARAUJO RODRIGUES
-
RICARDO EMMANUEL DE SOUZA
-
SIDNEY MARLON LOPES DE LIMA
-
Data: 30 juin 2022
-
-
Afficher le Résumé
-
Com o advento da Quarta Revolução Industrial, as tecnologias da Indústria 4.0 têm acele- rado o processo de transformação digital dos sistemas nacionais de saúde, tanto públicos quanto complementares, incorporando a Inteligência Artificial, a Internet das Coisas, a Robótica e a Biotecnologia à prática clínica, terapêutica e de gestão de recursos em saúde. Com a pandemia de Covid-19, também se intensificou o uso de técnicas avançadas de diagnóstico por imagem. Apesar da sofisticação do diagnóstico por imagem por conta da possibilidade de gerar laudos rápidos e precisos, esses exames exigem um alto conheci- mento especialista. Contudo, a dependência do conhecimento especialista humano pode acarretar em diagnósticos tardios e, por conseguinte, maus prognósticos. Esse problema é especialmente mais grave quando se consideram imagens volumétricas: estruturas associ- adas a determinadas doenças com bons prognósticos quando detectadas precocemente podem ser ignoradas até mesmo por especialistas com grande experiência, por razões diversas, incluindo aí a fadiga humana, dada a complexidade envolvida na análise humana de volumes. Devido ao potencial dos impactos à saude pública e à economia de forma geral, a Doença de Alzheimer, DA, tornou-se um dos maiores desafios à ciência na última década. Contudo, grande parte dos estudos que propõem métodos de suporte ao diagnóstico da doença apresentam dificuldades para sua adoção na prática clínica. Este trabalho tem como objetivo geral construir uma metodologia para selecionar planos de visualização e cortes ou fatias em imagens biomédicas volumétricas, de forma que se otimize o diagnóstico por meio da transformação de um problema tridimensional em bidimensional. A seleção da fatia e dos planos de visualização é feita com o auxílio de um algoritmo evolucionário guiado por um classificador. Como estudo de caso, foi escolhido o problema do apoio ao diagnóstico da doença de Alzheimer. Utilizando volumes MRI da base ADNI-3, este estudo apresenta um modelo baseado em computação evolucionária e aprendizado de máquina capaz de identificar e utilizar o conjunto de fatias 2D mais adequado para maximizar cada uma das métrica relacionadas ao diagnóstico da doença de Alzheimer. Por meio de uma seleção ótima de fatias os melhores resultados para especificidade, sensibilidade e acurácia obtidos em cada classe foram respectivamente: normal (94,58%, 81,08%, 86.64%), déficit cognitivo leve (94,83%, 89,32%, 89,89%) e Alzheimer (92,99%, 92,06%, 90,61%) para mulheres, e normal (91,93%, 93,42%, 91.30%), déficit cognitivo leve (98,17%, 80,53%, 86,29%) e Alzheimer (95,86%, 90,91%, 94,31%) para homens. Assim, este trabalho apresenta um modelo para apoiar o diagnóstico de doença de Alzheimer e déficit cognitivo leve, apresentando bom desempenho de classificação, considerando também as informações de gênero para produzir melhorias significativas no diagnóstico da doença de Alzheimer.
|
|
25
|
-
MICHAEL OLIVEIRA DA CRUZ
-
Applying Language Modeling to Detect Anomalies in Bus Trajectories
-
Leader : LUCIANO DE ANDRADE BARBOSA
-
MEMBRES DE LA BANQUE :
-
CLODOVEU AUGUSTO DAVIS JUNIOR
-
CLAUDIO DE SOUZA BAPTISTA
-
JOSE ANTONIO FERNANDES DE MACEDO
-
KIEV SANTOS DA GAMA
-
PAULO SALGADO GOMES DE MATTOS NETO
-
Data: 1 juil. 2022
-
-
Afficher le Résumé
-
A descoberta de trajetórias anômalas de ônibus no tráfego urbano pode ajudar as agências de transporte a melhorar seus serviços, fornecendo um melhor planejamento para lidar com eventos inesperados, como fenômenos climáticos, desvios ou acidentes. Para ajudar a identificar a causa potencial da anomalia, podemos detectar trajetórias anômalas e também identificar onde a anomalia está localizada. No entanto, um grande desafio para realizar esta tarefa é a falta de dados de trajetória anômala rotulados. A falta desses dados rotulados dificulta a avaliação de modelos e a construção de abordagens de aprendizagem indutivas. Além disso, as abordagens anteriores dependem fortemente de tarefas de pré-processamento para segmentar trajetórias antes de detectar a anomalia. Essa estratégia não é apenas cara, mas também pode perder informações importantes porque os segmentos são analisados individualmente sem considerar o relacionamento entre os segmentos. Por fim, poucas estratégias na literatura propõem soluções online, o que restringe sua contribuição em tempo real. Com base nisso, esta tese tem como objetivo propor uma abordagem online baseado em aprendizado indutivo para detectar trajetórias anômalas de ônibus e identificar os segmentos anômalos. Para isso, inicialmente observamos que as trajetórias de ônibus são pré-definidas e bem formadas, e incluem a informação de rotas. Com base nisso, supomos que uma abordagem supervisionada poderia aprender a classificar essas trajetórias de ônibus de acordo com as rotas e detectar indiretamente quais delas são anômalas. Assim, propomos um classificador multiclasse chamado Spatial-Temporal Outlier Detection como nossa primeira solução para detectar trajetórias anômalas. Usamos a incerteza da classificação aplicando a função de entropia sobre a distribuição de classes para gerar um score de anomalia. Embora experimentos extensivos tenham mostrado resultados promissores, nossa primeira solução não pode identificar onde ocorrem os segmentos anômalos. Para superar essa restrição, nossa intuição é que as trajetórias podem ser representadas como uma sequência de tokens semelhantes a frases de palavras que nos permitem aplicar um modelo de linguagem. Consequentemente, propomos usar uma abordagem baseada na arquitetura generativa de redes neuronais profundas chamada encoder-decoder Transformer para aprender a relação entre pontos de trajetória sequenciais com base no mecanismo de autoatenção. Nossa solução final não requer nenhuma extração manual de recursos e pode ser facilmente adaptada a outros tipos de trajetórias (por exemplo, carro, pessoas e embarcações). Realizamos uma extensa avaliação experimental que mostra: (1) nossa abordagem é eficaz para detecção de anomalias de trajetória e subtrajetória; e (2) supera os métodos usados para comparação em alguns cenários e alcança estatisticamente resultados comparáveis em outros cenários.
|
|
26
|
-
MARCIO ALEXANDRE PEREIRA DA SILVA
-
Uma Arquitetura de Software Adaptativa baseada em Arquétipo OpenEHR para Sistemas de Informação em Saúde
-
Leader : VALERIA CESARIO TIMES ALVES
-
MEMBRES DE LA BANQUE :
-
RICARDO JOÃO CRUZ CORREIA
-
CLAUDIA MARIA CABRAL MORO BARRA
-
GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
-
LUCIANO DE ANDRADE BARBOSA
-
VINICIUS CARDOSO GARCIA
-
Data: 28 juil. 2022
-
-
Afficher le Résumé
-
A adaptabilidade de software confere, aos sistemas de informação, a capacidade de ajustar o seu comportamento ou estrutura, mediante mudanças tanto em seu ambiente de execução, como em seus requisitos de software. É uma abordagem eficaz para lidar com ambientes dinâmicos e mutáveis, como o ambiente no qual estão inseridos os sistemas de informação em saúde (SIS) que utilizam arquétipo, um padrão openEHR. Um arquétipo pode ser definido como uma expressão computacional representada por restrições de domínio, que modelam os atributos de dados e dão significado semântico aos registros eletrônicos de saúde. Nesse contexto de ambientes mutáveis, os ajustes manuais (na implementação, nos testes e na implantação), efetuados nos SIS com o intuito de deixá-los em conformidade com novas demandas, significam um prejuízo bilionário. Por outro lado, adicionar recurso de adaptabilidade de software a esses SIS também complica significativamente a fase de implementação e traz grandes desafios às práticas de Engenharia de Software. Desta forma, esta tese apresenta uma solução que fornece um mecanismo de adaptabilidade aos SIS que utilizam arquétipos. Essa solução é uma arquitetura de software que adapta seus componentes, em tempo de execução, conforme os arquétipos utilizados no SIS. Essa arquitetura tem quatro camadas: modelo de dados, interface do usuário, adaptação em tempo de execução e serviço CRUD. A camada modelo de dados contém o artefato computacional utilizado para representar o RES, isto é, arquétipos. A camada interface do usuário interage com o utilizador do software e possui dois módulos: formulário com arquétipo e controlador. A camada adaptação em tempo de execução tem dois módulos: sensor e adaptador, com os quais os componentes da arquitetura são adaptados ao SIS, conforme os arquétipos utilizados na interface do usuário. A camada serviço CRUD contém um conjunto do módulo serviço CRUD de um arquétipo, o qual executa operações de escrita, leitura, atualização e exclusão de dados. Além disso, a ferramenta AdaptiveHIS foi desenvolvida para avaliação experimental da adaptabilidade da solução proposta nessa tese. Essa ferramenta permite construir uma aplicação de SIS com base na arquitetura proposta. Nessa avaliação, comparou-se a arquitetura proposta com outras arquiteturas construídas por cinco ferramentas do estado da arte: EhrScape, EhrBase, MARCIA, Template4EHR e Microservice4EHR. Também, mensurou-se o quão adaptável essas arquiteturas são em um ambiente mutável. Como resultado, a arquitetura apresentada nesta tese aumenta em até 62% a adaptabilidade dos SIS. Por fim, esta proposta permite que SIS sejam adaptáveis em ambientes dinâmicos e mutáveis, tornando menos dispendiosa a manutenção desses softwares, uma vez que não há necessidade de alocação de recursos manuais para adequar o software às novas demandas.
|
|
27
|
-
JARBAS NUNES VIDAL FILHO
-
Infraestrutura de Dados Espaciais para Análise e Documentação de Trajetórias Semânticas de Objetos Móveis
-
Leader : VALERIA CESARIO TIMES ALVES
-
MEMBRES DE LA BANQUE :
-
ANA CAROLINA BRANDAO SALGADO
-
CARLOS ANDRE GUIMARAES FERRAZ
-
CLAUDIO DE SOUZA BAPTISTA
-
CLODOVEU AUGUSTO DAVIS JUNIOR
-
RICARDO RODRIGUES CIFERRI
-
Data: 29 juil. 2022
-
-
Afficher le Résumé
-
Trajetórias Brutas de Objetos Móveis (TBOM) correspondem a uma sequência de pontos coletados a partir de um objeto móvel que se desloca durante um intervalo de tempo no espaço. Após coleta da TBOM, é preciso adicionar vários tipos de informações semânticas às trajetórias coletadas como, por exemplo, anotações sobre locais visitados pelo objeto móvel ou tipos de transporte utilizados. Essas TBOM enriquecidas semanticamente são chamadas aqui de Trajetórias Semânticas de Objetos Móveis (TSOM). A literatura reporta diversos trabalhos sobre enriquecimento semântico de TBOM, descrevendo diferentes tipos aplicações específicas para analisar comportamento de objetos móveis. Entretanto, pouca atenção tem sido dada ao uso de Infraestruturas de Dados Espaciais (IDE) para enriquecer, analisar e documentar TSOM. No entanto, o crescimento de Big Data gerado pelos usuários, como dados produzidos por redes sociais ou coletados por equipamentos eletrônicos com sensores embarcados, faz com que o TSOM exija serviços Web modernos e padrões de metadados atualizados para viabilizar a documentação dos dados e garantir a qualidade das TSOM. Por outro lado, as IDEs fornecem um ambiente interoperável e integrado compartilhado para documentação de dados. O principal objetivo desta tese é como evoluir as IDEs tradicionais para documentar TSOM, pois faltam padrões de metadados e serviços de anotação semântica específicos no contexto das IDEs. Esta tese apresenta um novo conceito de IDE para TSOM, denominado SDI4Trajectory, que suporta a documentação de diferentes tipos de TSOM, por exemplo, trajetórias holísticas. Por meio da SDI4Trajectory nós propomos: 1) um conjunto mínimo de elementos baseado no padrão de metadados ISO 19115-1:2014 para documentar TSOM de forma semiautomática, 2) método para identificação de pontos semânticos em TBOM e, 3) processos de enriquecimento semântico semiautomático e manual, que são eficientes para apoiar anotações semânticas e documentação de TSOMs. Esses processos dificilmente são encontrados em IDEs tradicionais e têm sido desenvolvidos por meio de microsserviços Web e semânticos. Para validar a SDI4Trajectory, utilizamos um conjunto de dados coletados por usuários voluntários através do aplicativo MyTracks com os seguintes objetivos: (i) comparar os processos de enriquecimento semântico semiautomático e manual no SDI4Trajectory; (ii) investigar a viabilidade das abordagens de documentação realizadas pela SDI4Trajectory; (iii) validar os elementos de metadados propostos para documentar TSOM. Utilizamos também os dados do projeto Geolife para realizar experimentos com os métodos de identificação de pontos semânticos e na documentação de conjunto de TSOMs na SDI4Trajectory. Como resultados, nós validamos o novo conceito de IDE para TSOM, pois a partir dos experimentos foi possível concluir que a SDI4Trajectory possibilita o enriquecimento, análise e documentação de trajetórias de objetos móveis.
|
|
28
|
-
FELIPE COSTA FARIAS
-
Embarrassingly Parallel Autoconstructive Multilayer Perceptron Neural Networks
-
Leader : TERESA BERNARDA LUDERMIR
-
MEMBRES DE LA BANQUE :
-
BYRON LEITE DANTAS BEZERRA
-
CLEBER ZANCHETTIN
-
GUILHERME DE ALENCAR BARRETO
-
JOSE ALFREDO FERREIRA COSTA
-
PAULO SALGADO GOMES DE MATTOS NETO
-
Data: 5 août 2022
-
-
Afficher le Résumé
-
Nesta tese foi desenvolvido um método para a construção automática de Redes Neurais Multilayer Perceptron (MLPs). Para isso, propomos um algoritmo de splitting de dados (Similarity Based Stratified Splitting) que procura manter as características estatísticas entre os splits gerados de forma a treinar melhores modelos. Estes splits são utilizados para o treinamento de diversas MLPs com diferentes arquiteturas de forma paralela e independente (ParallelMLPs), utilizando uma multiplicação matricial modificada, que aproveita o princípio da localidade para acelerar o treinamento destas redes entre 1 e 4 ordens de grandeza, quando comparamos com o treinamento sequencial dos modelos. Além disso, discutimos diferentes políticas de seleção dessas MLPs dado um pool de modelos complexos de tamanho considerável.
|
|
29
|
-
WANESSA WERIDIANA DA LUZ FREITAS
-
Análise Exploratória e Regressão Espacial para Dados Simbólicos Intervalares
-
Leader : RENATA MARIA CARDOSO RODRIGUES DE SOUZA
-
MEMBRES DE LA BANQUE :
-
FERNANDA DE BASTIANI
-
MARCUS COSTA DE ARAUJO
-
NIVAN ROBERTO FERREIRA JUNIOR
-
ROBERTA ANDRADE DE ARAÚJO FAGUNDES
-
RONEI MARCOS DE MORAES
-
Data: 15 août 2022
-
-
Afficher le Résumé
-
A Análise de Dados Espaciais é uma área que busca identificar padrões existentes em uma determinada região através de metodologias próprias. A compreensão da dependência espacial de um fenômeno em uma dada região pode ser mensurada através de abordagens envolvendo a noção de autocorrelação espacial. Essas técnicas são usualmente empregadas no contexto de variáveis clássicas (pontuais). Por outro lado, a Análise de Dados Simbólicos é uma área de pesquisa e aplicação relacionada às áreas de aprendizagem de máquina e estatística, que fornecem ferramentas para descrever unidades (objetos), permitindo lidar com diversos tipos de variáveis, inclusive variáveis do tipo intervalar. Uma questão relevante consiste em tentar obter uma descrição da autocorrelação espacial para variáveis do tipo intervalar. Assim, neste trabalho buscamos conciliar a análise de dados simbólicos (variáveis intervalares) com a análise de dados espaciais. Mais especificamente, o presente estudo tem o intuito de identificar o comportamento de informações georreferenciadas para dados intervalares na Análise de Dados Simbólicos. Os objetivos principais são: i) estender o índice de autocorrelação espacial de Moran da Análise Exploratória Espacial para o caso de dados intervalares e ii) avaliar esses dados por meios de modelos de regressão. Para analisarmos os índices de autocorrelação espacial intervalar propostos, realizamos experimentos com conjuntos de dados sintéticos do tipo intervalo. Além disso, analisamos duas aplicações para dados reais. A primeira utiliza dados de notificações de casos de COVID-19 para o nordeste brasileiro e a segunda está relacionada ao preço de aluguel de imóveis na cidade de Munich. No contexto de regressão, utilizamos o modelo de regressão linear para dados do tipo intervalar e um modelo de regressão espacial, que leva em consideração a conectividade existente entre as regiões. Para avaliarmos o desempenho dessas abordagens, realizamos simulações de Monte Carlo em que calculamos a média e o desvio padrão da magnitude relativa do erro da estimativa dos modelos analisados.
|
|
30
|
-
ROGÉRIO CESAR PEIXOTO FRAGOSO
-
Clustering-based Dynamic Ensemble Selection for One-Class Decomposition
-
Leader : GEORGE DARMITON DA CUNHA CAVALCANTI
-
MEMBRES DE LA BANQUE :
-
YANDRE MALDONADO E GOMES DA COSTA
-
ADRIANO LORENA INACIO DE OLIVEIRA
-
GEORGE GOMES CABRAL
-
PERICLES BARBOSA CUNHA DE MIRANDA
-
RENATO VIMIEIRO
-
Data: 24 août 2022
-
-
Afficher le Résumé
-
Uma solução natural para lidar com problemas multiclasse é empregar classificadores multiclasse. No entanto, em situações específicas, como dados desbalanceados ou grande número de classes, é mais eficaz decompor o problema multiclasse em vários problemas mais fáceis de resolver. A decomposição em uma classe é uma alternativa, onde classificadores de uma classe (OCCs) são treinados para cada classe separadamente. No entanto, ajustar os dados de forma otimizada é um desafio para OCCs, principalmente quando os dados apresentam uma distribuição intraclasse complexa. A literatura mostra que sistemas de múltiplos classificadores são inerentemente robustos em tais casos. Assim, a adoção de múltiplos OCCs para cada classe pode levar a uma melhoria na decomposição de uma classe. Com isso em mente, neste trabalho apresentamos dois métodos para classificação de problemas multiclasse através ensembles de OCCs. One-class Classifier Dynamic Ensemble Selection for Multi-class problems (MODES, para abreviar) e Density-Based Dynamic Ensemble Selection (DBDES) fornecem classificadores competentes para cada região do espaço de características, decompondo o problema multiclasse original em vários problemas de uma classe. Assim, cada classe é segmentada e um OCC é treinado para cada cluster. MODES utiliza o algoritmo K-means e um conjunto de índices de validação de cluster enquanto DBDES utiliza o algoritmo OPTICS para a segmentação dos dados. A lógica é reduzir a complexidade da tarefa de classificação definindo uma região do espaço de características onde o classificador deve ser um especialista. A classificação de um exemplo de teste é realizada selecionando dinamicamente um conjunto de OCCs competentes e a decisão final é dada pela reconstrução do problema multiclasse original. Experimentos realizados com 25 bancos de dados, 4 modelos OCC e 3 métodos de agregação mostraram que as técnicas propostas superam a literatura. Quando comparado com o estado da arte, MODES e DBDES obtiveram melhores resultados, principalmente para bancos de dados com regiões de decisão complexas.
|
|
31
|
-
CARLOS GOMES ARAUJO
-
Uma abordagem para análise do impacto da consistência no desempenho e disponibilidade em SGBDs NoSQL
-
Leader : EDUARDO ANTONIO GUIMARAES TAVARES
-
MEMBRES DE LA BANQUE :
-
AIDA ARAUJO FERREIRA
-
EDMUNDO ROBERTO MAURO MADEIRA
-
PAULO HUGO ESPIRITO SANTO LIMA
-
PAULO ROMERO MARTINS MACIEL
-
ROBSON DO NASCIMENTO FIDALGO
-
Data: 31 août 2022
-
-
Afficher le Résumé
-
Na última década, o volume de dados gerado e armazenado por computador aumentou notavelmente. Estes dados vêm de várias fontes, como educação, governo, saúde, segurança e manufatura. Os dados, que podem ou não ser estruturados, podem ser gerados, por exemplo, por sistemas operados por usuários ou máquinas autônomas. Para atender à demanda do gerenciamento destes dados, as tecnologias de banco de dados convencionais apresentam limitações devido à rigidez de suas arquiteturas. Adjacente a essa necessidade de crescimento dos dados, populariza-se o desenvolvimento dos sistemas gerenciadores de banco de dados (SGBD) NoSQL, (Not Only SQL). NoSQL é uma tecnologia de banco de dados concebida principalmente para ultrapassar a escala, desempenho, disponibilidade e as limitações dos SGBDs relacionais. Para melhorar seu desempenho e disponibilidade, o NoSQL oferece a consistência eventual, a qual permite, temporariamente uma inconsistência entre os servidores redundantes. Importantes SGBDs NoSQL dispõem da possibilidade da configuração da consistência baseada em quórum, que representa o número de servidores que devem confirmar uma operação para que a mesma seja concluída. Neste contexto, um grande desafio é quantificar e avaliar o impacto no desempenho, na disponibilidade, na probabilidade de acessar os dados mais recentes e no consumo de energia das operações no NoSQL baseado em quórum. Diversos trabalhos avaliam SGBDs NoSQL, mas a estimativa do impacto da escolha da consistência nessas métricas ainda é pouco representada na literatura. As possibilidades da escolha de diversas arquiteturas e configurações em SGBDs NoSQL baseado em quórum requerem ferramentas e técnicas de avaliação para que um projetista possa selecionar a melhor abordagem na implementação de sistemas. Esta tese de doutorado apresenta e avalia um conjunto de modelos formais que permitem quantificar o impacto da configuração da consistência. A proposta utiliza rede de Petri estocástica e Diagrama de blocos de confiabilidade para modelar sistemas de armazenamento de dados NoSQL baseados em quórum. Os modelos permitem estimar o desempenho, a disponibilidade, a probabilidade de acesso ao dado mais recente e o consumo de energia. Um estudo de caso, verificou que elevar o nível de consistência melhorou a probabilidade de acesso ao dado mais recente em 21%. No entanto, aumentou o tempo das operações, a disponibilidade do sistema foi elevada de 3 segundos para 3 horas.
|
|
32
|
-
LEANDRO MARQUES QUEIROS
-
Designing Groupware for Collaborative Lesson Planning for Basic Education Teachers
-
Leader : ALEX SANDRO GOMES
-
MEMBRES DE LA BANQUE :
-
CARLA TACIANA LIMA LOURENCO SILVA SCHUENEMANN
-
FILIPE CARLOS DE ALBUQUERQUE CALEGARIO
-
FRANCISCO KELSEN DE OLIVEIRA
-
JORGE DA SILVA CORREIA NETO
-
JOSE AIRES DE CASTRO FILHO
-
Data: 31 août 2022
-
-
Afficher le Résumé
-
O planejamento colaborativo de aulas entre professores da educação básica permite o compartilhamento de experiências e recursos educacionais. Essas práticas estão distribuídas no tempo e no espaço e variam à medida que os profissionais evoluem suas experiências profissionais. Os professores improvisam criativamente as funções de artefatos mundanos e digitais para atingir objetivos circunstanciais que emergem na prática profissional colaborativa. Nesta tese, usamos uma abordagem de etnografia digital para entender profundamente a experiência social do planejamento colaborativo de aulas e construir conhecimento sobre esses fenômenos. Adotamos as noções antropológicas de improvisação e contingência para entender como os professores da educação colaboram criativamente no planejamento das aulas. Realizamos sequências de entrevistas não estruturadas no local de trabalho (escolas e residências) e virtualmente reencenamos observações. Todos os dados coletados foram analisados para evidenciar os significados situados dos materiais, relações e circunstâncias desses procedimentos idiossincráticos entre os profissionais. Os principais resultados evidenciam alguns improvisos e contingências no compartilhamento de experiências e como os artefatos estruturam diretamente práticas e experiências, levando à frustração, insatisfação e, consequentemente, desamparo. Revelamos recomendações específicas para o design de sistemas de apoio ao planejamento de aulas colaborativas de professores. Assim, realizamos um design participativo situado que permitiu que os professores se visualizassem em possíveis cenários futuros, usando sistema colaborativo para apoiar suas práticas colaborativas de preparação em sala de aula. Os resultados indicam que a realização de atividades colaborativas de planejamento de aula em um colaborativo de planejamento de aula elaborado a partir de um design participativo com professores do ensino fundamental é uma abordagem bem-sucedida, pois permite o design de artefatos artificiais significativos para os professores e promove o bem-estar relacionado aos domínios de afeto, comunidade e trabalho.
|
|
33
|
-
ISRAEL FERRAZ DE ARAUJO
-
Otimização de Circuitos para a Inicialização de Estados Quânticos
-
Leader : ADENILTON JOSÉ DA SILVA
-
MEMBRES DE LA BANQUE :
-
SAMURAÍ GOMES DE AGUIAR BRITO
-
ANTONIO MURILO SANTOS MACEDO
-
LEON DENIS DA SILVA
-
STEFAN MICHAEL BLAWID
-
WILSON ROSA DE OLIVEIRA JUNIOR
-
Data: 1 sept. 2022
-
-
Afficher le Résumé
-
O carregamento de informações em um dispositivo computacional é uma tarefa comum em aplicações de informática. Nos dispositivos clássicos, as informações carregadas podem ser usadas várias vezes enquanto não apagadas. Isso não é possível nos dispositivos quânticos devido ao teorema da não-clonagem, às operações quânticas ruidosas e à decoerência. O desenvolvimento de computadores quânticos pode reduzir drasticamente o tempo para resolver certas tarefas computacionais. Entretanto, em aplicações práticas, o custo para carregar a informação clássica em um dispositivo quântico pode dominar o custo computacional assimptótico do algoritmo. O carregamento de dados clássicos em dispositivos quânticos é chamado de preparação de estados quânticos. Algoritmos conhecidos para preparar estados quânticos arbitrários requerem circuitos com profundidade O(N) para carregar um vetor N-dimensional. Este trabalho tem como objetivo principal reduzir a complexidade dos circuitos para a inicialização de estados quânticos. Quatro algoritmos são apresentados, explorando estratégias que permutam complexidade temporal por espacial ou transferem complexidade computacional para um computador clássico. Partindo de métodos algébricos existentes para a decomposição de estados, é demonstrada uma interpretação equivalente fundamentada em árvore binária. Dois dos algoritmos apresentados são baseados em caminhadas ao longo dessa árvore. Eles permitem ganho exponencial na profundidade do circuito O(log2(N)) usando O(N) qubits. Também é proposto utilizar o entrelaçamento quântico como um recurso computacional. Os dois algoritmos restantes otimizam a construção do circuito explorando o grau de entrelaçamento entre bipartições do estado geradas através da decomposição de Schmidt. Estados exatos podem ser inicializados com complexidade temporal O(2^{m+n_B}), onde m é a medida de Schmidt e n_B é o número de qubits da partição de referência. Maiores reduções de complexidade podem ser alcançadas aplicando recursivamente o mesmo algoritmo às bipartições. A manipulação do grau de entrelaçamento habilita a busca por estados aproximados. Há duas estratégias para a aproximação, complexidade fixa com erro de aproximação variável e complexidade variável com erro limitado. Experimentos mostram que a aproximação produz melhor resultado em dispositivos quânticos ruidosos do que a inicialização do estado exato. A perspectiva é que o resultado desta tese auxilie os profissionais da computação quântica durante a era NISQ.
|
|
34
|
-
WALTER FELIPE DOS SANTOS
-
Planejando Sistematicamente a Comunicação em Projetos de Arquitetura Corporativa no Setor Público: A proposta do Método CommitEA.
-
Leader : SIMONE CRISTIANE DOS SANTOS LIMA
-
MEMBRES DE LA BANQUE :
-
ALIXANDRE THIAGO FERREIRA DE SANTANA
-
CARINA FROTA ALVES
-
FLAVIA MARIA SANTORO
-
HERMANO PERRELLI DE MOURA
-
JOSE GILSON DE ALMEIDA TEIXEIRA FILHO
-
WYLLIAMS BARBOSA SANTOS
-
Data: 2 sept. 2022
-
-
Afficher le Résumé
-
Em projetos de Arquitetura Corporativa (AC) nas Organizações do setor Público (OP), a necessidade de comunicar as informações oportunamente (no tempo certo) entre as principais pessoas interessadas no projeto (stakeholders) em vários níveis organizacionais, assim como a correta compreensão do conteúdo dessa comunicação, é um fator de extrema importância para o seu planejamento. Nessas organizações altamente hierarquizadas, tendo em vista os riscos associados ao tempo, canais e meios utilizados para divulgação dessas informações, a comunicação nesses projetos torna-se ainda mais complexa. Nesse contexto, é preciso considerar a necessidade de uma visão holística sobre o planejamento e gerenciamento de projetos de AC, fazendo da comunicação à chave para o sucesso (GROUP et al., 2018). A comunicação é considerada um dos principais desafios para os projetos de Arquitetura Corporativa (AC). O esforço despendido para conciliar as descontinuidades semânticas e superar as complexidades da comunicação para os arquitetos corporativos e outros stakeholders costuma ser alto, fazendo do não entendimento das informações um causador de conflitos e desmotivações. Esses desafios são visíveis, inicialmente, quando é necessário traduzir os objetivos da arquitetura aos envolvidos nos processos em todos os níveis da arquitetura, em geral, associados a estratégia, processos de negócios, sistemas de informação e infraestrutura tecnológica. O esforço para comunicar com clareza, consistência e abrangência as vantagens e os benefícios da AC, bem como os riscos associados, aumenta o desafio para os envolvidos. No âmbito das Organizações do setor Público (OP), ainda existem os agravantes das constantes mudanças nas lideranças, processos, regras e direcionamentos, dificultando ainda mais a implementação e desenvolvimento da arquitetura. Buscando a superação desses desafios, a presente pesquisa propõe um método orientado e prescritivo, baseado na captura do conhecimento sobre como planejar a comunicação para os stakeholders dos projetos de arquitetura corporativa nas organizações do setor público. A proposta se traduz em uma referência, a qual orienta o planejamento e execução de tarefas em situações específicas em projetos de AC, voltados para melhoria do processo de comunicação. Assim, por meio deste, é possível definir um fluxo de trabalho, descritos em uma linguagem de modelagem padrão, apoiada por artefatos, dando suporte ao processo de planejamento da comunicação em projetos de AC. Para concepção e construção da proposta, foi adaptado o método Design Science Research (DSR) (WIERINGA, 2014), executado em 3 (três) etapas, cada uma delas contemplando as atividades referentes ao entendimento e análise do problema em questão, design das propostas de solução e consequente avaliação dos artefatos desenvolvidos. Como principais resultados obtidos, destacam-se: um Mapeamento Sistemático (MS) sobre o uso de AC no setor público, visando identificar os benefícios, desafios, principais autores, frameworks, origem dos estudos, conceitos e definições; Pesquisa de opinião, para identificar nas organizações públicas do Brasil o perfil dos profissionais que atuam nos projetos da AC, quais são os frameworks, ferramentas, benefícios e desafios encontrados nestes projetos; Proposta de um método para o planejamento da comunicação em projetos de AC; Avaliações de utilidade e usabilidade do método com 45 participantes por meio de um instrumento baseado em modelos reconhecidos, obtendo uma alta aceitação das características avaliadas, um resultado positivo para a pesquisa, justificando sua execução e continuidade por meio dos trabalhos futuros sugeridos.
|
|
35
|
-
GIBSON BELARMINO NUNES BARBOSA
-
ARQUITETURA COGNITIVA COM MECANISMO DE ATENÇÃO PARA PREVENÇÃO DE RISCOS NA INDÚSTRIA.
-
Leader : DJAMEL FAWZI HADJ SADOK
-
MEMBRES DE LA BANQUE :
-
ADRIEN JOAN SYLVAIN DURAND PETITEVILLE
-
ALUIZIO FAUSTO RIBEIRO ARAUJO
-
ANDRE LUIS CAVALCANTI MOREIRA
-
GLAUCO ESTACIO GONÇALVES
-
NELSON SOUTO ROSA
-
Data: 6 sept. 2022
-
-
Afficher le Résumé
-
AAAA
|
|
36
|
-
BRUNNO WAGNER LEMOS DE SOUZA
-
UM MODELO TAXONÔMICO DAS MÁQUINAS SOCIAIS BASEADO NA TEORIA DA CLASSIFICAÇÃO FACETADA
-
Leader : SILVIO ROMERO DE LEMOS MEIRA
-
MEMBRES DE LA BANQUE :
-
HERMANO PERRELLI DE MOURA
-
DORGIVAL PEREIRA DA SILVA NETTO
-
HIGOR RICARDO MONTEIRO SANTOS
-
IVALDIR HONORIO DE FARIAS JUNIOR
-
JÉFERSON KÉNEDY MORAIS VIEIRA
-
Data: 12 sept. 2022
-
-
Afficher le Résumé
-
Com o crescente interesse em Sistemas de Informação (SI) baseados na Web, começou-se a investigar uma classe específica: as Máquinas Sociais (do inglês, Social Machines, SM). As Máquinas Sociais representam sistemas sociotécnicos que estabelecem ligações através de determinadas restrições para lidar com a complexidade de serviços e operações. Analogamente, com a disseminação da Web como uma plataforma de desenvolvimento de software, juntamente com o aumento da interatividade e conectividade de aplicativos, modificou-se a compreensão da natureza da computação. A incorporação da computação na sociedade através de dispositivos pessoais tem conduzido à discussão de Computação Social e Máquinas Sociais. Além disso, representam o desenvolvimento tecnológico que concatena o comportamento humano (e, portanto, social) com sistemas computacionais, guiando a existência ainda maior de relacionamentos entre pessoas e máquinas para solução de problemas. Ainda que estes problemas sejam no âmbito governamental, na saúde, na segurança ou no combate a violência, na educação, dentre outras áreas relevantes, fazendo com que as gerações de software elevassem o nível de relacionamento e conectividade que antes era desconhecido. Contudo, as tendências e desafios de pesquisas relacionadas às Máquinas Sociais iniciam desde a dificuldade nas definições da área, por não serem padronizadas, dificultando a compreensão e consolidação dos conceitos relacionados, minando a criação de novas pesquisas nesta temática. O objetivo desta pesquisa é, portanto, definir um esquema taxonômico sobre as máquinas sociais, utilizando uma abordagem facetada. Para tanto, utilizou-se de uma metodologia baseada em: revisão exploratória da literatura, mapeamento sistemático, métodos de prospecção e um método taxonômico. A pesquisa aborda a classificação dos conceitos, das tecnologias utilizadas, do comportamento (como funciona/como é?), das funcionalidades (a finalidade/para que?), da evolução (análise comportamental) e das perspectivas (tendências) das Máquinas Sociais. A principal contribuição deste estudo é a elaboração de um instrumento para representar o conhecimento na área das Máquinas Sociais permitindo a tradução desse domínio através de um modelo de classificação. Foram observados nos trabalhos levantados que há a falta de uma taxonomia (classificação) referentes às pesquisas relacionadas às Máquinas Sociais. Inclusive, além de ser importante a construção de uma taxonomia, em que trabalhos mencionam poder existir, também é interessante caracterizar as Máquinas Sociais, podendo estes ser tratados como um modelo taxonômico ou modelo classificatório. Isso inclui um estudo comportamental e evolutivo das Máquinas Sociais e suas perspectivas, focando a atenção em problemas e soluções de maneira mais pontuais. Ao mesmo tempo que o resultado deve permitir um aprofundamento na compreensão da natureza dos fenômenos relacionados ao tema, dando existência à construção de uma Teoria da Classificação Facetada (TCF) das Máquinas Sociais. O resultado alcançado é um primeiro passo em direção à consolidação e formalização da temática, o que abrirá espaços para a construção de novos modelos (por exemplo, representações semanticamente anotadas) que possam servir de suporte inclusive à tomada de decisões em um ambiente cada vez mais socialmente conectado.
|
|
37
|
-
JAIR GALVÃO DE ARAUJO
-
Sequências de Baixa Discrepância na Aceleração da Avaliação da Qualidade de Imagem Digital
-
Leader : TSANG ING REN
-
MEMBRES DE LA BANQUE :
-
RICARDO DA SILVA TORRES
-
CARLOS ALEXANDRE BARROS DE MELLO
-
CLEBER ZANCHETTIN
-
GEORGE DARMITON DA CUNHA CAVALCANTI
-
MYLENE CHRISTINE QUEIROZ DE FARIAS
-
Data: 12 sept. 2022
-
-
Afficher le Résumé
-
O aumento no uso de aplicações que manipulam imagem e vídeo digital é crescente. Neste cenário, a Avaliação da Qualidade de Imagem (IQA) desempenha um papel importante na qualidade e experiência dos usuários no processamento de imagens digitais. A Avaliação da Qualidade de Imagem pode ser dividida em avaliação subjetiva e objetiva. A IQA subjetiva obtém o julgamento através da apresentação das imagens ao Sistema Visual Humano (HSV), já a IQA objetiva busca desenvolver algoritmos para reproduzir a avaliação subjetiva do HSV. No entanto, os algoritmos IQA objetivos podem exigir grande número de operações matemáticas para realizar a avaliação. Além disso, os algoritmos IQA baseados em Redes Neurais Convolucionais exigem longo tempo de treinamento de aprendizagem. Baseado no alto custo computacional e tempo gasto no processo da avaliação da qualidade, é proposta a estratégia de amostragem com sequências de baixa discrepância no processo de IQA. Primeiramente, a estratégia utiliza sequências Van der Corput-Halton, Sobol e amostragem Uniforme para coletar pixels ao redor da imagem e formar uma representação reduzida. As imagens amostradas foram comparadas com as transformações \emph{Resize} e \emph{Cropped} com mesma quantidade de pixel amostrado. Em seguida, essas imagens foram avaliadas por métodos de IQA com e sem a presença da imagem de referência. Os resultados dos experimentos revelam que a estratégia de amostragem foi suficiente para obter as mesmas correlações SROCC e LCC de qualidade ao utilizar aproximadamente $8\%$ dos pixels das imagens da base Live e $7\%$ da TID2013 quando comparado com as correlações obtidas com as imagens integrais pelos métodos PSNR e SSIM. Outrossim, o método Learned Perceptual Image Patch Similarity (LPIPS), treinado a partir de imagens amostradas com sequência VDH, obtém $68,30\%$ de taxa de acerto sobre a base Berkeley-Adobe Perceptual Patch Similarity (BAPPS). A economia de tempo no treinamento do método \emph{Deep Image Quality Measure for FR} (DIQaM-FR) foi de $220\%$ e $136\%$ para as bases Live e TID2013, respectivamente.
|
|
38
|
-
ROSIBERTO DOS SANTOS GONÇALVES
-
REFlex WATER – UM FRAMEWORK DE IOT PARA GERENCIAMENTO INTELIGENTE DE SISTEMAS DE ABASTECIMENTO DE ÁGUA
-
Leader : RICARDO MASSA FERREIRA LIMA
-
MEMBRES DE LA BANQUE :
-
FÁBIO HENRIQUE CABRINI
-
FERNANDO ANTONIO AIRES LINS
-
MARCIO LOPES CORNELIO
-
SERGIO CASTELO BRANCO SOARES
-
THAIS VASCONCELOS BATISTA
-
Data: 14 sept. 2022
-
-
Afficher le Résumé
-
O crescimento da população mundial e as mudanças climáticas aumentam a demanda por água de alta qualidade. Este fato força a humanidade a criar novas estratégias de gestão da água. As cidades inteligentes aplicaram com sucesso a tecnologia da Internet das Coisas (Intert of Things (IoT)) em muitos setores. Além disso, o processamento de eventos complexos (Complex Event Processing (CEP)) pode analisar e processar grandes conjuntos de dados produzidos por sensores IoT em tempo real. Os processos de negócios tradicionais são muito rígidos para expressar o comportamento dinâmico dos sistemas de abastecimento de água. Cada caminho de execução deve ser especificado explicitamente. Por outro lado, os processos de negócio declarativos permitem caminhos de execução que não são proibidos pelas regras, proporcionando mais flexibilidade aos gestores de abastecimento de água. Esta tese reúne IoT, CEP e processos declarativos para criar uma arquitetura poderosa, eficiente e flexível (REFlex Water) para gerenciar sistemas de abastecimento de água. Para o conhecimento do autor, REFlex Water é a primeira solução que combina estas tecnologias no contexto de sistemas de abastecimento de água. O trabalho descreve a arquitetura REFlex Water e demonstra sua aplicação através de uma Prova de Conceito (PoC). A experimentação é realizada através da ferramenta computacional de simulação hidráulica de sistemas de abastecimento de água, a EPANET. Largamente aplicada no campo do planejamento, projeto e do diagnóstico de funcionamento de sistemas de abastecimento, é um complemento na tomada de decisão do projetista e gestores. O EPANET permite o desenvolvimento de modelos de simulação confiáveis. A utilidade do modelo de simulação EPANET é indiscutível, seja para a exploração e diagnóstico desses sistemas, melhoria no planejamento de expansões hidráulicas e/ou outras intervenções nas redes de abastecimento. EPANET na sua forma original não dispõe de integração com infraestrutura de IoT. Neste trabalho, foi desenvolvida a extensão EPANET-RWX para EPANET que permite integrá-lo ao REFlex Water, e possibilita a validação em laboratório da arquitetura proposta antes de implantar no sistema real. A validação do framework se deu junto aos especialistas do setor de água, foram realizadas por meio de entrevistas individuais. Na discussão dos resultados, demonstra-se que o REFlex Water se mostra promissor para ser aplicado a sistemas de abastecimento de água, segundo análise dos especialistas que apresentaram percepção positiva na sua utilização, corroborando, assim, com o estado da arte desses sistemas.
|
|
39
|
-
OZONIAS DE OLIVEIRA BRITO JUNIOR
-
TAXONOMIA PARA AVALIAÇÃO PLURIDIMENSIONAL DE RECURSOS DIGITAIS DE APRENDIZAGEM
-
Leader : HERMANO PERRELLI DE MOURA
-
MEMBRES DE LA BANQUE :
-
ALEXANDRE MARCOS LINS DE VASCONCELOS
-
ALIXANDRE THIAGO FERREIRA DE SANTANA
-
DORGIVAL PEREIRA DA SILVA NETTO
-
PASQUELINE DANTAS SCAICO
-
TACIANA PONTUAL DA ROCHA FALCAO
-
Data: 16 sept. 2022
-
-
Afficher le Résumé
-
Recursos Digitais de Aprendizagem (RDAs) são projetados para implantar pedagogias baseadas no uso do computador e contribuir para o processo de ensino e aprendizagem. Diante da importância de garantir a qualidade desses recursos, a proposição de abordagens para sua avaliação é abundante na literatura nacional e internacional. A diversidade de abordagens para avaliação de RDAs e sua caracterização heterogênea dificultam a verificação da qualidade destes recursos. A inexistência de um consenso sobre os critérios a serem adotados, assim como da relação explícita entre estes e os arcabouços de qualidade, são barreiras para o processo de avaliação em si. Diante disso, o presente trabalho tem como objetivo favorecer a avaliação de Recursos Digitais de Aprendizagem a partir de uma metaorganização de dimensões, categorias e critérios em uma taxonomia que contempla a qualidade de software, de uso, pedagógica e híbrida. O processo de desenvolvimento da Taxonomia para Avaliação de Recursos Digitais de Aprendizagem (TaRDa) pautou-se no estudo e caracterização de 26 abordagens para avaliação de RDAs, selecionadas a partir de uma Revisão Exploratória e Sistemática de Literatura. Foram extraídos e analisados um total de 724 critérios a partir do corpus de 172 publicações nacionais e internacionais contempladas no estudo. TaRDa foi concebida a partir de um processo iterativo e incremental, com validações cíclicas conduzidas com especialistas das áreas de Qualidade de Software, de Usabilidade e Educadores. A verificação da adequação de TaRDa considerou a opinião de um total de 102 especialistas com a aplicação de surveys on-line e grupos focais. Como resultado, TaRDa consiste em um instrumento para facilitar a avaliação de RDAs, sendo composta por 49 critérios e suas respectivas descrições, alocados em 17 categorias em consonância com 4 dimensões de qualidade (de uso, de software, pedagógica e híbrida).
|
|
40
|
-
ANTÔNIO CORREIA DE SÁ BARRETO NETO
-
Otimização do consumos energético de smartphones baseado em modelos de Perfil de uso
-
Leader : PAULO ROMERO MARTINS MACIEL
-
MEMBRES DE LA BANQUE :
-
EDUARDO ANTONIO GUIMARAES TAVARES
-
GERMANO CRISPIM VASCONCELOS
-
JOSE NEUMAN DE SOUZA
-
NELSON SOUTO ROSA
-
PATRICIA TAKAKO ENDO
-
Data: 16 sept. 2022
-
-
Afficher le Résumé
-
O uso crescente de smartphones nas tarefas diárias tem motivado muitos estudos a respeito da caracterização do consumo energético desses dispositivos objetivando aumentar a efetividade e aumentar a disponibilidade deles. Nesse cenário é essencial estudar mecanismos capazes de caracterizar o perfil de usos dos usuários de tal modo que os smartphones possam ser adaptados para promover a melhor experiência de uso com o menor consumo energético. O principal objetivo desse trabalho é construir um modelo de consumo energético para os smartphones baseados no perfil de uso dos usuários objetivando prover o mais acurado modelo que possa ser usado pelos desenvolvedores e pelos mecanismos de otimização automáticos que irão ser desenvolvidos baseados neles. Para desenvolver os modelos de consumo energético estabelecemos um método para identificar os componentes com maior influência no consumo energético dos smartphones e identificar os estados de cada dispositivo influente durante o uso do usuário. Além disso, estabelecemos um método para provar a robustez dos modelos construídos usando equipamentos imprecisos para fornecer dados para treinar os modelos e uma estratégia para mensurar a acurácia do modelo construído. Após realizar o treinamento e teste dos modelos energéticos baseados no perfil de uso dos usuários em cada estratégia escolhida e realizar o teste de Nemenyi, demonstramos que é possível obter um Erro Médio Absoluto de 158,57 mW quando a média potência instantânea é de 1970mW. Alguns estudos mostram que a principal carga de trabalho dos smartphones é o usuário. Baseado nesse fato desenvolvemos um modelo de consumo energético que considera o perfil de uso do usuário. Com os modelos desenvolvidos, podemos adotar estratégias para minimizar o uso de componentes que possuem um alto consumo energético.
|
|
41
|
-
FILIPE MARQUES CHAVES DE ARRUDA
-
Pragmatic and Semi-Formal Black-Box Test Automation
-
Leader : AUGUSTO CEZAR ALVES SAMPAIO
-
MEMBRES DE LA BANQUE :
-
JULIANO MANABU IYODA
-
BRENO ALEXANDRO FERREIRA DE MIRANDA
-
LEOPOLDO MOTTA TEIXEIRA
-
MARCIO EDUARDO DELAMARO
-
TIAGO LIMA MASSONI
-
Data: 26 sept. 2022
-
-
Afficher le Résumé
-
We show here a pragmatic and semi-formal testing strategy that receives as input any testing artifacts (requirements, use cases or test cases) in natural language, and outputs executable test scripts. This strategy relies on adaptation of the language into a controlled one (CNL) to provide a unified and accessible language across the testing process. The domain models built using the CNL support different abstraction levels by means of steps composition. The language and semi-formal semantics were envisioned to address open issues in the traditional testing process, such as traceability, reuse, dependency resolution and maintenance of testing artifacts, mainly automated scripts for black-box tests. We also show opportunities for pluggable white-box tools to aid the models maintenance. There is also a round-trip aspect, fulfilled by either generating concrete artifacts from abstract ones (e.g. from use cases to test scripts) or the other way around by reverse engineering. We discuss the process, language semantics, implementation, and user feedback regarding the industrial applicability and usability of our strategy. The practical context of our work is mobile device testing, involving a partnership with Motorola Mobility, a Lenovo company.
|
|
42
|
-
JUAN ISIDRO GONZÁLEZ HIDALGO
-
Ajuste Dinâmico de Parâmetros: Enfoques, Estratégias e Experimentações Aplicadas na Aprendizagem em Fluxos de Dados com Mudanças de Conceitos
-
Leader : ROBERTO SOUTO MAIOR DE BARROS
-
MEMBRES DE LA BANQUE :
-
CLEBER ZANCHETTIN
-
FRANCISCO MADEIRO BERNARDINO JUNIOR
-
GERMANO CRISPIM VASCONCELOS
-
JOÃO ROBERTO BERTINI JUNIOR
-
PAULO MAURICIO GONÇALVES JUNIOR
-
Data: 28 sept. 2022
-
-
Afficher le Résumé
-
O processo de trabalho com fluxos de dados exige novas demandas e tarefas desafiadoras na área de mineração de dados e aprendizagem de máquina. Esse fluxo pode ser categorizado como um sistema que gera muitos dados ao longo do tempo. Dessa forma, quando a distribuição de probabilidade dentro desse fluxo varia, estamos com um problema comumente conhecido como mudança de conceito (Concept Drift). O processo de implementação de novos métodos para lidar com fluxos de dados contendo mudanças de conceito requer algoritmos que sejam capazes de se adaptar a diferentes situações para, assim, melhorar sua performance. Nesse sentido, o ajuste dinâmico de parâmetros é um contexto pouco aprofundado nas implementações e experimentações das pesquisas da área, requerendo uma especial atenção, sobretudo para que estes métodos consigam se adaptar melhor aos diferentes ambientes onde são aplicados. Nesta pesquisa são propostos vários enfoques e estratégias para ajustar parâmetros de forma dinâmica em vários algoritmos de classificação existentes. Desse modo, primeiramente são apresentadas várias versões do Paired k-NN Learners with Dynamically Adjusted Number of Neighbors (PLKNN, PLKNN2, PLKNN3 e PLKNN4), um novo método de classificação em par que utiliza diferentes procedimentos para ajustar de forma dinâmica e incremental o número de vizinhos k. Todas as versões são aplicados ao processo de aprendizagem online em fluxo de dados com mudanças de conceitos. A outra proposta desta tese é o Parameter Estimation Procedure (PEP), um método genérico para o ajuste dinâmico de parâmetros que é aplicado ao parâmetro de diversidade 𝜆 (lambda), comum a vários comitês de classificadores utilizados na área. Com essa finalidade, o método de estimação proposto (PEP) foi utilizado para criar versões alternativas de três comitês já existentes: Boosting-like Online Learning Ensemble with Parameter Estimation (BOLE-PE), Online AdaBoost-based M1 with Parameter Estimation (OABM1-PE) e Oza and Russell's Online Bagging with Parameter Estimation (OzaBag-PE). Para validá-los, foram realizados experimentos com conjuntos de dados artificiais e reais e os resultados foram avaliados usando a métrica de acurácia e o teste de Friedman com o pós-teste Nemenyi. Os resultados relacionados com PL-kNN e suas versões mostram que estas contribuições melhoraram o desempenho do K-Nearest Neighbors (k-NN) com valores fixos de $k$ na maior parte dos cenários testados. Já os resultados das versões BOLE-PE, OABM1-PE e OzaBag-PE evidenciaram que a estimação dinâmica do 𝜆 é capaz de produzir bons resultados na maioria dos ambientes experimentados.
|
|
43
|
-
LUCAS FERNANDO DA SILVA CAMBUIM
-
Uma abordagem para proteção de múltiplos pedestres em tempo real baseada em previsão de colisão aplicada a sistemas de assistência ao motorista
-
Leader : EDNA NATIVIDADE DA SILVA BARROS
-
MEMBRES DE LA BANQUE :
-
CESAR ALBENES ZEFERINO
-
ABEL GUILHERMINO DA SILVA FILHO
-
CARLOS ALEXANDRE BARROS DE MELLO
-
FILIPE ROLIM CORDEIRO
-
STEFAN MICHAEL BLAWID
-
Data: 31 oct. 2022
-
-
Afficher le Résumé
-
Pedestres são sem dúvida os elementos mais vulneráveis no trânsito. Muitos pedestres morrem como vítimas de acidentes de trânsito, onde na maioria das vezes o motorista não foi capaz de prever uma situação de risco. Abordagens para proteção de pedestres baseados em câmera tem se mostrado bastante promissoras uma vez que imagens fornecem grande quantidade de informações do ambiente em forma de pixels. Tais informações permitem extrair dados espaciais e temporais do pedestre para compreensão de sua dinâmica e assim é possível prever com antecedência situações de colisão. Dado que os automóveis estão se tornando cada vez mais rápidos e dado a grande quantidade de pessoas em ambientes urbanos, sistemas de proteção ao pedestre precisam lidar com situações em que envolvam mais de um pedestre na cena e que sejam capazes de processar várias previsões de colisão em tempo real. Desta forma, essa tese de doutorado propõem um sistema de tempo real para previsão de colisão com suporte à múltiplos pedestres. Os componentes envolvidos neste sistema são detecção e rastreamento de pedestres, visão estéreo, estimação de localização, previsão de trajetória e colisão. Tal sistema lidará com situações existentes em cenários de múltiplos pedestres tais como oclusão e pedestres similares e utilizará plataformas de FPGA e GPU para aceleração dos componentes que possuem um custo computacional elevado. Resultados preliminares foram obtidos utilizando o bando de dados real público e um banco de dados sintético criado a partir do simulador CARLA. O banco de dados real permitiu obter resultados de qualidade dos componentes de detecção, rastreamento e previsão de trajetória e o banco de dados sintético permitiu visualizar a capacidade do sistema completo de realizar a previsão de colisão. Os resultados preliminares mostram que já é possível alcançar altas taxas de processamento dos componentes de detecção e visão estéreo tendo uma taxa de, respectivamente, 59 e 173 FPS. Tais componentes possuem os maiores custos computacionais de todo o sistema. Resultados de qualidade do componente de previsão de trajetória mostram a capacidade do filtro de Kalman estendido de capturar com mais antecedência a mudança de dinâmica do pedestre. Os resultados de qualidade do rastreamento mostraram que melhorias precisam ser feitas para reduzir o número de trocas de rótulos e dar suporte a múltiplos pedestres e resultados de qualidade do componente de detecção mostraram que ainda é necessário reduzir a quantidade de falsos positivos e falsos negativos. Além disso, uma abordagem para realização da tomada de decisão será implementada para validar o sistema previsão de colisão proposto. Dessa forma, com essas melhorias e com novos cenários reais de avaliação de colisão será possível garantir a eficiência do sistema proposto.
|
|
44
|
-
JOSÉ THIAGO HOLANDA DE ALCÂNTARA CABRAL
-
Um Framework para Seleção Dinâmica de Múltiplos Modelos de Regressão Heterogêneos: aplicações em estimativa de esforço de software
-
Leader : ADRIANO LORENA INACIO DE OLIVEIRA
-
MEMBRES DE LA BANQUE :
-
FABIO QUEDA BUENO DA SILVA
-
GEORGE GOMES CABRAL
-
RENATA MARIA CARDOSO RODRIGUES DE SOUZA
-
ROBERTA ANDRADE DE ARAÚJO FAGUNDES
-
TELMO DE MENEZES E SILVA FILHO
-
Data: 17 nov. 2022
-
-
Afficher le Résumé
-
A utilização de algoritmos de Aprendizagem de Máquina (AM) tem sido cada vez mais comum em diversas áreas do conhecimento. Na Engenharia de Software (ES), a estimativa de esforço é uma tarefa difícil e normalmente requer bastante conhecimento técnico dos gestores. Vários estudos da literatura têm abordado o processo de Estimativa de Esforço de Software (EES) de diferentes maneiras. Os métodos usados vão desde os tradicionais, que não utilizam aprendizagem, até os sistemas de múltiplos modelos de AM. As estratégias usadas nessas combinações têm sido um importante tópico de pesquisa em AM, visto que o uso de múltiplos modelos tem melhorado a acurácia das previsões em relação aos modelos usados individualmente. Este trabalho propõe um framework para seleção dinâmica de múltiplos modelos de regressão heterogêneos. Inicialmente, os dados são separados em conjuntos de treinamento, validação e teste. Um amplo conjunto de algoritmos de regressão é treinado e validado. De acordo com os resultados, três diferentes modelos são selecionados a partir do desempenho individual de cada um e da diversidade existente entre eles (Conjunto Básico). Em seguida, diferentes classificadores são avaliados, consequentemente, um conjunto de modelos de classificação é definido como meio para selecionar um grupo de regressores para cada instância avaliada. Desta forma, um grupo de classificadores também é selecionado para o conjunto de dados. Ao fim da fase de treinamento e validação, na fase de teste, os melhores classificadores avaliados são usados para selecionar dinamicamente modelos de regressão a partir do Conjunto Básico de regressores. A previsão final é dada pela combinação das previsões dos modelos de regressão selecionados pelos classificadores. Análises experimentais considerando dois repositórios relevantes em problemas de EES são apresentadas. Além desses repositórios, seis bases de dados educacionais também foram investigadas com o propósito de analisar o comportamento do método proposto com dados de um contexto diferente, e com metas-características distintas das bases de EES. Os experimentos utilizaram cinco métricas para análise dos resultados, sendo a média do erro absoluto usada para fins de testes estatísticos. Os resultados demonstraram que os métodos gerados a partir do framework proposto superaram, na maioria das vezes, os modelos individuais, assim como diferentes estratégias de combinações desses modelos. Tais estratégias utilizaram combinações com seleção estática e dinâmica.
|
|
45
|
-
FELIPE ZIMMERLE DA NÓBREGA COSTA
-
Distributed Repository for Software Packages Using Blockchain
-
Leader : RUY JOSE GUERRA BARRETTO DE QUEIROZ
-
MEMBRES DE LA BANQUE :
-
CARLOS ALBERTO KAMIENSKI
-
CARLOS ANDRE GUIMARAES FERRAZ
-
JOÃO JOSÉ COSTA GONDIM
-
KIEV SANTOS DA GAMA
-
RODRIGO ELIA ASSAD
-
Data: 9 déc. 2022
-
-
Afficher le Résumé
-
Repositórios de pacotes se posicionam como intermediários entre publicadores e consumidores de pacotes. É também responsabilidade do repositório atestar, dado suas próprias regras, os pacotes fazendo com que o repositório articule como um concentrador. Consequentemente, o repositório detém os dados que pertencem outrora aos usuários. Para endereçar este problema, sugerimos a utilização de uma Blockchain com Consenso Distribuído para garantir a publicação de pacotes dado a um conjunto de regras pré-definidas, mantendo assim os dados de posse da comunidade. A Blockchain proposta neste trabalho usa redes peer-to-peer para comunicação e download de pacotes, facilitando a contribuição de doadores de recursos desconhecidos. Somado a Blockchain, também é apresentado neste trabalho uma busca em cima da rede peer-to-peer, usando computação de nós desconhecidos, cujo resultado é garantido de ser confiável. Finalmente apresentamos uma Blockchain funcional que apresenta de maneira assertiva os pacotes do catálogo PyPi.
|
|
46
|
-
MILTON VINICIUS MORAIS DE LIMA
-
Beholder: Um Sistema de Detecção e Prevenção Contra Intrusão em Ambientes da Internet das Coisas Baseado em Processamento de Eventos Complexos
-
Leader : RICARDO MASSA FERREIRA LIMA
-
MEMBRES DE LA BANQUE :
-
DIVANILSON RODRIGO DE SOUSA CAMPELO
-
EDUARDO LUZEIRO FEITOSA
-
MICHEL SALES BONFIM
-
NELSON SOUTO ROSA
-
OBIONOR DE OLIVEIRA NÓBREGA
-
Data: 13 déc. 2022
-
-
Afficher le Résumé
-
A Internet das Coisas (Internet of Things - IoT) caracteriza-se por um conjunto de objetos inteligentes que se comunicam entre sí. Na IoT, os protocolos da camada de aplicação formam a base das comunicações entre aplicativos e serviços. A segurança nos dispositivos e comunicações é cosiderado um aspecto de design opcional nos protocolos da camada de aplicação, levando os desenvolvedores a negligenciar configurações de segurança disponíveis, ou podem mesmo não ter mecanismos de segurança em sua configuração padrão. Os Sistemas de Detecção e Prevenção de Intrusões (IDPS) podem melhorar a segurança da IoT, identificando possíveis problemas de segurança, alertando administradores ou agindo automaticamente para proteger o ambiente contra ameaças. Entretanto, as técnicas de IDPS não são projetadas para dispositivos com recursos limitados e precisam ser adaptadas para esse tipo de dispositivo. Esta tese apresenta o Beholder, um Sistema de Detecção e Prevenção de Intrusão (IDPS) para prevenir ataques aos protocolos da camada de aplicação da IoT. O Beholder inova ao ser o primeiro IDPS que explora a tecnologia Complex Event Processing (CEP) para detectar ataques da camada de aplicação da IoT. Este trabalho apresenta um cenário real para o processo de avaliação, realizando ataques em uma casa inteligente. Inicialmente, avaliamos a qualidade do nosso IDPS, comparando-o com o conhecido Snort IDS. Os resultados demonstraram que Snort atingiu três 9s de precisão, enquanto Beholder atingiu uma precisão de quatro 9s. Adicionalmente, o experimento para avaliar a precisão de Beholder para os protocolos MQTT, CoAP e AMQP revelou que Beholder obteve 100\% de precisão para High QoS Flood (MQTT), Error Flood (CoAP) e três 9s para o AMQP.
|
|
47
|
-
ANDERSON PINHEIRO CAVALCANTI
-
Análise Automática de Feedback em Ambientes Virtuais de Aprendizagem
-
Leader : FREDERICO LUIZ GONCALVES DE FREITAS
-
MEMBRES DE LA BANQUE :
-
EVANDRO DE BARROS COSTA
-
ISABEL DILLMANN NUNES
-
ELYDA LAISA SOARES XAVIER FREITAS
-
HILÁRIO TOMAZ ALVES DE OLIVEIRA
-
LUCIANO DE ANDRADE BARBOSA
-
Data: 14 déc. 2022
-
-
Afficher le Résumé
-
O feedback é um componente muito importante no processo de ensino-aprendizagem, pois ajuda o aluno a identificar as lacunas e avaliar o seu progresso no aprendizado. Em cursos a distância o feedback se torna ainda mais importante, pois é um dos recursos mais utilizados na interação entre professor e aluno, já que ambos estão separados fisicamente. No entanto, devido ao crescimento significativo da quantidade de alunos em cursos a distância, é difícil para os instrutores fornecerum feedback de alta qualidade. Nesse contexto, este trabalho tem como objetivo propor uma abordagem para analisar automaticamente os feedbacks fornecidos por professores em cursos online. Para isso, foram utilizados recursos linguísticos para extrair as características dos textos e algoritmos de aprendizagem de máquina para classificação. Foram realizados experimentos com base em duas teorias educacionais de feedback propostas na literatura utilizando diferentes classificadores. Os resultados demostram uma boa acurácia e os modelos gerados podem ser utilizados para ajudar o professor a fornecer um bom feedback ao aluno.
|
|
48
|
-
DANIEL ORLANDO MARTINEZ RIVILLAS
-
TOWARDS A HOMOTOPY DOMAIN THEORY
-
Leader : RUY JOSE GUERRA BARRETTO DE QUEIROZ
-
MEMBRES DE LA BANQUE :
-
ALEJANDRA MARTINS DA SILVA
-
ANTÓNIO MÁRIO SILVA MARCOS FLORIDO
-
BENJAMIN RENE CALLEJAS BEDREGAL
-
EDWARD HERMANN HAEUSLER
-
HUGO LUIZ MARIANO
-
Data: 15 déc. 2022
-
-
Afficher le Résumé
-
AAAA
|
|