PPGEST PROGRAMA DE PÓS-GRADUAÇÃO EM ESTATÍSTICA - CCEN DEPARTAMENTO DE ESTATISTICA - CCEN Teléfono/Ramal: No informado
Disertación/Tesis

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UFPE

2024
Disertaciones
1
  • KLEBER HENRIQUE DOS SANTOS
  • A new dynamic beta prime model with application to hydro-environmental data

  • Líder : FRANCISCO CRIBARI NETO
  • MIEMBROS DE LA BANCA :
  • FRANCISCO CRIBARI NETO
  • ABRAAO DAVID COSTA DO NASCIMENTO
  • TARCIANA LIBERAL PEREIRA DE ARAUJO
  • Data: 26-feb-2024


  • Resumen Espectáculo
  • Resumo: We introduce a dynamic model tailored for positively valued time series. It accommodates both autoregressive and moving average dynamics and allows for explanatory variables. The underlying assumption is that each random variable follows, conditional on the set of previous information, the beta prime distribution. A novel feature of the proposed model is that both the conditional mean and conditional precision evolve over time. The model thus comprises two dynamic submodels, one for each parameter. The proposed model for the conditional precision is parsimonious, incorporating first-order time dependence. Changes over time in the shape of the density are determined by the time evolution of two parameters, and not just of the  conditional mean. We present simple closed-form expressions for the model's conditional log-likelihood function, score vector and Fisher's information matrix. We also present Monte Carlo simulation results on the finite-sample performance of the conditional maximum likelihood estimators of the parameters that index the model. Finally, we use proposed approach to model and forecast a seasonal hydrological time series.

2
  • ANA CECILIA DIAZ BACCA
  • Modelos de transmissão de informação em anéis 𝑘-regulares

  • Líder : PABLO MARTIN RODRIGUEZ
  • MIEMBROS DE LA BANCA :
  • ALEXSANDRO GIACOMO GRIMBERT GALLO
  • FABIO MARCELLUS LIMA SA MAKIYAMA LOPES
  • PABLO MARTIN RODRIGUEZ
  • Data: 15-abr-2024


  • Resumen Espectáculo
  • O presente trabalho foca no estudo do modelo de rumor de Maki-Thompson em grafos
    de anel k-regulares. Este modelo, amplamente explorado na literatura, analisa a propagação de um boato em uma população fechada e mista, dividida em três grupos de indivíduos: ignorantes, informantes e neutros. A pesquisa concentra-se em representar a população por meio de grafos de anel k-regulares e busca abordar a influência do grau do grafo na propagação do boato. Dada a crescente complexidade dos cálculos com o aumento de k, o estudo é limitado a dois casos particulares: anéis 2 e 4 regulares. Para esses casos, a estratégia adotada envolve inicialmente o estudo do modelo em Z. Posteriormente, por meio de métodos de acoplamento, relacionam-se os resultados obtidos em Z com os dois grafos de interesse. Como resultado, foi possível calcular o valor esperado da quantidade de informados ao final do processo para ambos os casos. Especificamente, no grafo 2-regular, esse resultado se estende a situações em que os indivíduos têm um número determinado de tentativas frustradas de propagação e no caso do grafo 4-regular, foi utilizado o método da maioria para obter os resultados.

3
  • CLARICE DE OLIVEIRA NOGUEIRA
  • CORREÇÃO DE VIÉS NO MODELO DE REGRESSÃO BETA NÃO LINEAR.

  • Líder : AUDREY HELEN MARIZ DE AQUINO CYSNEIROS
  • MIEMBROS DE LA BANCA :
  • ABRAAO DAVID COSTA DO NASCIMENTO
  • AUDREY HELEN MARIZ DE AQUINO CYSNEIROS
  • MIGUEL ANGEL URIBE OPAZO
  • Data: 22-abr-2024


  • Resumen Espectáculo
  • Em contextos de análise do comportamento de uma variável em relação a outras, os modelos de regressão desempenham um papel amplamente empregado. A categoria de modelos de regressão beta é particularmente adequada para esse propósito, sendo aplicada quando a variável resposta assume valores no intervalo (0,1), o que é comum em cenários que envolvem taxas e proporções. Ferrari e Cribari-Neto (2004), introduziram um modelo de regressão beta que adota uma abordagem alternativa para a distribuição beta, na qual os parâmetros são definidos com base na média e no parâmetro de precisão. Este modelo foi objeto de duas extensões notáveis, sendo uma delas proposta por Smithson e Verkuilen (2006), que aborda a variação da precisão. Nessa extensão, tanto a média quanto a precisão são modeladas de forma simultânea, permitindo uma análise mais abrangente. A outra extensão, apresentada por Simas, Barreto-Souza e Rocha (2010), amplia ainda mais as possibilidades ao considerar que a média e/ou a precisão podem estar relacionadas a preditores não lineares, o que confere maior flexibilidade ao modelo na captura de relacionamentos complexos entre as variáveis envolvidas. Essas extensões representam avanços valiosos na modelagem e interpretação de dados dentro deste contexto específico. Nessa dissertação, o objetivo foi propor a correção de viés (de segunda ordem) para os estimadores de máxima verossimilhança no modelo de regressão beta não linear, tanto para os estimadores dos parâmetros relacionados à média, quanto para os estimadores dos parâmetros relacionados ao parâmetro de precisão, para isso desenvolvemos uma ex-pressão matricial fechada para o estimador de viés de Cox e Snell (1968) e analisamos, via simulação de Monte Carlo, os desempenhos dos EMV e suas versões corrigidas via Cox e Snell (1968) e através da metodologia bootstrap (EFRON, 1979). Fornecemos resultados numéricos que mostram que as versões corrigidas do EMV apresentam desempenho superior ao do usual em amostras de tamanho pequeno ou moderado. Para finalizar, apresentamos e discutimos uma aplicação em dados reais.

4
  • DÉBORA DE SOUSA CORDEIRO
  • Estudo de variações de modelos discretos de filas a partir de processos de ramificação.

  • Líder : PABLO MARTIN RODRIGUEZ
  • MIEMBROS DE LA BANCA :
  • ALEX DIAS RAMOS
  • DIVANILDA FERREIRA MAIA
  • PABLO MARTIN RODRIGUEZ
  • Data: 30-abr-2024


  • Resumen Espectáculo
  • A busca por serviços que resultam em espera faz parte do cotidiano da população de uma forma geral e a Teoria das Filas surge para modelar analiticamente esses processos ou sistemas que possuem filas devido a espera. Neste trabalho serão estudadas propriedades de modelos discretos de filas através de processos de ramificação. Após uma introdução de resultados básicos da teoria de processos de ramificação a tempo discreto, serão analisadas variações de modelos discretos de filas Geom/G/\infty. Provamos teoremas relacionados às medidas de desempenho de modelos com desistências, limitação e catástrofes, respectivamente. Para os modelos considerados, serão obtidas condições necessárias e suficientes para garantir a explosão ou não do sistema, e o número médio de clientes em um período de serviço contínuo.

Tesis
1
  • NICOLLAS STEFAN SOARES DA COSTA
  • EXAMINING THE GENERALIZED ODD LOG-LOGISTIC FAMILY: A REGRESSION COMPILATION.

  • Líder : MARIA DO CARMO SOARES DE LIMA
  • MIEMBROS DE LA BANCA :
  • ABRAAO DAVID COSTA DO NASCIMENTO
  • FERNANDO ARTURO PEÑA RAMÍREZ
  • JOSIMAR MENDES DE VASCONCELOS
  • MARIA DO CARMO SOARES DE LIMA
  • RENATA ROJAS GUERRA
  • Data: 03-abr-2024


  • Resumen Espectáculo
  • In this work, considering the new family of distributions, generalized odd log-logisticG, several applications were proposed with different real data using regression models. The distributions in this family accommodate asymmetric, bimodal and fat tail shapes, showing flexibility when compared to other generators. Based on the new generating family of distributions, regression models were introduced with distinct systematic structures and all the computational modeling is implemented via R software. The results obtained using complex data sets demonstrated that the proposed models are a viable alternative to competing distributions and corroborate previous studies.

2
  • JOAS SILVA DOS SANTOS
  • Refinamento Assintótico nos Modelos Não Lineares Generalizados Superdispersados


  • Líder : AUDREY HELEN MARIZ DE AQUINO CYSNEIROS
  • MIEMBROS DE LA BANCA :
  • AUDREY HELEN MARIZ DE AQUINO CYSNEIROS
  • ABRAAO DAVID COSTA DO NASCIMENTO
  • ROBERTO FERREIRA MANGHI
  • MIGUEL ANGEL URIBE OPAZO
  • MARIANA CORREIA DE ARAÚJO
  • Data: 26-abr-2024


  • Resumen Espectáculo
  • Os modelos lineares generalizados superdispersados (MLGS), propostos por Dey et al. (1997), permitem que tanto a média quanto a dispersão sejam modeladas simultaneamente no contexto dos modelos lineares generalizados. Os MLGS são muito úteis para modelar a dispersão quando a variância da variável resposta excede a variância nominal predita pelo modelo.  Nesta tese, tratamos  de refinamentos para testes de hipóteses nos MNLGS. Nós obtivemos um fator  de correção de Bartlett para o teste da razão de verossimilhanças baseado em verossimilhança perfilada  modificada proposta por Cox e Reid (1987). Além disso, desenvolvemos novos ajustes para a estatística  da razão de verossimilhanças com base nos trabalhos de Skovgaard (1996, 2001). Estudos de simulação de  Monte Carlo foram considerados para avaliar e comparar numericamente os desempenhos dos testes em amostras  finitas, no que tange ao tamanho e poder.


2023
Disertaciones
1
  • JONATHA SOUSA PIMENTEL
  • Aceleração da estimação do modelo de máquinas de vetores de suporte para bases de dados massivos: Uma nova abordagem através da fusão de SVM's fracos e esféricos.

  • Líder : RAYDONAL OSPINA MARTINEZ
  • MIEMBROS DE LA BANCA :
  • ANDERSON ARA
  • LEANDRO CHAVES REGO
  • TELMO DE MENEZES E SILVA FILHO
  • Data: 10-feb-2023


  • Resumen Espectáculo
  • A capacidade de geração de dados nos últimos anos, atingiu níveis nunca antes vistos. Mais dados em apenas dois anos do que em 5 mil anos de história, aumento em 50 vezes do volume gerado em um período de 10 anos, termos como Big Data, Machine Learning e Inteligência Artificial cada vez mais comumente vistos e falados. Tudo isso provocado pela evolução humana, obrigou-nos a sermos capazes de coletar, armazenar e analisar tal quantidade de dados, surgindo e desenvolvendo-se o campo de estudo das técnicas de aprendizado de máquina (ML - do inglês Machine Learning). Dentre as diversas técnicas existentes e que tem ganhado força e destaque, a técnica a ser aqui trabalhada são as máquinas de vetores de suporte (SVM - do inglês Support Vector Machine), que apesar de despertar grande interesse da comunidade científica desde sua introdução por Vapnik em 1995, assim como muitos modelos de aprendizagem, possui uma limitação quando utilizada para dados massivos. Frente a esta dificuldade, neste trabalho, buscamos a implementação, utilização e comparação da técnica Sphere SVM, utilizada para acelerar o tempo de estimação de um modelo SVM, bem como propor um modelo que possa combinar a ideia de coresets com a utilização de weak's SVM. Os resultados obtidos ao comparar os modelos para diferentes bases de dados simuladas e reais, apresentam modelos que permitem a manutenção da capacidade preditiva do modelo SVM tradicional, bem como a sua estimação em um décimo do tempo para o modelo completo.

2
  • LUIS GONZAGA PINHEIRO FELIX
  •  Explorando seleção de variáveis explicativas no contexto dos modelos aditivos generalizados de locação, escala e forma.

  • Líder : FERNANDA DE BASTIANI
  • MIEMBROS DE LA BANCA :
  • FERNANDA DE BASTIANI
  • GETULIO JOSE AMORIM DO AMARAL
  • MARCELO DOS SANTOS
  • Data: 17-feb-2023


  • Resumen Espectáculo
  • A seleção de variáveis explicativas em modelos estatísticos é um problema atual e importante dentro da estatística e para o qual diferentes soluções já foram propostas para os diversos tipos de modelos. No caso específico dos modelos aditivos generalizados de locação escala e forma (GAMLSS), a seleção de variáveis explicativas é feita usando métodos stepwise. Na atual implementação de seleção de variáveis nos GAMLSS tem-se disponível duas estratégias conhecidas como estratégia A e estratégia B chamamos de estratégia A e estratégia B, sendo que ambas selecionam variáveis explicativas para modelar todos os parâmetros da distribuição, mas de forma diferente. Neste trabalho estas metodologias foram descritas detalhadamente e por meio de estudos de simulação, foram investigados e comparados métodos de seleção de variáveis, usando modelos com uma estruturas lineares, com estruturas não lineares usando funções de suavização para diferentes distribuições de probabilidade. Foi introduzida uma nova proposta de seleção de modelos e esta também foi comparada com as estratégias A e B. Uma aplicação a dados reais ilustra a metodologia apresentada.

3
  • MARIA FRANCIELE DA SILVA SANTOS SOUSA
  • Correção de viés para o modelo de regressão G0I: Uma aplicação à extração de atributos em imagens SAR.

  • Líder : ABRAAO DAVID COSTA DO NASCIMENTO
  • MIEMBROS DE LA BANCA :
  • ABRAAO DAVID COSTA DO NASCIMENTO
  • AUDREY HELEN MARIZ DE AQUINO CYSNEIROS
  • PEDRO MONTEIRO DE ALMEIDA JUNIOR
  • Data: 24-feb-2023


  • Resumen Espectáculo
  • Os sistemas de radar de abertura sintética (Synthetic Aperture Radar - SAR) têm sido uma ferramenta bastante eficiente na resolução de problemas de sensoriamento remoto. Tais sistemas apresentam diversas vantagens; tais como, eles podem operar independentemente das condições atmosféricas e produzir imagens com alta resolução espacial. Entretanto, as imagens SAR são contaminadas por um tipo de interferência denominada ruído speckle, dificultando assim a análise e o processamento delas. Assim, a proposta de técnicas estatísticas que consideram o ruído speckle se torna uma importante etapa para usuários do sistema SAR, em particular modelos de regressão. Vasconcelos 2018 propôs o modelo de regressão G0I (RG0I), indicando que ele tem uma grande importância na interpretação de imagens de intensidade SAR. É sabido da Teoria Assintótica de primeira ordem que o viés do estimador de máxima verossimilhança é de ordem O(1/n), podendo ser significativo para tamanhos de amostra pequenos e moderados. Nesta dissertação, objetiva-se propor um estimador melhorado para os parâmetros de (RG0I) a partir da derivação do viés de segunda ordem proposto por Cox-Snell. Esta proposta encontra justificação uma vez que o processamento de imagens SAR é requerido o uso de janelas pequenas e moderadas, como no estudo de atributos na vizinhança de pixels para classificação e filtragem. Assim a proposta de métodos de Teoria Assintótica de segunda ordem ou ordem superior se torna necessária. Nesta dissertação, apresentam-se os primeiros avanços nesta direção considerando o suposto da regressão G0I . Primeiramente, várias expressões em forma fechada para cumulantes de terceira ordem para RG0I são apresentadas. Subsequentemente, propõe-se uma expressão em forma fechada para viés de segunda ordem segundo a expressão de Cox-Snell. A fim de quantificar o desempenho da estimação melhorada, sua performance é quantificada comparativamente àquela das estimativas de máxima verossimilhança original. Finalmente uma aplicação a dados reais é realizada. Em todos os resultados numéricos, é possível observar a importância da proposta desta dissertação.

4
  • LUDMILA DE PINHO CAVALCANTI
  • Um Modelo Biológico com Operador de Substituição

  • Líder : ALEX DIAS RAMOS
  • MIEMBROS DE LA BANCA :
  • ANATOLI IAMBARTSEV
  • ALEX DIAS RAMOS
  • GETULIO JOSE AMORIM DO AMARAL
  • Data: 28-abr-2023


  • Resumen Espectáculo
  • Muitos organismos biológicos são constituídos por bilhões de células, e durante seu desenvolvimento algumas delas podem apresentar a reprodução celular, isto é, o processo de divisão celular, conhecido como mitose, tornando-se duas células semelhantes. Outras células sofrem morte celular. Neste trabalho, propomos e analisamos um modelo matemático, em tempo discreto, para descrever a reprodução e morte celular. Assumimos que essas células estão localizadas em Z e as células que sofreram a morte celular permanecem no sistema. O conceito utilizado para essa modelagem
    não é recente, contudo sua apresentação formal é. Em nosso modelo, a célula que
    sofreu morte celular é representada por 1 (um) e a célula ativa por 0 (zero). Cada
    célula ativa pode sofrer morte celular com probabilidade p ou sofrer reprodução celular
    com probabilidade 1 − p. Isto ocorre de forma independente para cada célula. Para o
    nosso modelo, P, fomos capazes de trazer uma formalização matemática, a qual exibe
    a existência de uma transição de fase entre os comportamentos de ergodicidade versus
    não ergodicidade. Contudo, outras características ainda merecem atenção.

5
  • JOAO ANTONIO MIRANDA GONDIM
  • Sapos, Árvores e Partículas Coalescentes

  • Líder : PABLO MARTIN RODRIGUEZ
  • MIEMBROS DE LA BANCA :
  • NEVENA MARIC
  • RINALDO BRUNO SCHINAZI
  • ALEX DIAS RAMOS
  • PABLO MARTIN RODRIGUEZ
  • Data: 13-jul-2023


  • Resumen Espectáculo
  • Esta dissertação considera alguns modelos estocásticos discretos. No primeiro modelo,
    analisamos um modelo em árvores n-árias no qual variáveis aleatórias uniformes independentes
    são associadas aos vértices. Chamamos essa variável aleatória de fitness do vértice e estamos
    interessados em determinar quando existe um caminho acessível, isto é, um caminho da raiz
    até uma folha ao longo do qual o fitness é crescente. Isso fornece uma interpretação biológica
    do problema, pois o modelo pode representar um genótipo que sofre uma mutação a cada
    geração. Por seleção natural, é esperado que surjam genótipos mais adaptados ao ambiente
    no decorrer desse processo. Em seguida, abordamos modelos sobre os inteiros. Um deles diz
    respeito a partículas coalescentes em um intervalo. Inicialmente, temos uma partícula em cada
    inteiro do intervalo [0, n] e, a cada instante (discreto) de tempo, sorteamos aleatoriamente
    uma delas (exceto a que está em 0), a qual salta para o inteiro imediatamente à esquerda,
    coalescendo com qualquer partícula que eventualmente já ocupe esta posição. O resultado
    apresentado neste texto estuda o tempo esperado para que todas as partículas coalesçam em 0.
    Finalmente, fechamos o trabalho com o modelo dos sapos, o qual considera um número infinito
    de partículas realizando passeios aleatórios independentes sobre os inteiros, e estudamos a
    condição para que o modelo seja recorrente.

6
  • JHON FRANKLIN PUERRES TIPAS
  • MODELOS DE RUMORES EM ÁRVORES

  • Líder : PABLO MARTIN RODRIGUEZ
  • MIEMBROS DE LA BANCA :
  • PABLO MARTIN RODRIGUEZ
  • VALDIVINO VARGAS JÚNIOR
  • ÉLCIO LEBENSZTAYN
  • Data: 04-ago-2023


  • Resumen Espectáculo
  • Neste trabalho, estudamos o modelo de boato de Maki-Thompson em árvores homogêneas infinitas e uma variante desse modelo em árvores especiais. O modelo padrão é definido supondo-se que uma população representada por um grafo seja subdividida em três classes de indivíduos: ignorantes, propagadores e neutros. Um propagador transmite informações a qualquer de seus vizinhos ignorantes mais próximos à taxa de um. Na mesma proporção, um propagador se torna neutro após entrar em contato com outros propagadores ou neutros. Neste trabalho, estudamos uma variante de este modelo, atribuindo uma probabilidade p em (0, 1) a um propagador para transmitir ou boato, isso nos permitiu estender o modelo para árvores especiais. Definimos um parâmetro crítico p_c do modelo como o valor crítico em torno do qual o boato se extingue ou sobrevive com probabilidade positiva.

Tesis
1
  • CESAR LEONARDO BARBOSA DA SILVA
  • A new family of distribution based on M-O transformation

  • Líder : MARIA DO CARMO SOARES DE LIMA
  • MIEMBROS DE LA BANCA :
  • CÍCERO CARLOS RAMOS DE BRITO
  • FRANK SINATRA GOMES DA SILVA
  • HEMILIO FERNANDES CAMPOS COELHO
  • MARCELO BOURGUIGNON PEREIRA
  • MARIA DO CARMO SOARES DE LIMA
  • Data: 23-ene-2023


  • Resumen Espectáculo
  • This work, in the area of Probability and Mathematical Statistics, has its nucleus based on the Theory of New 
    Distributions, its properties and applications. A sequence of facts is established, ranging from a brief introductory
     summary, dealing with the need for new distributions, to the proposition of a class of transformations, among which, 
    the well-known Marshal-Olkin, whose expression can be derived. This class, then, is applied according to the 
    aforementioned transformation, to known distributions such as, for example, Exponential, Weibull, among others. 
    Some properties are studied according to a log-logistic geometric family, developed by do Carmo, as well as a 
    geometric emphasis associated with the classification of the risk function, of the distributions under analysis, 
    according to the regions in which their curves - of the risk functions -, are immersed, according to a criterion
     developed by Qian. Before, however, the actual applications, some mathematical properties related to moment
     calculations are presented, making reference to canonical methods, as well as methods under development,
     using non-canonical techniques, and use of special Spence functions. The applications, an essential part of the
     work, are interdisciplinary in nature, moving between epidemiological data from the current global crisis, due 
    to Covid-19, passing through climatology and reflecting the intense rains that afflicted the State of Pernambuco,
     in particular, in the year 2022 The new distributions are also applied to physical systems that demand statistical 
    treatment, that is, the problem of turbulence. Times of transitions from hydrodynamic regimes to turbulence are 
    analyzed. These studies play an important role in theoretical science and applications ranging from the construction
    of airplanes and ships, to biological processes involving the dynamics of blood in the heart.

2
  • LUCAS DAVID RIBEIRO REIS
  • Some Extended Chen Distributions

  • Líder : GAUSS MOUTINHO CORDEIRO
  • MIEMBROS DE LA BANCA :
  • ABRAAO DAVID COSTA DO NASCIMENTO
  • EDWIN MOISES MARCOS ORTEGA
  • GAUSS MOUTINHO CORDEIRO
  • MARCELO BOURGUIGNON PEREIRA
  • MARIA DO CARMO SOARES DE LIMA
  • PABLO MARTIN RODRIGUEZ
  • Data: 06-feb-2023


  • Resumen Espectáculo
  • In recent years, several new distributions have appeared in the literature. These new distributions are introduced by adding extra parameters to the baseline distributions, from distribution generators. The more known generators are, Beta-G (Eugene et al., 2002), Kumasrawamy-G (Cordeiro and de Castro, 2011), Marshall-Olkin-G (Marshall and Olkin, 1997), odd-log-logistic-G (Gleaton and Lynch, 2006), where G is the cumulativedistribution function of an arbitrary baseline distribution. Numerous new distributions using these various generators have been introduced. In this work, two other new families of distributions and three others new distributions are proposed. The two families of distributions proposed are: the Stacy-G, which is introduced from the Stacy distribution and the unit gamma-G, based on the unit gamma distribution. These two families ofdistributions add two extra parameters to the baseline distributions. When these two parameters are equal to 1, the baseline distribution is obtained. The Stacy-G family also has the gamma-G family as a special case. In both families it is shown that their respective density functions can be written as a linear combination of exp-G densities. Taking the log of a non-negative random variable from the baseline distribution, and reparameterizing for the location-scale family, the regression model for these two classes of distributions are introduced. With respect to the three new distributions introduced, these were obtained from the bi-parametric Chen (Chen, 2000) distribution, which has a bathtub-shaped failure rate function. The Chen distribution was inserted in the generators gamma-G, Mcdonald-G and logistic-X, thus giving names to gamma-Chen, Mcdonald-Chen and logistic-Chen distributions. The parameters of these distributions are estimated by the maximum likelihood method. Simulation studies and applications to real data are considered to show the potentiality of the three new distributions and the two families of distributions. In the losgistic-Chen distribution, a regression model for censored data, having reparameterization at the median, is also introduced.

3
  • ROMMY CAMASCA OLIVARI
  • Nonlinear mixed effects models for censored data considering elliptical autoregressive errors

  • Líder : FRANCISCO JOSE DE AZEVEDO CYSNEIROS
  • MIEMBROS DE LA BANCA :
  • ALDO WILLIAM MEDINA GARAY
  • FRANCYELLE DE LIMA MEDINA
  • ROBERTO FERREIRA MANGHI
  • CELSO RÔMULO BARBOSA CABRAL
  • JUVENCIO SANTOS NOBRE
  • Data: 14-feb-2023


  • Resumen Espectáculo
  • Mixed effects models are frequently used tools for studying longitudinal data. However, due to the possible complexity of this type of data, it is attractive to develop extensions of these models with more flexible assumptions aimed at improving the fit of the data. In this context, we propose a more flexible extension of mixed effects models with censored responses and autoregressive normal errors of order $p$. For this, we initially assign the elliptical distribution class to the random components of the model. This family of distributions will allow us to work with datasets with lighter or heavier tails than normal, allowing a less sensitive fit to the presence of atypical observations. Thus, an EM-type algorithm was developed to obtain the maximum likelihood estimates and the standard errors of these estimates using the empirical information matrix. On the other hand, in the last few years, there has been a growing interest in statistical methods for analyzing longitudinal data with spatial effects. In this context, we propose a second extension of the initially proposed model, including spatial dependence in the distribution of the random effect. To assess the goodness of fit and assumptions of the proposed models, martingale residuals and diagnostic measures were used based on the global and local influence approach. We present simulation studies under different scenarios to evaluate the asymptotic properties of the estimators and the performance of this class of models in the presence of outliers. Finally, practical examples with real data were analyzed.

4
  • ALEXSANDRA GOMES DE LIMA
  • Análise de Agrupamentos com Informação Espacial

  • Líder : RAYDONAL OSPINA MARTINEZ
  • MIEMBROS DE LA BANCA :
  • JOSE LUIZ DE AMORIM RATTON JUNIOR
  • MARCEL DE TOLEDO VIEIRA
  • PEDRO LUIS DO NASCIMENTO SILVA
  • RAYDONAL OSPINA MARTINEZ
  • VINICIUS QUINTAS SOUTO MAIOR
  • Data: 27-feb-2023


  • Resumen Espectáculo
  • Este trabalho apresenta um estudo sob a perspectiva da análise de agrupamento envolvendo informação espacial e dados criminais. Foram considerados cinco métodos de agrupamento: K-Means, PAM, VNSKMED, Ward-Like e SKATER, além disso, foi proposta uma alteração nos algoritmos Ward-Like e SKATER modificando a estrutura de pesos e o processo de partição dos grupos usando a distância Gower, nomeados de Ward-Like. New e SKATER. New, respectivamente. Os métodos foram comparados, por meio de três índices de validação: índice Calinski-Harabasz, índice Dunn e índice Davies-Bouldin. Para o estudo de caso, foram utilizados dados de 2007 a 2015 sobre a ocorrência de crimes dos bairros da cidade de Recife envolvendo as classificações das Áreas Integradas de Segurança. Os algorítmos permitiram explorar os padrões relacionados aos crimes, possibilitando mapeá-los em clusters de bairros da capital pernambucana. Os resultados mostraram que os métodos Ward-Like e SKATER produziram os melhores resultados e a modificação SKATER.New atestou maior qualidade na partição dos grupos.
     
     
5
  • ALISSON DOS SANTOS SILVA
  • TEORIA DA INFORMAÇÃO APLICADA A DISTRIBUIÇÕES CONJUNTAS INDUZIDAS DO ATRIBUTO SPAN (TOTAL SCATERRING POWER IMAGE) EM IMAGENS POLSAR

  • Líder : ABRAAO DAVID COSTA DO NASCIMENTO
  • MIEMBROS DE LA BANCA :
  • ABRAAO DAVID COSTA DO NASCIMENTO
  • ALEJANDRO CESAR FRERY ORGAMBIDE
  • ANDERSON A. DE BORBA
  • GETULIO JOSE AMORIM DO AMARAL
  • JODAVID DE ARAUJO FERREIRA
  • Data: 27-feb-2023


  • Resumen Espectáculo
  • O sistema de radar de abertura sintética polarimétrica (PolSAR) é uma das ferramentas de maior sucesso para resolver problemas de sensoriamento remoto. Tal como em todos os recursos imagéticos que utilizam iluminação coerente, as imagens PolSAR são contaminadas por um ruído multidimensional granular denominado como speckle, que analisa a natureza não normal e multiplicativa aos dados resultantes. Portanto, é necessário um processamento sob medida das imagens PolSAR, por exemplo, melhores testes de hipóteses e detectores de mudança. Nesta proposta de tese, usamos a distribuição gama bivariada (MBG) da McKay para descrever uma distribuição conjunta resultante de dois componentes da imagem de poder de dispersão total (SPAN). Ainda no contexto de uma modelagem especializada, propõe-se (a partir da MBG e da abordagem de modelagem multiplicativa) uma nova distribuição bivariada — chamada GI0 McKay bivariada (GI0 MB) - para descrever um par aleatório induzido do SPAN, bem como são derivadas algumas propriedades associadas a GI0 MB: como esperança, covariância, função geradora de momento e função geradora de cumulantes. O objeto de investigação aplicada desta proposta de tese é construir novos detectores de mudança com base das distribuições induzidas pelo SPAN, a saber MBG e GI0 MB. Para este fim, derivaram- se expressões de forma fechada para as divergências de Kullback-Leibler e Rényi para a as distribuições MBG e GI0 MB. Como consequência, novos testes de hipótese para duas amostras em divergência são introduzidos, sendo seus desempenhos analisados via experimentos de Monte Carlo. Finalmente, aplicamos os novos testes às imagens reais da PolSAR para avaliar as mudanças causadas pelos processos de urbanização em Los Angeles e regiões da Califórnia. Os resultados mostraram que nossas propostas conseguem detectar mudanças nas imagens PolSAR, sendo determinadas técnicas recomendadas para especificas naturezas dos dados.

6
  • CODJO OLIVIER SOSSA
  • Teoria Assintótica de Alta Ordem nos Modelos Não Lineares Simétricos Heteroscedásticos

  • Líder : AUDREY HELEN MARIZ DE AQUINO CYSNEIROS
  • MIEMBROS DE LA BANCA :
  • ALDO WILLIAM MEDINA GARAY
  • AUDREY HELEN MARIZ DE AQUINO CYSNEIROS
  • FRANCISCO JOSE DE AZEVEDO CYSNEIROS
  • MARIANA CORREIA DE ARAÚJO
  • MIGUEL ANGEL URIBE OPAZO
  • Data: 28-feb-2023


  • Resumen Espectáculo
  • Cysneiros et al. (2010) propuseram a classe dos modelos não lineares simétricos heteroscedásticos (MNLSH). Esta classe de modelos inclui todas as distribuições contínuas simétricas e tem uma ampla variedade de aplicações práticas em vários campos, a saber: engenharia, biologia, medicina, economia, entre outros. No nosso trabalho, consideramos uma estrutura não linear qualquer para a dispersão, tendo a heteroscedasticidade multiplicativa como um caso particular, estendendo portanto, os artigos de Cysneiros et al (2010) e Araújo et al. (2022). Duas linhas de pesquisa são abordadas neste trabalho. A primeira, trata da derivação de expressões analíticas que permitam calcular os vieses dos estimadores de máxima verossimilhança na classe dos MNLSH, possibilitando a obtenção de estimadores corrigidos, que, em princípio, são mais precisos que os não corrigidos. Estimadores com vieses corrigidos por bootstrap são também considerados. Adicionalmente, apresentamos diferentes tipos de intervalos de confiança. A segunda linha de pesquisa, aborda a derivação de ajustes para as estatísticas de testes (razão de verossimilhanças,escore e gradiente), com o objetivo de melhorar a qualidade das inferências acerca dos parâmetros de regressão da média e da dispersão nos MNLSH. Os desempenhos dos estimadores e testes de hipóteses serão avaliados numericamente e comparados às suas contrapartidas usuais através de estudos de simulação de Monte Carlo, no que tange ao tamanho e ao poder, em amostras finitas. Adicionalmente, a utilidade dos refinamentos desenvolvidos será ilustrada através de aplicações a conjunto de dados reais.

7
  • LUAN PORTELLA DA SILVA
  • Algoritmos e transformadas de baixa complexidade computacional para o cálculo da DFT.


  • Líder : RENATO JOSE DE SOBRAL CINTRA
  • MIEMBROS DE LA BANCA :
  • BRUNA GREGORY PALM
  • FÁBIO MARIANO BAYER
  • RENATO JOSE DE SOBRAL CINTRA
  • RICARDO MENEZES CAMPELLO DE SOUZA
  • THIAGO LOPES TRUGILLO DA SILVEIRA
  • VITOR DE ANDRADE COUTINHO
  • Data: 27-mar-2023


  • Resumen Espectáculo
  • A importância da transformada discreta de Fourier (DFT) decorre da sua rica interpretação física e de seus princípios matemáticos. Em processamento de sinais, a DFT desempenha um papel fundamental em análise espectral, filtragem e convoluções rápidas de sinais. Na intenção de reduzir o custo computacional da DFT, uma série de algoritmos, denominados algoritmos rápidos de Fourier (FFT), foram desenvolvidos. Capazes de reduzir a complexidade multiplicativa de ON2para ONlog2N, os algoritmos rápidos permitiram que o uso da DFT fosse difundido. No entanto, o cômputo exato da DFT pode ser um obstáculo em aplicações que apresentam condições restritivas, como consumo de energia, área de ocupação no chip, tempo, entre outras. Se, em tais condições, pequenos desvios de acurácias forem permitidos, o cálculo da DFT pode ser realizado de forma aproximada. O presente trabalho aborda três tópicos da DFT. Primeiramente, uma versão aproximada do algoritmo de Good-Thomas  capaz de realizar todo o cálculo da DFT sem necessidade de multiplicações é apresentada. Segundo, baseado em iterações do algoritmo Radix-N de Cooley-Tukey são propostas transformadas aproximadas para sinais de comprimento N2n. E por último, baseado nas propriedades da DFT, um estimador de baixa complexidade é proposto para o cálculo da autocorrelação. Todas as propostas contêm: (i) construção de algoritmos rápidos, (ii) avaliação da complexidade aritmética, e (iii) análise de erro. Embora preliminares, os resultados das propostas mencionadas são promissores e possuem contribuições relevantes para a área de processamento de sinais.

8
  • ANABETH PETRY RADÜNZ
  • Aproximações de baixa complexidade para transformadas discretas: projeto, algoritmos rápidos, codificação de imagens e inferência estatística.


  • Líder : RENATO JOSE DE SOBRAL CINTRA
  • MIEMBROS DE LA BANCA :
  • THIAGO LOPES TRUGILLO DA SILVEIRA
  • ANDRE LEITE WANDERLEY
  • DIEGO FELIPE GOMES COELHO
  • FÁBIO MARIANO BAYER
  • RENATO JOSE DE SOBRAL CINTRA
  • RICARDO MENEZES CAMPELLO DE SOUZA
  • Data: 31-mar-2023


  • Resumen Espectáculo
  • Transformadas discretas desempenham um papel importante no contexto de processamento de sinais. Elas são ferramentas pivotais pois permitem analisar e interpretar dados no domínio das transformadas, que frequentemente revelam padrões úteis. Em particular, podemos citar a transformada discreta de Fourier (DFT), a transformada de Karhunen-Loève (KLT) e a transformada discreta do cosseno (DCT) como as transformadas mais relevantes no contexto de processamento de sinais e imagens. Embora a relevância do uso dessas transformadas tenha sido amplamente corroborado em diversos estudos, os custos computacionais necessários para suas implementações podem se tornar proibitivos em contextos em que temos grande quantidade de dados e/ou a demanda por dispositivos de baixa complexidade. Nesse sentido, algoritmos rápidos podem ser uma solução para a redução das operações aritméticas necessárias para a computação das transformadas, porém, ainda é preciso lidar com a aritmética do ponto flutuante. Dessa forma, diversas aproximações matriciais de baixa complexidade vêm sendo propostas, como sendo uma alternativa de baixo custo para o cômputo destas transformadas. A presente tese está dividida em duas partes. Na primeira parte, abordamos a transformada de Karhunen-Loève, propomos diversas classes de aproximações de baixa complexidade para esta transformada, algoritmos rápidos, e demonstramos sua usabilidade no contexto de processamento de imagens. Na segunda parte da tese, abordamos a transformada discreta de Fourier (DFT), apresentamos classes de aproximação para esta transformada e sua aplicabilidade em problemas de inferência estatística, como no contexto de detecção de sinais e na estimação de parâmetros de baixa complexidade. Particularmente, abordamos a estimação do bispectro, que pode ser calculado como a DFT da sequência de cumulantes de terceira ordem. Dos resultados obtidos, podemos concluir que as aproximações de baixa complexidade para as transformadas podem ser consideradas excelentes alternativas em contextos em que há uma quantidade massiva de dados a ser processada ou no caso de implementação em hardware de baixo consumo.

9
  • ALECIO SOARES SILVA
  • Um estudo sobre alguns conceitos de estabilidade com horizonte variável no Modelo de Grafos para Resolução de Conflitos

  • Líder : LEANDRO CHAVES REGO
  • MIEMBROS DE LA BANCA :
  • ALEXANDRE BEVILACQUA LEONETI
  • GIANNINI ITALINO ALVES VIEIRA
  • LEANDRO CHAVES REGO
  • MAISA MENDONCA SILVA
  • RAYDONAL OSPINA MARTINEZ
  • ROBERTO FERREIRA MANGHI
  • Data: 07-jun-2023


  • Resumen Espectáculo
  • Nesta tese abordamos conceitos de estabilidade de horizonte variável,
    os quais, apesar de serem mais flexíveis, ainda não são muito
    explorados na literatura sobre o Modelo de Grafos
    para Resolução de Conflitos (GMCR). Nosso objetivo é aumentar o
    entendimento sobre tais conceitos proporcionando alguns avanços e
    correções na literatura. Assim, dentre os avanços apresentados, temos
    um teorema que estabelece a equivalência entre os conceitos das
    estabilidades Maximinℎ e Metarracionalidade generalizada 𝑀 𝑅ℎ, para
    conflitos bilaterais, a qual foi justificada pela construção de uma
    política Maximin, baseada na construção de uma árvore Maximin. O
    segundo avanço foram resultados que estabelecem a relação entre as
    estabilidades Maximinℎ e Metarracionalidade Generalizada Alternativa,
    para conflitos multilaterais, que diferente do caso de conflitos com
    dois decisores, não são equivalentes. O terceiro avanço foi propor uma
    generalização alternativa para o conceito da estabilidade Movimento
    Limitado, na qual consideramos os oponentes do decisor focal como uma
    coalizão, que busca atingir estados finais do conflito que não são
    Pareto dominados por algum outro possível estado final. Além disso,
    estudamos as relações deste conceito com os conceitos clássicos de
    estabilidade do GMCR. No que se refere às correções sugeridas, a
    primeira delas foi o fato de o estado antecipado de acordo com a
    estabilidade 𝐿ℎ não ser único, gerando uma ambiguidade, para a qual,
    também, sugerimos uma desambiguação. A segunda, foi apontar que o
    corolário apresentado na literatura sobre o GMCR, sobre equilíbrio em
    políticas e Metarracionalidade Generalizada está incorreto, o que
    mostramos por meio de um exemplo. A terceira correção proposta,
    refere-se à justificativa para o fato de a estabilidade Movimento
    Limitado implicar a estabilidade Metarracional Generalizada, para o
    caso de conflitos bilaterais. Apesar desta implicação ser verdadeira,
    a justificativa não considera que em um conflito, um estado 𝑠 pode
    ser 𝐿ℎ estável para o decisor focal, mas seu oponente pode, ao buscar
    maximizar seu payoff, acessar estados diferentes a partir de um mesmo
    estado, quando este aparecer mais uma vez na árvore que representa
    seus possíveis movimentos. Daí, apresentamos uma justificativa correta
    para a implicação. Por fim, a quarta correção sugerida foi o fato de o
    estado antecipado de acordo com a estabilidade Maximinℎ não ser único,
    o que assim como no caso anterior da estabilidade 𝐿ℎ, também gera uma
    ambiguidade, e mais uma vez, sugerimos uma desambiguação.

10
  • JOSÉ JAIRO DE SANTANA E SILVA
  • Essays on Misspecification Detection for Double Bounded Random Variable Regression Models
  • Líder : FRANCISCO CRIBARI NETO
  • MIEMBROS DE LA BANCA :
  • ALDO WILLIAM MEDINA GARAY
  • FRANCISCO CRIBARI NETO
  • GETULIO JOSE AMORIM DO AMARAL
  • GILBERTO ALVARENGA PAULA
  • SILVIA LOPES DE PAULA FERRARI
  • Data: 27-jul-2023


  • Resumen Espectáculo
  • A distribuição beta é usada rotineiramente para modelar variáveis que assumem valores no intervalo unitário padrão. Várias leis alternativas foram, contudo, propostas na literatura, tais como as distribuições Kumaraswamy e simplex. Uma questão natural e empiricamente motivada é: a lei beta fornece uma representação adequada para os dados sob análise? Nós testamos a hipótese nula de que o modelo beta está corretamente especificado contra a hipótese alternativa de que ele não fornece um ajuste adequado aos dados. Nossos testes são baseados na igualdade da matriz de informação, que somente é válida quando o modelo se encontra corretamente especificado. Os testes são, portanto, sensíveis a qualquer forma de especificação incorreta do modelo. Resultados de simulação mostram que os testes têm bom desempenho, especialmente quando utilizados com reamostragem bootstrap. Nós modelamos as taxas de mortalidade estaduais e municipais de Covid-19 nos Estados Unidos. Nossos testes de má especificação indicam que a lei beta representa adequadamente as taxas de mortalidade do Covid-19 quando estas são computadas com base em dados anteriores ao início da campanha de vacinação de Covid-19 ou com base em dados coletados quando tal campanha já se encontrava em andamento. No último caso, a lei beta só é aceita quando o impacto da vacinação sobre as taxas de mortalidade é moderado. O modelo beta é rejeitado sob heterogeneidade de dados, ou seja, quando as taxas de mortalidade são computadas usando informações coletadas durante ambos os períodos de tempo. Os testes de má especificação são estendidos para cobrir o modelo beta de regressão de precisão variável. Apresentamos expressões em forma fechada para tais estatísticas de teste na classe de modelos de regressão em que a variável de resposta segue distribuição beta com estruturas de regressão separadas para sua média e precisão. São apresentados resultados de simulação de Monte Carlo sobre o comportamento dos testes, tanto sob a hipótese nula como sob a hipótese alternativa. 
11
  • ELISÂNGELA CANDEIAS BIAZATTI
  • Some new distributions and new distributions families: Theory and applications

  • Líder : GAUSS MOUTINHO CORDEIRO
  • MIEMBROS DE LA BANCA :
  • ABRAAO DAVID COSTA DO NASCIMENTO
  • EDWIN MOISES MARCOS ORTEGA
  • GAUSS MOUTINHO CORDEIRO
  • MARCELO BOURGUIGNON PEREIRA
  • MARIA DO CARMO SOARES DE LIMA
  • Data: 07-nov-2023


  • Resumen Espectáculo
  • Several classes of distributions have been introduced over the past two decades to extend well-known distributions and provide greater flexibility in modeling real data. In this work, three new families of distributions will be presented: Dual Dagum-G, Exponentiated-Weibull-G and Weibull Flexible-G; and two new distributions of probability: Weibull Beta Prime and Weibull
    extended Weibull. Some properties of the new distributions are presented and the maximum likelihood method was used to estimate the parameters of the proposed distributions. New regression models are also proposed based on new families and distributions.

12
  • JEAN CARLOS CARDOSO
  • PERCOLAÇÃO ACESSÍVEL EM ÁRVORES

  • Líder : PABLO MARTIN RODRIGUEZ
  • MIEMBROS DE LA BANCA :
  • PABLO ALMEIDA GOMES
  • NEVENA MARIC
  • PABLO MARTIN RODRIGUEZ
  • VALDIVINO VARGAS JÚNIOR
  • ÉLCIO LEBENSZTAYN
  • Data: 17-nov-2023


  • Resumen Espectáculo
  • Embora a percolação acessível seja um conceito recente, muitos trabalhos foram desenvolvidos na ultima década abordando esse tema tão em voga. A possibilidade de modelar problemas reais usando a teoria de percolação sem dúvida é o que faz essa área ser tão interessante e aclamada. O objetivo principal do nosso trabalho é encontrar condições para percolação acessível em árvores esfericamente simétricas. Sendo assim, neste trabalho introduzimos uma nova forma de caracterizar árvores esfericamente simétrica, denotada por2-power. Este novo conceito é baseado na velocidade do crescimento da árvore. Para provar a percolação acessível dessas novas árvores foi necessário a criação do que chamamos de percolaçãoδ-acessível. Esta por sua vez é uma forma mais restrita da já conhecida percolação acessível.Vários resultados foram derivados da criação desses conceitos e
    exemplos selecionados foram utilizados para a compreensão dos principais resultados.
    Finalizamos nosso trabalho explicitamos também condições para a extinção de árvores
    esfericamente simétricas

2022
Disertaciones
1
  • JAIME PHASQUINEL LOPES CAVALCANTE
  • VARIABILIDADE E ADERÊNCIA EM MODELOS DE APRENDIZADO DE MÁQUINA COM DISTRIBUIÇÃO BETA

  • Líder : PATRICIA LEONE ESPINHEIRA OSPINA
  • MIEMBROS DE LA BANCA :
  • RAFAEL IZBICKI
  • FRANCISCO CRIBARI NETO
  • PATRICIA LEONE ESPINHEIRA OSPINA
  • RAYDONAL OSPINA MARTINEZ
  • Data: 07-feb-2022


  • Resumen Espectáculo
  • Proposto por Ferrari e Cribari-Neto (2004), o modelo de regressão beta tem sido
    objeto de estudo de diversos autores devido a sua relevância para a modelagem
    de fenômenos cuja variável resposta esteja definida no intervalo unitário (0,1).
    No tocante ao diagnóstico dos modelos de regressão beta, Espinheira et al.
    (2008) apresentaram a definição de resíduos baseados no processo iterativo
    Scoring de Fisher, sendo esta amplamente utilizada para a generalização e
    proposição de novos resíduos para as extensões dos modelos de regressão
    beta. Com o foco na distribuição de probabilidade e observando que a mesma
    forma uma família exponencial bidimensional, utilizamos o Teorema da Função
    Integrável - demonstrado por Barndorff-Nielsen (1978) e Lehmann (1986) - para
    propor uma nova classe de resíduos e critérios do tipo baseados nas estatísticas
    suficientes e completas com a finalidade de avaliar a variabilidade e aderência,
    além de realizar diagnósticos em modelos de aprendizado de máquina (machine
    learning) com distribuição beta. Além disso, para o modelo de regressão beta,
    propomos um novo resíduo baseado no processo iterativo Scoring de Fisher.
    Quanto à qualidade preditiva, utilizamos a estatística PRESS e o coeficiente de
    predição , introduzido por Espinheira et al. (2019) para a classe de modelos de
    regressão beta lineares e não-lineares. O desempenho das propostas é avaliado
    por meio de três aplicações, associadas a um conjunto de dados reais, relativas
    ao estudo do risco a doenças cardiovasculares.

2
  • JACIELE DE JESUS OLIVEIRA
  • Modelos SIR e algoritmos tipo ensemble com aplicações a COVID-19

  • Líder : RAYDONAL OSPINA MARTINEZ
  • MIEMBROS DE LA BANCA :
  • ALEX DIAS RAMOS
  • HEMILIO FERNANDES CAMPOS COELHO
  • RAYDONAL OSPINA MARTINEZ
  • Data: 14-feb-2022


  • Resumen Espectáculo
  • Em janeiro de 2020 o mundo foi surpreendido com uma nova epidemia, o COVID-19, causada pelo vírus Sars-Cov-2.  O surto deste vírus teve início na China e se espalhou rapidamente pelo mundo, de forma que no dia 11 de março de  2020 a Organização Mundial de Saúde (OMS) classificou o alastramento do vírus como uma pandemia. Por se tratar  de um vírus novo, até então, não havia conhecimento sobre o seu comportamento, tornando crucial o uso de ferramentas estatísticas e matemáticas que permitissem descrever o curso da epidemia. Neste trabalho abordaremos algumas dessas  ferramentas, que podem ser utilizadas para descrever a propagação de doenças infecciosas. Ajustamos o modelo  compartimentado SIR aos dados de COVID-19 do estado da Paraíba para estimar as taxas de infecção e recuperação da  doença e comparamos com resultados de prevalência estimados por uma pesquisa amostral sorológica probabilística  realizada no estado. Os resultados obtidos pelo modelo SIR indicam subestimação com base em dados com possível  subnotificação. Numa tentativa de aprimorar a análise dos dados, passamos a trabalhar com as curvas acumuladas de  óbitos, uma vez que essas curvas são mais estáveis e os números de óbitos não dependem do registro de casos confirmados.  Para isso utilizamos uma abordagem via modelo combinados (ensemble). Este tipo de abordagem usa modelos dinâmicos  de crescimento integrando a predição de vários modelos através de uma combinação ponderada, o que permite diminuir  o erro de previsão. Para a construção do modelo ensemble utilizamos os modelos de crescimento logístico, de Gompertz  e de Richards. O modelo ensemble se ajustou de forma satisfatória aos dados se mostrando uma metodologia promissora  para predição dos dados da COVID-19.

3
  • JERFSON BRUNO DO NASCIMENTO HONÓRIO
  • Classificação Não Supervisionada no Contexto de Tamanho e Forma

  • Líder : GETULIO JOSE AMORIM DO AMARAL
  • MIEMBROS DE LA BANCA :
  • FERNANDA DE BASTIANI
  • GETULIO JOSE AMORIM DO AMARAL
  • LUCIA PEREIRA BARROSO
  • Data: 17-feb-2022


  • Resumen Espectáculo
  • A dissertação tem como objetivo propor métodos de classificação não supervisionados no contexto de tamanho e forma considerando imagens bidimensionais (formas planas). Apresentamos novos métodos de classificação baseados em testes de hipóteses e no algoritmo K-médias. Também propomos combinações de algoritmos usando métodos de ensemble: Bagging e Boosting.

    Para avaliar os métodos propostos foram analisados dados simulados e dados reais. Com os dados simulados, três cenários foram usados para avaliar o desempenho dos métodos propostos.  Os cenários correspondem a grupos de alta, média e baixa variabilidade. Os resultados numéricos indicaram que para os conjuntos de dados, quando os tamanhos dos centróides se diferenciam, o desempenho dos algoritmos melhora. Além disso, os algoritmos baseados em Boosting e Bagging superam suas versões básicas. Três conjuntos de dados do mundo real são considerados: dados de referência de crânios de grandes macacos; dados de vértebras de camundongos e imagens de ressonância magnética de pessoas com esquizofrenia. Esses conjuntos de dados têm configurações diferentes, como vários pontos de referência e variabilidade. Os métodos K-médias Bagging e K-médias Boosting tem o melhor desempenho nos conjuntos de dados. Por fim, considerando os resultados com dados sintéticos e reais, o k-médias Bagging é escolhido como o melhor método.

4
  • RAFAEL ZIMMERLE DA NOBREGA
  • Causal Inference in Sampling From Finite Populations

  • Líder : CRISTIANO FERRAZ
  • MIEMBROS DE LA BANCA :
  • CRISTIANO FERRAZ
  • VINICIUS QUINTAS SOUTO MAIOR
  • MAURICIO TEIXEIRA LEITE VASCONCELLOS
  • Data: 18-feb-2022


  • Resumen Espectáculo
  • Causal inference deals with estimating the effects of specific interventions on a response variable. The estimation strategy involves comparing units exposed to intervention factor’s levels, forming a treatment group, with those units not exposed, forming a control group. The control group serves as the base to estimate the counterfactual response of the treatment group. In observational studies, a major concern when building such groups is to ensure their comparability, controlling for characteristics others than the treatment itself, that may cause undesired interference on causal effects estimates, leading to systematic bias. Although the theory behind observational studies has advanced with methods to reduce such bias using conditional inference, in several of these studies data is obtained through complex probability sampling designs seldom taken into account in the estimation process.  This thesis considers that, beyond representing a source of variability that must be incorporated in the analysis, sample design and estimation techniques can have a central role to estimate causal effects efficiently. Studies are carried out to investigate the use of balanced samples to ensure comparability between treatment and control groups with respect to the distributions of covariates, and the use of calibration estimates for the control group average response, improving estimates of the average counterfactual treatment response. The methods are compared with those already available in the literature, via Monte Carlo simulation.

5
  • PAULO RICARDO PEIXOTO DE ALENCAR FILHO
  • Inverse Bernoulli Sampling and Applications

  • Líder : CRISTIANO FERRAZ
  • MIEMBROS DE LA BANCA :
  • CRISTIANO FERRAZ
  • FERNANDA DE BASTIANI
  • PEDRO LUIS DO NASCIMENTO SILVA
  • Data: 18-feb-2022


  • Resumen Espectáculo
  • The absence of a listing frame that identify and provides access to the elements of a target-population is one of the most recurrent adversities faced by sampling surveys. When sample frames are available not seldom, they need to be updated to be used in practice. When the elements of a target-population are grouped in clusters, the challenge very often rely on the non-existence or the outdating of existing listing frame of elements within clusters. In this Thesis the Inverse Bernoulli Sampling design is presented, its statistical properties discussed and its potential use in the second stage of two-stage sampling designs, to select a sample at the same time an updating screening process is carried out, is investigated. The performance of two-stage designs combining Pareto Sampling or Sequential Poisson sampling in the first stage, with Inverse Bernoulli Sampling or Systematic Sampling in the second stage, is studied by a computational Monte Carlo experiment using data from the serological Survey Sample Continuar Cuidando, carried out in the Brazilian state of Paraiba, to monitor the COVID-19 epidemics.

6
  • THOMÁS FREUD DE MORAIS GONÇALVES
  • Acerca do Processo-Bell-Touchard: proposta de um processo de contagem baseado na distribuição Bell-Touchard

  • Líder : PABLO MARTIN RODRIGUEZ
  • MIEMBROS DE LA BANCA :
  • PABLO MARTIN RODRIGUEZ
  • ÉLCIO LEBENSZTAYN
  • VALDIVINO VARGAS JÚNIOR
  • Data: 22-feb-2022


  • Resumen Espectáculo
  • Uma das limitações do processo Poisson é a hipótese de saltos unicamente unitários em intervalos infinitesimais. Todavia essa limitação é contornada pelo processo Poisson composto. Entretanto, em muitos casos a distribuição de probabilidade dos incrementos não tem forma conhecida no processo Poisson composto, limitando sua modelagem ao uso de funções geradoras de probabilidades ou técnicas numéricas e simulações. Neste trabalho, propomos um novo processo de contagem baseado na distribuição Bell-Touchard, denominado processo Bell-Touchard. Entre suas propriedades, verificamos que o processo é membro da família de processos Poisson compostos e Poisson múltiplos e que também é fechado para convolução e decomposição. Mostramos que o processo decorrente da composição de processos Poisson é Bell-Touchard. Apresentamos duas generalizações, o processo Bell-Touchard composto e o processo Bell-Touchard não homogêneo, mostrando que este último pode ser obtido pela composição de um processo Poisson não homogêneo em um processo Poisson homogêneo. Ademais, apresentamos uma estratégia para simulação do novo processo, bem como uma aplicação em teoria da ruína, mediante uma modificação do processo Cramér-Lundberg

7
  • DIEGO DA SILVA SANTOS
  • MODELOS DE REGULARIZAÇÃO COM IMPUTAÇÃO E CURVAS DE DECISÃO APLICADOS A DADOS DE MEDICINA

  • Líder : PABLO MARTIN RODRIGUEZ
  • MIEMBROS DE LA BANCA :
  • PABLO MARTIN RODRIGUEZ
  • FLORENCIA GRACIELA LEONARDI
  • TATIANA ANDREA BENAGLIA CARVALHO
  • Data: 22-feb-2022


  • Resumen Espectáculo
  • Na análise estatística é comum a presença de dados faltantes em muitas aplicações e estudos em inúmeras áreas com especial ênfase a área da saúde. Estudos foram sendo desenvolvidos ao longo da segunda metade do século XX para contornar o problema de dados faltantes dos quais destacam-se os trabalhos de Rubin (1988) e Schafer (1997) em imputação de dados. Além do tratamento do banco de dados e preenchimento dos dados para utilização das técnicas estatísticas de modelagem que em sua grande maioria são restritas a dados completos, outra questão que se levanta após o tratamento dos dados é a técnica estatística mais adequada a ser utilizada para o determinado objetivo inferencial. Na área de análise de regressão os modelos com regularização vem sendo cada vez mais utilizados em problemas de alta dimensão onde tem-se muitas covariáveis a serem estimadas ou problemas de multicolinearidade. Esta dissertação aborda o problema da modelagem de regressão regularizada aplicada aos dados imputados, em especial ao modelo de regressão LASSO para dados multi-imputados conhecida como MI-LASSO (Chen e Wang, 2013), também utiliza-se a técnica de validação cruzada aninhada (Bates, Hastie e Tibshirani, 2021) para obtenção da variância empírica de validação cruzada e intervalos de confiança mais largos para o erro de validação dentro da amostra envolvidos nos modelos de regularização. Desta forma, é proposta uma abordagem utilizando a imputação múltipla através do Bootstrap Bayesiano atrelado ao modelo LASSO com validação cruzada aninhada para correção da estimativa de variância da validação cruzada usual, e busca-se o modelo com melhor poder de predição (ou classificação para problemas envolvendo modelo logístico com variável resposta de interesse dicotômica). Por fim, utiliza-se da metodologia de curvas de decisão proposta por Vickers e Elkin (2006) para a aplicação em dados de Covid-19 com o intuito de propor uma abordagem correta na tomada de decisões de profissionais da saúde em problemas de diagnóstico clínico na presença de dados faltantes.

8
  • WILLAMS BATISTA FERREIRA DA SILVA
  • Processo ARMA Gama Generalizado Aplicado a Imagens de Amplitude e Intensidade SAR

  • Líder : ABRAAO DAVID COSTA DO NASCIMENTO
  • MIEMBROS DE LA BANCA :
  • ABRAAO DAVID COSTA DO NASCIMENTO
  • FERNANDA VITAL DE PAULA
  • LEANDRO CHAVES REGO
  • Data: 25-feb-2022


  • Resumen Espectáculo
  • Os problemas de sensoriamento remoto são resolvidos usando imagens de radar de aber-tura sintética (SAR). Porém, essas imagens sofrem com o ruído speckle, que exige uma certa modelagem de seus atributos (como intensidade e amplitude). É comum trabalhar com abordagens separadas para dados de intensidade e amplitude. Neste trabalho, propomos um novo processo autoregressivo de médias móveis (ARMA) com distribuição marginal Gama Generalizada (GΓ), denominado GΓ-ARMA e conseguimos modelar ambos os atributos com o mesmo modelo. Derivamos algumas de suas propriedades matemáticas: expressões de forma fechada baseadas em momento, função escore e matriz de informação de Fisher. Um procedimento para obter estimativas de máxima verossimilhança dos parâmetros GΓ-ARMA é fornecido e seu desempenho é quantificado e discutido usando experimentos de Monte Carlo, considerando (entre outras) várias funções de ligação. Por fim, a proposta é aplicada a dados reais obtidos deimagens das regiões de Munique e São Francisco. Os resultados demonstram que GΓ-ARMA descreve as vizinhanças dos pixels da imagem SAR melhor do que o processo  Γ-ARMA (que é uma referência para dados positivos assimétricos). Ao modelar raios de pixel reais, nossaproposta supera os modelos GI0 e Γ-ARMA.

9
  • NOEMIR DOS SANTOS SOUSA LIMA
  • Associação em Tabelas de Contingência de Dupla Entrada com Dados Amostrais Complexos de COVID-19.

  • Líder : CRISTIANO FERRAZ
  • MIEMBROS DE LA BANCA :
  • ALEX DIAS RAMOS
  • CRISTIANO FERRAZ
  • HEMILIO FERNANDES CAMPOS COELHO
  • Data: 29-jun-2022


  • Resumen Espectáculo
  • A associação em tabelas de contingência é averiguada através de estudos que analisam a independência das variáveis ou a homogeneidade, através de testes hipóteses. Nesta dissertação são efetuadas análises com dados amostrais complexos, que são os que possuem: estratificação, conglomeração e/ou probabilidade proporcional a uma medida de tamanho. Utilizamos os dados de COVID-19 da Pesquisa Sorológica Continuar Cuidando, do estado da Paraíba, com o objetivo de apresentar os testes de Rao-Scott e de Wald para investigar a associação em tabelas de contingência de dupla entrada, enfatizando a importância de considerar corretamente o plano amostral.

10
  • SUELEM TORRES DE FREITAS
  • Análise bayesiana dos Modelos de Regressão Linear com Erros simétricos autorregressivos e dados incompletos 

  • Líder : ALDO WILLIAM MEDINA GARAY
  • MIEMBROS DE LA BANCA :
  • ALDO WILLIAM MEDINA GARAY
  • FRANCYELLE DE LIMA MEDINA
  • CELSO RÔMULO BARBOSA CABRAL
  • Data: 29-ago-2022


  • Resumen Espectáculo
  • Os modelos de regressão com erros autorregressivos considerando dados incompletos, isto é, quando a variável de interesse não está completamente disponível, seja pelo fato de ser censurados ou dados ausentes, comumente denotado por missing data, tem se tornado um grande desafio para muitos pesquisadores. Uma suposição rotineira neste tipo de modelos é considerar as inovações seguindo distribuição normal, no entanto é conhecido que esta suposição pode não ser apropriada em especial na presença da dados discordantes, assim este trabalho tem como objetivo principal apresentar uma abordagem Bayesiana dos modelos de regressão com erros autorregressivos, de ordem p, para dados incompletos (censurados ou missingdata) supondo que as inovações seguem distribuições mais flexíveis, que possui como casos particulares as distribuições t de Student, slash, normal contaminada e normal. 

     

11
  • LUCIANO SOARES MENDES JÚNIOR
  • Study of the correlation between adjacent neighbors in transmission models defined in finite graphs
  • Líder : PABLO MARTIN RODRIGUEZ
  • MIEMBROS DE LA BANCA :
  • ANGÉLICA YOHANA PACHÓN PINZÓN
  • LEON ALEXANDER VALENCIA HENAO
  • PABLO MARTIN RODRIGUEZ
  • ÉLCIO LEBENSZTAYN
  • Data: 29-ago-2022


  • Resumen Espectáculo
  • This paper is a theoretical and numerical study of the correlation behavior involved in the
    SIS, SIR, and MT models. Initially, were developed studies about recent arguments in
    the literature. In this step was applied the FKG inequality to show that the variables of
    interest have a non-negative correlation. Subsequently, another argument was analyzed
    with a counterexample and consequently showed that the arguments previously studied
    are not valid for the SIR model. Then, Monte Carlo simulation methods were developed
    to verify the behavior of the correlations in the mentioned models.The first method
    developed estimates the average correlation along the process in a pair of neighboring
    vertices. The second method, in turn, estimates the average correlation in each unit of
    process time. The developed methods were applied in two types of graphs: a k-regular
    graph and another graph formed by two stars with n vertices connected by their respective
    central vertices.We verified that in the SIR and MT models defined in the k-regular
    graph, the correlations present a non-negative behavior. On the other hand, this behavior
    is not repeated by the same models defined in the graph formed by two stars connected
    by their respective central vertices.

Tesis
1
  • FERNANDA CLOTILDE DA SILVA
  • Um Critério de Seleção Para Modelos Beta Baseado no Trade-off Predição e Qualidade de Ajuste

  • Líder : PATRICIA LEONE ESPINHEIRA OSPINA
  • MIEMBROS DE LA BANCA :
  • PATRICIA LEONE ESPINHEIRA OSPINA
  • FRANCISCO CRIBARI NETO
  • RAYDONAL OSPINA MARTINEZ
  • MICHEL H. MONTORIL
  • RAFAEL IZBICKI
  • Data: 16-feb-2022


  • Resumen Espectáculo
  • Muitas vezes surge a necessidade de estudar dados cujos valores pertencem ao intervalo (0; 1), e quando o interesse consiste em ajustar modelos de regressão para tais dados, o uso do modelo de regressão normal linear pode fornecer valores mal ajustados, excedendo os limites do intervalo. Nesse caso, podemos optar pelo uso do modelo de regressão beta, proposto por Ferrari e Cribari-Neto (2004), que tem se mostrado uma ferramenta muito eficiente. Tal modelo se baseia em supor que a variável resposta segue uma distribuição beta, assumindo uma nova parametrização, indexando a média da resposta e um parâmetro de precisão. O uso desse modelo tem crescido consideravelmente nos últimos anos, e diversos trabalhos têm sido desenvolvidos, propondo algumas extensões, como é possível ver em Smithson e Verkuilen (2006), Simas et al. (2010), Carrasco et al. (2014), entre outros. Além das extensões do modelo beta, alguns métodos de análise de diagnóstico também foram desenvolvidos para essa classe de modelos, buscando verificar a adequabilidade do ajuste, identificando possíveis afastamentos das suposições feitas para o modelo. Entretanto, o uso das técnicas de diagnóstico normalmente segue após a escolha de um conjunto de covariáveis consideradas relevantes para o modelo, esse procedimento é conhecido como seleção de modelos, e muitos métodos e critérios têm sido desenvolvidos para sua realização, dentre eles destacam-se os pseudos R^2, que avaliam a proporção de variação da variável resposta que pode ser explicada pelo modelo ajustado, essas medidas foram estudadas e implementadas por Bayer e Cribari-Neto (2017) para a classe de modelos betas. Além dessas quantidades, dispomos também de mais um critério para selecionar modelos, denotado por P^2, que identifica a habilidade do modelo em predizer bons valores para a variável resposta, com base na estatística PRESS (Predictive Residual Sum of Squares), proposta por Allen (1971) e introduzida aos modelos beta por Espinheira et al. (2019). Uma vez que a definição de alguns critérios de seleção tem como interesse verificar o poder de explicação da variabilidade da resposta, ou o poder de predição dos valores desta variável, esse trabalho, tem como objetivo apresentar mais uma medida para selecionar modelos de regressão beta, no entanto, considerando ambos os interesses, isto é, desenvolvemos uma medida que considera tanto a quantidade de variabilidade explicada pelo modelo como também a predição de bons valores. Avaliamos o desempenho da medida proposta por meio de estudos de simulação de Monte Carlo, considerando diversos cenários, também aplicamos bancos de dados reais que reafirmam a eficácia da nossa medida.

2
  • VINICIUS TEODORO SCHER
  • ESSAYS ON BOUNDED TIME SERIES ANALYSIS

  • Líder : FRANCISCO CRIBARI NETO
  • MIEMBROS DE LA BANCA :
  • FRANCISCO CRIBARI NETO
  • PATRICIA LEONE ESPINHEIRA OSPINA
  • RAYDONAL OSPINA MARTINEZ
  • AIRLANE PEREIRA ALENCAR
  • PEDRO ALBERTO MORETTIN
  • Data: 18-feb-2022


  • Resumen Espectáculo
  • Two important steps in time series analysis are model selection and diagnostic analysis. We address the issue of performing diagnostic analysis through portmanteau testing inferences using time series data that assume values in the standard unit interval. Our focus lies in the class of beta autoregressive moving average (βARMA) models. In particular, we wish to test the goodness-of-fit of such models. We consider several testing criteria that have been proposed for Gaussian time series models and two new tests that were recently introduced in the literature. We derive the asymptotic null distribution of the two new test statistics in two different scenarios, namely: when the tests are applied to an observed time series and when they are applied to residuals from a fitted βARMA model. It is worth noticing that our results imply the asymptotic validity of standard portmanteau tests in the class of ARMA models that are, under the null hypothesis, asymptotically equivalent to the two new tests. We use Monte Carlo simulation to assess the relative merits of the different portmanteau tests when used with fitted βARMA. The simulation results we present show that the new tests are typically more powerful than a well known test whose test statistic is also based on residual partial autocorrelations. Overall, the two new tests perform quite well. We also model the dynamics of the proportion of stocked hydroelectric energy in South of Brazil. The results show that the βARMA model outperforms three alternative models and an exponential smoothing algorithm. We also consider the issue of performing model selection with double bounded time series. We evaluate the effectiveness of βARMA model selection strategies based on different information criteria. The numerical evidence for autoregressive, moving average, and mixed autoregressive and moving average models shows that, overall, a bootstrap-based model selection criterion is the best performer. An empirical application which we present and discuss shows that the most accurate out-of-sample forecasts are obtained using bootstrap-based model selection.

3
  • ANA CRISTINA GUEDES PEREIRA
  • ESSAYS ON REGRESSION MODELS FOR DOUBLE BOUNDED AND EXTREME-VALUE RANDOM VARIABLES: IMPROVED TESTING INFERENCES AND EMPIRICAL ANALYSES

  • Líder : FRANCISCO CRIBARI NETO
  • MIEMBROS DE LA BANCA :
  • FRANCISCO CRIBARI NETO
  • FERNANDA DE BASTIANI
  • RAYDONAL OSPINA MARTINEZ
  • FÁBIO MARIANO BAYER
  • GILBERTO ALVARENGA PAULA
  • Data: 21-feb-2022


  • Resumen Espectáculo
  • Beta regressions are commonly used with responses that assume values in the standard unit interval, such as rates, proportions and concentration indices. Hypothesis testing inferences on the model parameters are typically performed using the likelihood ratio test. It delivers accurate inferences when the sample size is large, but can otherwise lead to unreliable conclusions. It is thus important to develop alternative tests with superior finite sample behavior. We derive the Bartlett correction to the likelihood ratio test under the more general formulation of the beta regression model, i.e.\ under varying precision. The model contains two submodels, one for the mean response and a separate one for the precision parameter. Our interest lies in performing testing inferences on the parameters that index both submodels. We use three Bartlett-corrected likelihood ratio test statistics that are expected to yield superior performance when the sample size is small. We present Monte Carlo simulation evidence on the finite sample behavior of the Bartlett-corrected tests relative to the standard likelihood ratio test and to two improved tests that are based on an alternative approach. The numerical evidence shows that one of the Bartlett-corrected typically delivers accurate inferences even when the sample is quite small. An empirical application related to behavioral biometrics is presented and discussed. We also address the issue of performing testing inference in a general extreme value regression model when the sample size issmall. The model contains separate submodels for the location and dispersion parameters. It allows practitioners to investigate the impacts of different covariates on extreme events. Testing inferences are frequently based on the likelihood test, including those carried out to determine which independent variables are to be included into the model. The test is based on asymptotic critical values and may be considerably size-distorted when the number of data points is small. In particular, it tends to be liberal, i.e., it yields rates of type I errors that surpass the test's nominal size. We derive the Bartlett correction to the likelihood ratio test and use it to define three Bartlett-corrected test statistics. Even though these tests also use asymptotic critical values, their size distortions vanish faster than that of the unmodified test and thus they yield better control of the type I error frequency. Extensive Monte Carlo evidence and an empirical application that uses Covid-19 related data are presented and discussed.

4
  • CÉSAR DIOGO BEZERRA DA SILVA
  • Novos Paradigmas para o Processo de Stavskaya

  • Líder : ALEX DIAS RAMOS
  • MIEMBROS DE LA BANCA :
  • ALEX DIAS RAMOS
  • FABIO PRATES MACHADO
  • GETULIO JOSE AMORIM DO AMARAL
  • MARIA EULALIA VARES
  • PABLO MARTIN RODRIGUEZ
  • Data: 21-feb-2022


  • Resumen Espectáculo
  • Revisitamos o processo de Stavskaya com comprimento variável,  um sistema de partículas interagentes unidimensional que difere dos tradicionalmente estudados. 
    Nele, as partículas podem aparecer ou desaparecer durante a evolução do sistema . Ele foi  inspirado no clássico processo de Stavskaya, que é uma versão a tempo discreto do bem conhecido  processo de contato. É provado que ambos processos apresentam um tipo de transição de fase. 
    Foi mostrado que para a versão variável destes processos, essa transição de fase não existe. Mais especificamente, o processo é sempre ergódico. Em nosso estudo, estabelecemos e  analisamos a existência de um outro tipo de transição de fase. Além de explorar outros  aspectos da sua dinâmica. No sistema que estamos estudando, cada partícula assume  o estado mais ou menos. Entre duas partículas, nasce uma partícula mais com  probabilidade β independente do que ocorre nos outros lugares. Sempre que uma partícula mais é a  vizinha mais próxima a direita de uma partícula menos, então ela desaparece com probabilidade α.  Desenvolvemos alguns estudos computacionais.
5
  • MARIA IONERIS OLIVEIRA SILVA
  • Modelos de Tempo de Vida Acelerado Birnbaum-Saunders

  • Líder : FRANCISCO JOSE DE AZEVEDO CYSNEIROS
  • MIEMBROS DE LA BANCA :
  • FRANCISCO JOSE DE AZEVEDO CYSNEIROS
  • ALINE BARBOSA TSUYUGUCHI
  • ABRAAO DAVID COSTA DO NASCIMENTO
  • JUVENCIO SANTOS NOBRE
  • FILIDOR EDILFONSO VILCA LABRA
  • Data: 21-feb-2022


  • Resumen Espectáculo
  • Modelos de regressão de Birnbaum-Saunders têm sido utilizados com frequência nos últimos anos. É bem conhecido que modelos multivariados desempenham um papel importante na modelagem de dados correlacionados. Dessa forma, neste trabalho, introduzimos inicialmente o modelo de regressão Birnbaum-Saunders bivariado e através do método da máxima verossimilhança estimamos os parâmetros do modelo. Derivamos resíduos e medidas de diagnósticos sob o enfoque de influência local. Posteriormente, propomos uma nova distribuição Birnbaum-Saunders multivariada e derivamos algumas propriedades da mesma. Propomos um novo modelo de regressão Birnbaum-Saunders multivariado, em que o método de máxima verossimilhança é usado para estimar os parâmetros, bem como, derivamos alguns resíduos para avaliar o ajuste do modelo proposto. Alguns estudos de simulação foram desenvolvidos para avaliar o desempenho dos estimadores e dos resíduos supracitados. Realizamos uma análise de diagnóstico para este modelo e aplicamos a metodologia estudada a conjuntos de dados reais.

6
  • JOSÉ IRAPONIL COSTA LIMA
  • DIAGNÓSTICO POR INFLUÊNCIA NO MODELO DE REGRESSÃO BIRNBAUM-SAUNDERS VALOR EXTREMO

  • Líder : RAYDONAL OSPINA MARTINEZ
  • MIEMBROS DE LA BANCA :
  • RAYDONAL OSPINA MARTINEZ
  • FRANCYELLE DE LIMA MEDINA
  • KLAUS LEITE PINTO VASCONCELLOS
  • ANTONIO MURILO SANTOS MACEDO
  • CAROLINA IVONNE MARCHANT FUENTES
  • Data: 23-feb-2022


  • Resumen Espectáculo
  • A implementação de ações de diagnóstico baseadas em avaliação de influência local é uma etapa relevante em uma análise estatística cuja modelagem é constituída por uma estrutura de regressão, pois possibilita a identificação de observações que interferem de forma desproporcional nos resultados inferências quando pequenas perturbações são impostas sobre as mesmas. O objetivo do nosso trabalho é desenvolver análise de diagnóstico por meio de influência local sobre o modelo de regressão Birnbaum-Saunders Valor Extremo (EVBS). Mais precisamente, obter expressões que possibilitam o cálculo das curvaturas normal e conforme associadas a diferentes esquemas de perturbações: ponderação de casos, perturbação na resposta e perturbação em uma variável explicativa. Ao mesmo tempo, buscamos identificar se certas formas de perturbação são apropriadas para se perturbar o modelo de regressão EVBS (caso regular), segundo critérios estabelecidos na literatura estatística. No tocante ao modelo de regressão alvo do estudo, deduzimos algumas propriedades da função densidade de probabilidade da componente
    estocástica do modelo, abordarmos o problema de estimação por máxima verossimilhança e realizamos simulações de Monte Carlo com o propósito de verificar a existência de suporte empírico que corrobora com a hipótese de consistência assintótica do estimador de máxima verossimilhança (EMV) dos parâmetros.

7
  • MARCELO DOS SANTOS
  • INFERÊNCIA E DIAGNÓSTICOS EM MODELOS ESPACIAIS COM ESTRUTURA DE COVARIÂNCIA DA FAMÍLIA WENDLAND

  • Líder : FERNANDA DE BASTIANI
  • MIEMBROS DE LA BANCA :
  • FERNANDA DE BASTIANI
  • CRISTIANO FERRAZ
  • GETULIO JOSE AMORIM DO AMARAL
  • ORIETTA NICOLIS
  • MANUEL JESUS GALEA ROJAS
  • Data: 24-feb-2022


  • Resumen Espectáculo
  • Utilizando a teoria das funções de base radias compactamente suportadas, propomos inferir em modelos espacias empregando como matriz de correlação espacial membros da família Wendland. As funções pertencentes a esta família são definidas em um suporte compacto no intervalo $[0, 1)$, a qual sob condições adequadas produzem matrizes definidas positivas e esparsas  o que possibilita uma melhor eficiência computacional. Além disso, são caracterizadas por um raio de influência limitado, permitindo um decaimento para zero a  partir de um parâmetro pré-estabelecido. Ademais, com uma prescrição de suavidade à colocam como competidora natural da conhecida família Matérn. Apresentamos expressões para funções de covariância, semivariância e correlação pertencentes a esta família para diferentes valores do parâmetro de suavização, e desenvolvemos as relações entre o alcance prático e o suporte. Estabelecemos expressões para mensurar o índice de dependência espacial para as famílias Wendland e Matérn. O processo de estimação dos parâmetros são realizados em dois momentos. Primeiramente, realizamos um estudo sob a suposição dos dados pertencerem a processos Gaussianos, então, utilizamos o método de máxima verossimilhança. Posteriormente, estendemos esta suposição para além da distribuição normal, induzindo à distribuições marginais pertencentes a família exponencial de distribuições para dados espacialmente correlacionados simples e com medidas repetidas. Neste caso, utilizamos as equações de estimação generalizadas (EEG). A aplicação desta metodologia é realizada para as distribuições  Binomial, Poisson, Binomial negativa, Gama e Normal inversa. Além disso, como técnica de diagnostico, são desenvolvidas medidas de influência local sob diferentes esquemas de perturbação. Como critério de identificação de observações potencialmente influentes, propomos utilizar níveis de referência obtidos a partir de reamostragem  \textit{Jackknife-after-Bootstrap}. Para validar a metodologia sugerida, realizamos aplicações à conjuntos de dados reais. Executamos um pequeno estudo de simulação, o  qual mostrou que as medidas de influência tiveram um bom desempenho para identificar observações potencialmente influentes.  

2021
Disertaciones
1
  • FILIPE ALMEIDA DE ANDRADE LIMA BRITO
  • PROCESSO ARMA LOMAX COM ESTRUTURA NA FUNÇÃO QUANTILICA


  • Líder : MARIA DO CARMO SOARES DE LIMA
  • MIEMBROS DE LA BANCA :
  • MARIA DO CARMO SOARES DE LIMA
  • GAUSS MOUTINHO CORDEIRO
  • RENATA ROJAS GUERRA
  • Data: 22-jul-2021


  • Resumen Espectáculo
  • Dada a ampla aplicabilidade de modelos de séries temporais, a proposta de abordagens que contemplem dados de diferentes suportes tem se tornado importante. A distribuição Lomax tem sido utilizada com sucesso para descrever fenômenos de diversas áreas de conhecimento, tais como análise de sobrevivência, confiabilidade e economia. Nesta dissertação, propõe-se um modelo de séries temporais pela abordagem de regressão com ligação na função quantílica tendo distribuição marginal Lomax para descrever tempo de reparo (TTR) de máquinas no contexto de confiabilidade. O novo modelo dinâmico é denominado como processo Autorregressivo e de Médias Móveis Lomax quantílico (ARMA-LQ). Inicialmente, propõe-se uma distribuição Lomax reparametrizada e algumas de suas propriedadas são revisitadas. Subsequentemente, o modelo ARMA-LQ é proposto e algumas de suas propriedades são estudadas, tais como funções escore e matriz de informação observada. É proposto um procedimento de estimaçãopor máxima verossimilhança condicional (EMVC) para os parâmetros do modelo ARMA-LQ. Através de experimentos Monte Carlo, o desempenho das estimativas de EMVC é quantificado para diferentes submodelos. Finalmente, o modelo ARMA-LQ é aplicado a dados reais a fim de descrever tempo de reparação de máquinas de construção civil, comparativamente ao modelo Gama-ARMA. Resultados sugerem que a proposta desta dissertação é um importante suposto probabilístico para lidar com dados tipo tempo de reparo.


2
  • ANDRÉ MEDEIROS CHAVES
  • Processo arma exponencial exponencializado reparametrizado e propriedades 


  • Líder : ABRAAO DAVID COSTA DO NASCIMENTO
  • MIEMBROS DE LA BANCA :
  • ABRAAO DAVID COSTA DO NASCIMENTO
  • FERNANDO ARTURO PEÑA RAMÍREZ
  • GAUSS MOUTINHO CORDEIRO
  • Data: 23-jul-2021


  • Resumen Espectáculo
  • Vários fenômenos de natureza física, biológica, financeira, social e econômica demandam o uso de modelos de séries temporais. Muitos avanços têm sido feitos para séries normais, contudo outras distribuições marginais são requeridas frequentemente. Esta dissertação visa contribuir nos âmbitos de séries temporais com retornos positivos. Neste suporte, a distribuição exponencial exponencializada (EE) tem se mostrado uma boa alternativa a outras leis positivas, tais como Gama e Lognormal.
    Nesta dissertação, inicialmente desenvolvemos uma reparametrização da distribuição EE baseada na função quantílica e em seguida combinamos essa nova distribuição com uma estrutura autorregressiva e de médias móveis (ARMA) cuja finalidade é de introduzir o modelo Exponencial
    Exponencializado Reparametrizado Autorregressivo de Médias Móveis (EER-ARMA), como uma alternativa não normal para descrever séries temporais, além disso, várias de suas propriedades são derivadas, como as funções escore e a matriz de informação observada.
    Um procedimento para estimação por máxima verossimilhança dos parâmetros associados é desenvolvido.
    Por meio de experimentos de Monte Carlo, avalia-se numericamente o comportamento das estimativas pontuais sob diferentes cenários, considerando a variação de três funções de ligações distintas. Resultados evidenciam que o uso da função de ligação logarítmica $W$ de Lambert possui desempenho superior quando comparada com as funções de ligação logarítmica e raiz quadrada.
    Por fim, uma aplicação a dados reais é apresentada, em que o modelo EER-ARMA com estrutura na mediana é comparado ao Gama-ARMA com estrutura na média. Resultados indicam que o modelo proposto, isto é, o modelo EER-ARMA pode superar o modelo Gama-ARMA.

3
  • IVANGILLYS GOMES DE LIMA
  • Processo Gompertz-ARMA e Propriedades: Uma Aplicação a Precificação do Mercado Financeiro

  • Líder : MARIA DO CARMO SOARES DE LIMA
  • MIEMBROS DE LA BANCA :
  • MARIA DO CARMO SOARES DE LIMA
  • PEDRO MONTEIRO DE ALMEIDA JUNIOR
  • VINICIUS QUINTAS SOUTO MAIOR
  • Data: 26-jul-2021


  • Resumen Espectáculo
  • O presente trabalho propõe um novo modelo autorregressivo e de médias móveis (ARMA) para estudar séries com dependência temporal com suporte nos reais positivos. Para tanto, considera-se como distribuição marginal do modelo proposto a distribuição Gompertz, definindo, portanto, o novo modelo denominado de: Gompertz-ARMA. O referido modelo é construído com base na reparametrização em termos dos quantis da distribuição Gompertz.
    O objetivo da reparametrização é modelar diferentes quantis de uma dada série temporal e avaliar os ajustes ao variar a modelagem do parâmetro de localização da série. Realiza-se um estudo de simulação de Monte Carlo para diferentes cenários dos parâmetros da distribuição Gompertz, diferentes quantis e tamanhos amostrais. Como método de estimação dos parâmetros da série, utiliza-se o método de máxima verossimilhança condicional. Por fim, para mostrar a aplicabilidade do novo modelo a situações reais, realiza-se um estudo de aplicação a dados do IBOVESPA, buscando prever o comportamento da série temporal considerada.

4
  • ALLAN DOS SANTOS
  • APROXIMAÇÕES DE BAIXA COMPLEXIDADE PARA A DCT FRACIONÁRIA


  • Líder : RENATO JOSE DE SOBRAL CINTRA
  • MIEMBROS DE LA BANCA :
  • ABRAAO DAVID COSTA DO NASCIMENTO
  • BRUNA GREGORY PALM
  • RENATO JOSE DE SOBRAL CINTRA
  • Data: 27-ago-2021


  • Resumen Espectáculo
  • Entre as transformadas discretas mais relevantes, destaca-se a transformada discreta do cosseno (DCT), amplamente empregada em descorrelação de dados por sua proximidade numérica com a transformada de Karhunen-Loève. A DCT admite a inclusão de um parâmetro fracionário α, denominado de ordem, que assume valores no intervalo [0, 1]. Tem-se assim a transformada discreta do cosseno fracionária (FrDCT). Os valores intermediários de α levam a uma análise espectral mista com informações do domínio do tempo e do domínio da transformada. Para α intermediário, a FrDCT oferece uma complexidade de implementação maior do que a DCT, haja vista que as simetrias da DCT não são necessariamente transferidas para a FrDCT. Assim, a derivação de algoritmos rápidos para FrDCT é um tópico relevante, mas cujos desempenhos tendem a ser inferiores aos obtidos pelos algoritmos para a DCT usual. Para endereçar esse problema, propomos uma metodologia baseada em técnicas de aproximação matricial para a derivação de matrizes de baixa complexidade aritméticas capazes de avaliar numericamente a FrDCT. Tais aproximações redundam em algoritmos rápidos de baixa complexidade, sendo ausentes elementos multiplicadores. A ausência de multiplicadores facilita a eventual implementação física destes algoritmos, devido ao esperado baixo consumo energético e baixo consumo de elementos de hardware. Os métodos desenvolvidos têm aplicação em localização temporal de faltas e em análise de sinais não bem modelados por sistemas AR(1), como assumido na análise via DCT tradicional.


5
  • ISABEL SOARES DINIZ DE OLIVEIRA
  • Visual Tools to Identify Influential Observations in Spatial Data

  • Líder : FERNANDA DE BASTIANI
  • MIEMBROS DE LA BANCA :
  • FERNANDA DE BASTIANI
  • GETULIO JOSE AMORIM DO AMARAL
  • MANUEL JESUS GALEA ROJAS
  • Data: 28-oct-2021


  • Resumen Espectáculo
  • We adapted the hair-plot, proposed by Genton e Ruiz-Gazen (2010), to identify and visualize influential observations in spatial data. Three graphic tools were created: the bihair-plot, the principal components hair-plot and functional hair-plot. The first tool is trajectories of the values of a spatial semivariance estimator when adding a perturbation to each observation of a vector of spatial data observed considering two lags. The second the second describes trajectories of the principal components of a spatial semivariance estimator values for all lags when each observation of data is perturbed, making it possible to identify influential observations in spatial data containing as much information as possible from the data set. The third is obtained from the values of the trace-semivariogram estimator when the data receive a disturbance. The estimators considered in the study were the sample semivariogram for univariate case, sample cross-semivariogram for bivariate case and sample trace-semivariogram for functional data. Another method used to obtain the cross-semivariogram was Minimum Volume Ellipsoid, which is more sensitive to outliers. Through the influence analysis of this estimator, we observed that it is not possible to detect influential observations. We defined the quadratic form of the estimators and the influence function, in order to understand their behavior and properties. Finally, we make an application with these tools in the pollution data for the univariate case, complementing the results shown in Genton e Ruiz-Gazen (2010), the meuse data from the sp package for the bivariate case, and the maritimes data from package geofd in R.

Tesis
1
  • SAUL DE AZEVÊDO SOUZA
  • Modelo de probabilidade baseado em distância aplicado a medidas de concentração em dados direcionais

  • Líder : ABRAAO DAVID COSTA DO NASCIMENTO
  • MIEMBROS DE LA BANCA :
  • ABRAAO DAVID COSTA DO NASCIMENTO
  • MARIA DO CARMO SOARES DE LIMA
  • ALEX DIAS RAMOS
  • WENIA VALDEVINO FELIX
  • LUCIA PEREIRA BARROSO
  • Data: 01-jul-2021


  • Resumen Espectáculo
  • Propomos uma distribuição de probabilidade baseada em distância no suporte [0,1] para descrever a dispersão de pontos na esfera unitária. Mostramos que se os dados esféricos seguem as leis de von Mises-Fisher ou Watson, então sua concentração pode ser modelada por nossa distribuição. Esta abordagem pode ser estendida a uma classe de distribuições esféricas com propriedade de simetria rotacional. Várias de suas propriedades são derivadas e discutidas: função geradora de momentos, curtose, assimetria e matriz de informação de Fisher. Além disso, procedimentos inferenciais baseados em probabilidade (para estimação pontual e teste de hipótese) envolvendo concentração são fornecidos. Estudos numéricos apontam que as estimativas de máxima verossimilhança apresentam um bom comportamento assintótico, mesmo em amostras de tamanhos pequenos. O teste da razão de verossimilhanças supera frequentemente os testes escore e Wald no cenário X~vMF(mu,kappa). Quando X~W(mu,kappa), os testes mencionados acima funcionam bem para a maioria dos cenários. Duas aplicações foram feitas para ilustrar nossa proposta. Primeiro, usamos estatísticas descritivas e análises gráficas para estudar a dispersão das medidas de distância. Em seguida, propomos um teste de hipótese para avaliar o grau de concentração de observações esféricas com base em dois resultados assintóticos para a von Mises-Fisher concentrada e Watson concentrada. Os resultados revelaram que as medidas de distância aplicadas aos cossenos direcionais são capazes de fornecer evidências sobre a dispersão de pontos na superfície da esfera unitária.

2
  • DANIEL MATOS DE CARVALHO
  • Spatial Scan Statistics Based on Empirical Likelihood and Robust Fitting for Generalized Additive Models for Location, Scale and Shape

  • Líder : FERNANDA DE BASTIANI
  • MIEMBROS DE LA BANCA :
  • ALEX DIAS RAMOS
  • FERNANDA DE BASTIANI
  • FRANCISCO CRIBARI NETO
  • GILBERTO ALVARENGA PAULA
  • MIGUEL ANGEL URIBE OPAZO
  • Data: 04-ago-2021


  • Resumen Espectáculo
  • This thesis presents proposals for two independent themes and contributions to three different topics. The main ideas of each theme are presented in the next paragraphs.
    The first topic accepted for publication presents a new method for detecting spatial clusters, that is, a method for detecting regions with a high concentration of spatial phenomena, compared with an expected number, given a random distribution of events. The main contribution of the proposal is to present a non-parametric method, based on empirical likelihood functions, as an alternative to traditional methods of cluster scan existing in the literature. Thus, no distribution family is required for the variable of interest. To evaluate the method, simulation studies were carried out considering the Poisson model inflated with zeros, comparing the results with the scan method proposed by Kuldorff. The results show that the new method reduces the type I error probabilities for zero-inflated observations, with low power for clusters with less than 8 locations. A measles case study in the region of São Paulo, Brazil was carried out. Observations have a high occurrence of zeros. Only the Kulldorff scan method identified the existence of a cluster, located and centered in the capital São Paulo. However, if a cluster is identified by the Kulldorff method in the presence of inflated observations and when not confirmed by the non-parametric approach, it is recommended that the interpretations be performed with caution due to the high probability of type I error associated with the Kulldorff method when the model does not is well specified.
     
    The second theme aims to present topics with two new approaches to robust modeling for generalized additive models of location, scale and shape (GAMLSS). The main motivation is the scarcity of robust methods for GAMLSS models. Both proposals seek transformations in order to limit the influence function associated with the probability distribution of interest, and focus on situations of  contamination in the tails of the distributions. The first approach modifies the logarithm structure of the likelihood function, using concepts of censoring. Simulations studies were carried out to evaluate the methodology and applications are presented. The second approach in this theme is based on a simple adaptive truncation, where observations identified as possible outliers are verified and, if necessary, removed by truncation of the response variable distribution. In addition to proposing new robust modeling methods, they were compared with some methods already available in the literature. The simulation studies used the gamma and beta distributions, considering three distinct models: parametric models without and with covariates and non-parametric models. The results show that, compared to existing methods in the literature, the truncated adaptive method has a better performance with lower mean square error and lower variability in most simulated scenarios. The overall performances of the proposals are illustrated through three applications: brain image resonance data, using bivariate smoothing splines; extreme child poverty data; and data from severe acute respiratory syndrome - SRAG.

     

SIGAA | Superintendência de Tecnologia da Informação (STI-UFPE) - (81) 2126-7777 | Copyright © 2006-2024 - UFRN - sigaa08.ufpe.br.sigaa08