|
Dissertações |
|
1
|
-
JONATHA SOUSA PIMENTEL
-
Aceleração da estimação do modelo de máquinas de vetores de suporte para bases de dados massivos: Uma nova abordagem através da fusão de SVM's fracos e esféricos.
-
Orientador : RAYDONAL OSPINA MARTINEZ
-
MEMBROS DA BANCA :
-
ANDERSON ARA
-
LEANDRO CHAVES REGO
-
TELMO DE MENEZES E SILVA FILHO
-
Data: 10/02/2023
-
-
Mostrar Resumo
-
A capacidade de geração de dados nos últimos anos, atingiu níveis nunca antes vistos. Mais dados em apenas dois anos do que em 5 mil anos de história, aumento em 50 vezes do volume gerado em um período de 10 anos, termos como Big Data, Machine Learning e Inteligência Artificial cada vez mais comumente vistos e falados. Tudo isso provocado pela evolução humana, obrigou-nos a sermos capazes de coletar, armazenar e analisar tal quantidade de dados, surgindo e desenvolvendo-se o campo de estudo das técnicas de aprendizado de máquina (ML - do inglês Machine Learning). Dentre as diversas técnicas existentes e que tem ganhado força e destaque, a técnica a ser aqui trabalhada são as máquinas de vetores de suporte (SVM - do inglês Support Vector Machine), que apesar de despertar grande interesse da comunidade científica desde sua introdução por Vapnik em 1995, assim como muitos modelos de aprendizagem, possui uma limitação quando utilizada para dados massivos. Frente a esta dificuldade, neste trabalho, buscamos a implementação, utilização e comparação da técnica Sphere SVM, utilizada para acelerar o tempo de estimação de um modelo SVM, bem como propor um modelo que possa combinar a ideia de coresets com a utilização de weak's SVM. Os resultados obtidos ao comparar os modelos para diferentes bases de dados simuladas e reais, apresentam modelos que permitem a manutenção da capacidade preditiva do modelo SVM tradicional, bem como a sua estimação em um décimo do tempo para o modelo completo.
-
Mostrar Abstract
-
A capacidade de geração de dados nos últimos anos, atingiu níveis nunca antes vistos. Mais dados em apenas dois anos do que em 5 mil anos de história, aumento em 50 vezes do volume gerado em um período de 10 anos, termos como Big Data, Machine Learning e Inteligência Artificial cada vez mais comumente vistos e falados. Tudo isso provocado pela evolução humana, obrigou-nos a sermos capazes de coletar, armazenar e analisar tal quantidade de dados, surgindo e desenvolvendo-se o campo de estudo das técnicas de aprendizado de máquina (ML - do inglês Machine Learning). Dentre as diversas técnicas existentes e que tem ganhado força e destaque, a técnica a ser aqui trabalhada são as máquinas de vetores de suporte (SVM - do inglês Support Vector Machine), que apesar de despertar grande interesse da comunidade científica desde sua introdução por Vapnik em 1995, assim como muitos modelos de aprendizagem, possui uma limitação quando utilizada para dados massivos. Frente a esta dificuldade, neste trabalho, buscamos a implementação, utilização e comparação da técnica Sphere SVM, utilizada para acelerar o tempo de estimação de um modelo SVM, bem como propor um modelo que possa combinar a ideia de coresets com a utilização de weak's SVM. Os resultados obtidos ao comparar os modelos para diferentes bases de dados simuladas e reais, apresentam modelos que permitem a manutenção da capacidade preditiva do modelo SVM tradicional, bem como a sua estimação em um décimo do tempo para o modelo completo.
|
|
2
|
-
LUIS GONZAGA PINHEIRO FELIX
-
Explorando seleção de variáveis explicativas no contexto dos modelos aditivos generalizados de locação, escala e forma.
-
Orientador : FERNANDA DE BASTIANI
-
MEMBROS DA BANCA :
-
FERNANDA DE BASTIANI
-
GETULIO JOSE AMORIM DO AMARAL
-
MARCELO DOS SANTOS
-
Data: 17/02/2023
-
-
Mostrar Resumo
-
A seleção de variáveis explicativas em modelos estatísticos é um problema atual e importante dentro da estatística e para o qual diferentes soluções já foram propostas para os diversos tipos de modelos. No caso específico dos modelos aditivos generalizados de locação escala e forma (GAMLSS), a seleção de variáveis explicativas é feita usando métodos stepwise. Na atual implementação de seleção de variáveis nos GAMLSS tem-se disponível duas estratégias conhecidas como estratégia A e estratégia B chamamos de estratégia A e estratégia B, sendo que ambas selecionam variáveis explicativas para modelar todos os parâmetros da distribuição, mas de forma diferente. Neste trabalho estas metodologias foram descritas detalhadamente e por meio de estudos de simulação, foram investigados e comparados métodos de seleção de variáveis, usando modelos com uma estruturas lineares, com estruturas não lineares usando funções de suavização para diferentes distribuições de probabilidade. Foi introduzida uma nova proposta de seleção de modelos e esta também foi comparada com as estratégias A e B. Uma aplicação a dados reais ilustra a metodologia apresentada.
-
Mostrar Abstract
-
A seleção de variáveis explicativas em modelos estatísticos é um problema atual e importante dentro da estatística e para o qual diferentes soluções já foram propostas para os diversos tipos de modelos. No caso específico dos modelos aditivos generalizados de locação escala e forma (GAMLSS), a seleção de variáveis explicativas é feita usando métodos stepwise. Na atual implementação de seleção de variáveis nos GAMLSS tem-se disponível duas estratégias conhecidas como estratégia A e estratégia B chamamos de estratégia A e estratégia B, sendo que ambas selecionam variáveis explicativas para modelar todos os parâmetros da distribuição, mas de forma diferente. Neste trabalho estas metodologias foram descritas detalhadamente e por meio de estudos de simulação, foram investigados e comparados métodos de seleção de variáveis, usando modelos com uma estruturas lineares, com estruturas não lineares usando funções de suavização para diferentes distribuições de probabilidade. Foi introduzida uma nova proposta de seleção de modelos e esta também foi comparada com as estratégias A e B. Uma aplicação a dados reais ilustra a metodologia apresentada.
|
|
3
|
-
MARIA FRANCIELE DA SILVA SANTOS SOUSA
-
Correção de viés para o modelo de regressão G0I: Uma aplicação à extração de atributos em imagens SAR.
-
Orientador : ABRAAO DAVID COSTA DO NASCIMENTO
-
MEMBROS DA BANCA :
-
ABRAAO DAVID COSTA DO NASCIMENTO
-
AUDREY HELEN MARIZ DE AQUINO CYSNEIROS
-
PEDRO MONTEIRO DE ALMEIDA JUNIOR
-
Data: 24/02/2023
-
-
Mostrar Resumo
-
Os sistemas de radar de abertura sintética (Synthetic Aperture Radar - SAR) têm sido uma ferramenta bastante eficiente na resolução de problemas de sensoriamento remoto. Tais sistemas apresentam diversas vantagens; tais como, eles podem operar independentemente das condições atmosféricas e produzir imagens com alta resolução espacial. Entretanto, as imagens SAR são contaminadas por um tipo de interferência denominada ruído speckle, dificultando assim a análise e o processamento delas. Assim, a proposta de técnicas estatísticas que consideram o ruído speckle se torna uma importante etapa para usuários do sistema SAR, em particular modelos de regressão. Vasconcelos 2018 propôs o modelo de regressão G0I (RG0I), indicando que ele tem uma grande importância na interpretação de imagens de intensidade SAR. É sabido da Teoria Assintótica de primeira ordem que o viés do estimador de máxima verossimilhança é de ordem O(1/n), podendo ser significativo para tamanhos de amostra pequenos e moderados. Nesta dissertação, objetiva-se propor um estimador melhorado para os parâmetros de (RG0I) a partir da derivação do viés de segunda ordem proposto por Cox-Snell. Esta proposta encontra justificação uma vez que o processamento de imagens SAR é requerido o uso de janelas pequenas e moderadas, como no estudo de atributos na vizinhança de pixels para classificação e filtragem. Assim a proposta de métodos de Teoria Assintótica de segunda ordem ou ordem superior se torna necessária. Nesta dissertação, apresentam-se os primeiros avanços nesta direção considerando o suposto da regressão G0I . Primeiramente, várias expressões em forma fechada para cumulantes de terceira ordem para RG0I são apresentadas. Subsequentemente, propõe-se uma expressão em forma fechada para viés de segunda ordem segundo a expressão de Cox-Snell. A fim de quantificar o desempenho da estimação melhorada, sua performance é quantificada comparativamente àquela das estimativas de máxima verossimilhança original. Finalmente uma aplicação a dados reais é realizada. Em todos os resultados numéricos, é possível observar a importância da proposta desta dissertação.
-
Mostrar Abstract
-
Os sistemas de radar de abertura sintética (Synthetic Aperture Radar - SAR) têm sido uma ferramenta bastante eficiente na resolução de problemas de sensoriamento remoto. Tais sistemas apresentam diversas vantagens; tais como, eles podem operar independentemente das condições atmosféricas e produzir imagens com alta resolução espacial. Entretanto, as imagens SAR são contaminadas por um tipo de interferência denominada ruído speckle, dificultando assim a análise e o processamento delas. Assim, a proposta de técnicas estatísticas que consideram o ruído speckle se torna uma importante etapa para usuários do sistema SAR, em particular modelos de regressão. Vasconcelos 2018 propôs o modelo de regressão G0I (RG0I), indicando que ele tem uma grande importância na interpretação de imagens de intensidade SAR. É sabido da Teoria Assintótica de primeira ordem que o viés do estimador de máxima verossimilhança é de ordem O(1/n), podendo ser significativo para tamanhos de amostra pequenos e moderados. Nesta dissertação, objetiva-se propor um estimador melhorado para os parâmetros de (RG0I) a partir da derivação do viés de segunda ordem proposto por Cox-Snell. Esta proposta encontra justificação uma vez que o processamento de imagens SAR é requerido o uso de janelas pequenas e moderadas, como no estudo de atributos na vizinhança de pixels para classificação e filtragem. Assim a proposta de métodos de Teoria Assintótica de segunda ordem ou ordem superior se torna necessária. Nesta dissertação, apresentam-se os primeiros avanços nesta direção considerando o suposto da regressão G0I . Primeiramente, várias expressões em forma fechada para cumulantes de terceira ordem para RG0I são apresentadas. Subsequentemente, propõe-se uma expressão em forma fechada para viés de segunda ordem segundo a expressão de Cox-Snell. A fim de quantificar o desempenho da estimação melhorada, sua performance é quantificada comparativamente àquela das estimativas de máxima verossimilhança original. Finalmente uma aplicação a dados reais é realizada. Em todos os resultados numéricos, é possível observar a importância da proposta desta dissertação.
|
|
4
|
-
LUDMILA DE PINHO CAVALCANTI
-
Um Modelo Biológico com Operador de Substituição
-
Orientador : ALEX DIAS RAMOS
-
MEMBROS DA BANCA :
-
ANATOLI IAMBARTSEV
-
ALEX DIAS RAMOS
-
GETULIO JOSE AMORIM DO AMARAL
-
Data: 28/04/2023
-
-
Mostrar Resumo
-
Muitos organismos biológicos são constituídos por bilhões de células, e durante seu desenvolvimento algumas delas podem apresentar a reprodução celular, isto é, o processo de divisão celular, conhecido como mitose, tornando-se duas células semelhantes. Outras células sofrem morte celular. Neste trabalho, propomos e analisamos um modelo matemático, em tempo discreto, para descrever a reprodução e morte celular. Assumimos que essas células estão localizadas em Z e as células que sofreram a morte celular permanecem no sistema. O conceito utilizado para essa modelagem não é recente, contudo sua apresentação formal é. Em nosso modelo, a célula que sofreu morte celular é representada por 1 (um) e a célula ativa por 0 (zero). Cada célula ativa pode sofrer morte celular com probabilidade p ou sofrer reprodução celular com probabilidade 1 − p. Isto ocorre de forma independente para cada célula. Para o nosso modelo, P, fomos capazes de trazer uma formalização matemática, a qual exibe a existência de uma transição de fase entre os comportamentos de ergodicidade versus não ergodicidade. Contudo, outras características ainda merecem atenção.
-
Mostrar Abstract
-
Muitos organismos biológicos são constituídos por bilhões de células, e durante seu desenvolvimento algumas delas podem apresentar a reprodução celular, isto é, o processo de divisão celular, conhecido como mitose, tornando-se duas células semelhantes. Outras células sofrem morte celular. Neste trabalho, propomos e analisamos um modelo matemático, em tempo discreto, para descrever a reprodução e morte celular. Assumimos que essas células estão localizadas em Z e as células que sofreram a morte celular permanecem no sistema. O conceito utilizado para essa modelagem não é recente, contudo sua apresentação formal é. Em nosso modelo, a célula que sofreu morte celular é representada por 1 (um) e a célula ativa por 0 (zero). Cada célula ativa pode sofrer morte celular com probabilidade p ou sofrer reprodução celular com probabilidade 1 − p. Isto ocorre de forma independente para cada célula. Para o nosso modelo, P, fomos capazes de trazer uma formalização matemática, a qual exibe a existência de uma transição de fase entre os comportamentos de ergodicidade versus não ergodicidade. Contudo, outras características ainda merecem atenção.
|
|
5
|
-
JOAO ANTONIO MIRANDA GONDIM
-
Sapos, Árvores e Partículas Coalescentes
-
Orientador : PABLO MARTIN RODRIGUEZ
-
MEMBROS DA BANCA :
-
NEVENA MARIC
-
RINALDO BRUNO SCHINAZI
-
ALEX DIAS RAMOS
-
PABLO MARTIN RODRIGUEZ
-
Data: 13/07/2023
-
-
Mostrar Resumo
-
Esta dissertação considera alguns modelos estocásticos discretos. No primeiro modelo, analisamos um modelo em árvores n-árias no qual variáveis aleatórias uniformes independentes são associadas aos vértices. Chamamos essa variável aleatória de fitness do vértice e estamos interessados em determinar quando existe um caminho acessível, isto é, um caminho da raiz até uma folha ao longo do qual o fitness é crescente. Isso fornece uma interpretação biológica do problema, pois o modelo pode representar um genótipo que sofre uma mutação a cada geração. Por seleção natural, é esperado que surjam genótipos mais adaptados ao ambiente no decorrer desse processo. Em seguida, abordamos modelos sobre os inteiros. Um deles diz respeito a partículas coalescentes em um intervalo. Inicialmente, temos uma partícula em cada inteiro do intervalo [0, n] e, a cada instante (discreto) de tempo, sorteamos aleatoriamente uma delas (exceto a que está em 0), a qual salta para o inteiro imediatamente à esquerda, coalescendo com qualquer partícula que eventualmente já ocupe esta posição. O resultado apresentado neste texto estuda o tempo esperado para que todas as partículas coalesçam em 0. Finalmente, fechamos o trabalho com o modelo dos sapos, o qual considera um número infinito de partículas realizando passeios aleatórios independentes sobre os inteiros, e estudamos a condição para que o modelo seja recorrente.
-
Mostrar Abstract
-
Esta dissertação considera alguns modelos estocásticos discretos. No primeiro modelo, analisamos um modelo em árvores n-árias no qual variáveis aleatórias uniformes independentes são associadas aos vértices. Chamamos essa variável aleatória de fitness do vértice e estamos interessados em determinar quando existe um caminho acessível, isto é, um caminho da raiz até uma folha ao longo do qual o fitness é crescente. Isso fornece uma interpretação biológica do problema, pois o modelo pode representar um genótipo que sofre uma mutação a cada geração. Por seleção natural, é esperado que surjam genótipos mais adaptados ao ambiente no decorrer desse processo. Em seguida, abordamos modelos sobre os inteiros. Um deles diz respeito a partículas coalescentes em um intervalo. Inicialmente, temos uma partícula em cada inteiro do intervalo [0, n] e, a cada instante (discreto) de tempo, sorteamos aleatoriamente uma delas (exceto a que está em 0), a qual salta para o inteiro imediatamente à esquerda, coalescendo com qualquer partícula que eventualmente já ocupe esta posição. O resultado apresentado neste texto estuda o tempo esperado para que todas as partículas coalesçam em 0. Finalmente, fechamos o trabalho com o modelo dos sapos, o qual considera um número infinito de partículas realizando passeios aleatórios independentes sobre os inteiros, e estudamos a condição para que o modelo seja recorrente.
|
|
6
|
-
JHON FRANKLIN PUERRES TIPAS
-
MODELOS DE RUMORES EM ÁRVORES
-
Orientador : PABLO MARTIN RODRIGUEZ
-
MEMBROS DA BANCA :
-
PABLO MARTIN RODRIGUEZ
-
VALDIVINO VARGAS JÚNIOR
-
ÉLCIO LEBENSZTAYN
-
Data: 04/08/2023
-
-
Mostrar Resumo
-
Neste trabalho, estudamos o modelo de boato de Maki-Thompson em árvores homogêneas infinitas e uma variante desse modelo em árvores especiais. O modelo padrão é definido supondo-se que uma população representada por um grafo seja subdividida em três classes de indivíduos: ignorantes, propagadores e neutros. Um propagador transmite informações a qualquer de seus vizinhos ignorantes mais próximos à taxa de um. Na mesma proporção, um propagador se torna neutro após entrar em contato com outros propagadores ou neutros. Neste trabalho, estudamos uma variante de este modelo, atribuindo uma probabilidade p em (0, 1) a um propagador para transmitir ou boato, isso nos permitiu estender o modelo para árvores especiais. Definimos um parâmetro crítico p_c do modelo como o valor crítico em torno do qual o boato se extingue ou sobrevive com probabilidade positiva.
-
Mostrar Abstract
-
Neste trabalho, estudamos o modelo de boato de Maki-Thompson em árvores homogêneas infinitas e uma variante desse modelo em árvores especiais. O modelo padrão é definido supondo-se que uma população representada por um grafo seja subdividida em três classes de indivíduos: ignorantes, propagadores e neutros. Um propagador transmite informações a qualquer de seus vizinhos ignorantes mais próximos à taxa de um. Na mesma proporção, um propagador se torna neutro após entrar em contato com outros propagadores ou neutros. Neste trabalho, estudamos uma variante de este modelo, atribuindo uma probabilidade p em (0, 1) a um propagador para transmitir ou boato, isso nos permitiu estender o modelo para árvores especiais. Definimos um parâmetro crítico p_c do modelo como o valor crítico em torno do qual o boato se extingue ou sobrevive com probabilidade positiva.
|
|
|
Teses |
|
1
|
-
CESAR LEONARDO BARBOSA DA SILVA
-
Uma nova família baseada na transformaçao M-O
-
Orientador : MARIA DO CARMO SOARES DE LIMA
-
MEMBROS DA BANCA :
-
CÍCERO CARLOS RAMOS DE BRITO
-
FRANK SINATRA GOMES DA SILVA
-
HEMILIO FERNANDES CAMPOS COELHO
-
MARCELO BOURGUIGNON PEREIRA
-
MARIA DO CARMO SOARES DE LIMA
-
Data: 23/01/2023
-
-
Mostrar Resumo
-
Este trabalho, na área de Probabilidade e Estatística Matemática, tem seu núcleo baseado na Teoria de Novas Distribuições, suas propriedades e aplicações. É estabelecida uma sequência de fatos que vão, desde de um breve resumo introdutório, tratando da necessidade de novas distribuições, até à proposição de uma classe de transformações, dentre as quais, a conhecida Marshal-Olkin, cuja expressão pode ser derivada. Essa classe, então, é aplicada segundo à referida transformação, a distribuições conhecidas como, por exemplo, Exponencial, Weibull, entre outras. Algumas propriedades são estudadas segundo uma família geométrica log-logística, desenvolvida por do Carmo, bem como uma ênfase geométrica associada à classificação da função de risco, das distribuições em análise, segundo as regiões nas quais suas curvas- das funções de risco-, estão imersas, de acordo com um critério desenvolvido por Qian. Antes, porém, das aplicações propriamente ditas, algumas propriedades matemáticas relacionadas aos cálculos de momentos são apresentadas, fazendo-se referência a métodos canônicos, bem como métodos em desenvolvimento, usando técnicas não-canônicas, e uso de funções especiais de Spence. As aplicações, parte essencial do trabalho, têm caráter interdisciplinar, transitando entre dados epidemiológicos oriundos da atual crise mundial, devido ao Covid-19, passando por climatologia e refletindo as chuvas intensas que afligiram o Estado de Pernambuco, em particular, no ano de 2022. As novas distribuições são, também, aplicadas a sistemas físicos que demandam tratamento estatístico, qual seja, o problema da turbulência. Tempos de transições de regimes hidrodinâmicos para a turbulência são analisados. Esses estudos desempenham importante papel na ciência teórica e aplicações que vão desde a construção de aviões e navios, até processos biológicos envolvendo a dinâmica do sangue no coração.
-
Mostrar Abstract
-
This work, in the area of Probability and Mathematical Statistics, has its nucleus based on the Theory of New
Distributions, its properties and applications. A sequence of facts is established, ranging from a brief introductory
summary, dealing with the need for new distributions, to the proposition of a class of transformations, among which,
the well-known Marshal-Olkin, whose expression can be derived. This class, then, is applied according to the
aforementioned transformation, to known distributions such as, for example, Exponential, Weibull, among others.
Some properties are studied according to a log-logistic geometric family, developed by do Carmo, as well as a
geometric emphasis associated with the classification of the risk function, of the distributions under analysis,
according to the regions in which their curves - of the risk functions -, are immersed, according to a criterion
developed by Qian. Before, however, the actual applications, some mathematical properties related to moment
calculations are presented, making reference to canonical methods, as well as methods under development,
using non-canonical techniques, and use of special Spence functions. The applications, an essential part of the
work, are interdisciplinary in nature, moving between epidemiological data from the current global crisis, due
to Covid-19, passing through climatology and reflecting the intense rains that afflicted the State of Pernambuco,
in particular, in the year 2022 The new distributions are also applied to physical systems that demand statistical
treatment, that is, the problem of turbulence. Times of transitions from hydrodynamic regimes to turbulence are
analyzed. These studies play an important role in theoretical science and applications ranging from the construction
of airplanes and ships, to biological processes involving the dynamics of blood in the heart.
|
|
2
|
-
LUCAS DAVID RIBEIRO REIS
-
Some extensions of the Chen distribution and the proposal of two new distribution families: a study focused on simulations, regression and applications.
-
Orientador : GAUSS MOUTINHO CORDEIRO
-
MEMBROS DA BANCA :
-
ABRAAO DAVID COSTA DO NASCIMENTO
-
EDWIN MOISES MARCOS ORTEGA
-
GAUSS MOUTINHO CORDEIRO
-
MARCELO BOURGUIGNON PEREIRA
-
MARIA DO CARMO SOARES DE LIMA
-
PABLO MARTIN RODRIGUEZ
-
Data: 06/02/2023
-
-
Mostrar Resumo
-
Nos recentes anos, varias novas distribuições tem sido surgido na literatura. Estas novas distribuições são obtidas adicionando parâmetros extras às distribuições de base, a partir de geradores de distribuições. Os geradores mais conhecidos são, Beta- G, Kumasrawamy-G, Marshall-Olkin-G, odd-log-logistic-G, em que G é a função de distribuição acumulada de uma distribuição arbitrária. Inúmeras novas distribuições, utilizando estes diversos geradores foram introduzidas. Neste trabalho, duas outras novas famílias de distribuições e três outras novas distribuições são propostas. As duas familias de distribuições propostas são: Stacy-G, que é introduzida a partir da distribuição Stacy (Stacy, 1962) e a gamma unitária-G, baseada na distribuição gamma-unitária (Grassia, 1977). Estas duas famílias de distribuições adiciona dois parâmetros extras às distribuições de base. Quando estes dois parâmetros são iguais a 1, a distribuição de base é obtida. A família Stacy-G possui ainda a família gamma-G como especial caso. Nas duas famílias é demostrado que as suas respectivas funções densidade pode ser escrita como uma combinação linear de densidades exp-G. Tomando ainda o log de uma variável aleatória não-negativa da distribuição de base, e reparametrizando para a família de locação, modelos de regressão para estas duas classes de distribuições são introduzidos. Com relação às três novas distribuições introduzidas, estas foram obtidas a partir da distribuição bi-parametrica Chen (Chen, 2000), que possui função taxa de falha em forma de banheira. A distribuição Chen foi inserida nos geradores gamma-G, Mcdonald-G e logistic-X, dando assim nomes às distribuições gamma-Chen, Mcdonald-Chen e logistic-Chen. Os parâmetros destas distribuições são estimados pelo método de máxima verossimilhança. Estudos de simulações e aplicações a dados reais são consideradas para mostrar a potencialidade das três novas distribuições e das duas famílias de distribuições. Na distribuição losgistic-Chen, um modelo de regressão para dados censurados, tendo reparametrização na mediana, é também introduzido.
-
Mostrar Abstract
-
In recent years, several new distributions have appeared in the literature. These new distributions are introduced by adding extra parameters to the baseline distributions, from distribution generators. The more known generators are, Beta-G (Eugene et al., 2002), Kumasrawamy-G (Cordeiro and de Castro, 2011), Marshall-Olkin-G (Marshall and Olkin, 1997), odd-log-logistic-G (Gleaton and Lynch, 2006), where G is the cumulativedistribution function of an arbitrary baseline distribution. Numerous new distributions using these various generators have been introduced. In this work, two other new families of distributions and three others new distributions are proposed. The two families of distributions proposed are: the Stacy-G, which is introduced from the Stacy distribution and the unit gamma-G, based on the unit gamma distribution. These two families ofdistributions add two extra parameters to the baseline distributions. When these two parameters are equal to 1, the baseline distribution is obtained. The Stacy-G family also has the gamma-G family as a special case. In both families it is shown that their respective density functions can be written as a linear combination of exp-G densities. Taking the log of a non-negative random variable from the baseline distribution, and reparameterizing for the location-scale family, the regression model for these two classes of distributions are introduced. With respect to the three new distributions introduced, these were obtained from the bi-parametric Chen (Chen, 2000) distribution, which has a bathtub-shaped failure rate function. The Chen distribution was inserted in the generators gamma-G, Mcdonald-G and logistic-X, thus giving names to gamma-Chen, Mcdonald-Chen and logistic-Chen distributions. The parameters of these distributions are estimated by the maximum likelihood method. Simulation studies and applications to real data are considered to show the potentiality of the three new distributions and the two families of distributions. In the losgistic-Chen distribution, a regression model for censored data, having reparameterization at the median, is also introduced.
|
|
3
|
-
ROMMY CAMASCA OLIVARI
-
Modelos não lineares de efeitos mistos para dados censurados com erros elípticos autorregressivos.
-
Orientador : FRANCISCO JOSE DE AZEVEDO CYSNEIROS
-
MEMBROS DA BANCA :
-
ALDO WILLIAM MEDINA GARAY
-
FRANCYELLE DE LIMA MEDINA
-
ROBERTO FERREIRA MANGHI
-
CELSO RÔMULO BARBOSA CABRAL
-
JUVENCIO SANTOS NOBRE
-
Data: 14/02/2023
-
-
Mostrar Resumo
-
Os modelos de efeitos mistos são ferramentas frequentemente utilizadas para o estudo de dados longitudinais. No entanto, devido à possível complexidade deste tipo de dados, torna-se atrativo o desenvolvimento de extensões destes modelos com suposições mais flexíveis com a finalidade de melhorar o ajuste dos dados. Neste contexto, propomos uma extensão mais flexível dos modelos de efeitos mistos com respostas censuradas e erros normais autorregressivos de ordem $p$. Para isso, atribuímos inicialmente a classe de distribuição elíptica às componentes aleatórias do modelo. Esta família de distribuições nos permitirá trabalhar com conjuntos de dados com caudas mais leves ou mais pesadas que a normal, possibilitando um ajuste menos sensível à presença de observações atípicas. Dessa forma, um algoritmo do tipo EM foi desenvolvido para obter as estimativas de máxima verossimilhança e os erros padrão dessas estimativas utilizando a matriz de informação empírica. Por outro lado, nos últimos anos, há um interesse crescente em métodos estatísticos para a análise de dados longitudinais com efeitos espaciais. Nesse contexto, propomos uma segunda extensão do modelo proposto inicialmente, incluindo dependência espacial na distribuição do efeito aleatoreo. Para avaliar a qualidade do ajuste e as premissas dos modelos propostos foram utilizados os resíduos martingais e medidas de diagnóstico com base na abordagem de influência global e local. Apresentamos estudos de simulação sob diferentes cenários para avaliar as propriedades assintóticas dos estimadores e o desempenho dessa classe de modelos na presença de observações atípicas. Finalmente, foram analisados exemplos práticos com dados reais.
-
Mostrar Abstract
-
Mixed effects models are frequently used tools for studying longitudinal data. However, due to the possible complexity of this type of data, it is attractive to develop extensions of these models with more flexible assumptions aimed at improving the fit of the data. In this context, we propose a more flexible extension of mixed effects models with censored responses and autoregressive normal errors of order $p$. For this, we initially assign the elliptical distribution class to the random components of the model. This family of distributions will allow us to work with datasets with lighter or heavier tails than normal, allowing a less sensitive fit to the presence of atypical observations. Thus, an EM-type algorithm was developed to obtain the maximum likelihood estimates and the standard errors of these estimates using the empirical information matrix. On the other hand, in the last few years, there has been a growing interest in statistical methods for analyzing longitudinal data with spatial effects. In this context, we propose a second extension of the initially proposed model, including spatial dependence in the distribution of the random effect. To assess the goodness of fit and assumptions of the proposed models, martingale residuals and diagnostic measures were used based on the global and local influence approach. We present simulation studies under different scenarios to evaluate the asymptotic properties of the estimators and the performance of this class of models in the presence of outliers. Finally, practical examples with real data were analyzed.
|
|
4
|
-
ALEXSANDRA GOMES DE LIMA
-
Análise de Agrupamentos com Informação Espacial
-
Orientador : RAYDONAL OSPINA MARTINEZ
-
MEMBROS DA BANCA :
-
JOSE LUIZ DE AMORIM RATTON JUNIOR
-
MARCEL DE TOLEDO VIEIRA
-
PEDRO LUIS DO NASCIMENTO SILVA
-
RAYDONAL OSPINA MARTINEZ
-
VINICIUS QUINTAS SOUTO MAIOR
-
Data: 27/02/2023
-
-
Mostrar Resumo
-
Este trabalho apresenta um estudo sob a perspectiva da análise de agrupamento envolvendo informação espacial e dados criminais. Foram considerados cinco métodos de agrupamento: K-Means, PAM, VNSKMED, Ward-Like e SKATER, além disso, foi proposta uma alteração nos algoritmos Ward-Like e SKATER modificando a estrutura de pesos e o processo de partição dos grupos usando a distância Gower, nomeados de Ward-Like. New e SKATER. New, respectivamente. Os métodos foram comparados, por meio de três índices de validação: índice Calinski-Harabasz, índice Dunn e índice Davies-Bouldin. Para o estudo de caso, foram utilizados dados de 2007 a 2015 sobre a ocorrência de crimes dos bairros da cidade de Recife envolvendo as classificações das Áreas Integradas de Segurança. Os algorítmos permitiram explorar os padrões relacionados aos crimes, possibilitando mapeá-los em clusters de bairros da capital pernambucana. Os resultados mostraram que os métodos Ward-Like e SKATER produziram os melhores resultados e a modificação SKATER.New atestou maior qualidade na partição dos grupos.
-
Mostrar Abstract
-
Este trabalho apresenta um estudo sob a perspectiva da análise de agrupamento envolvendo informação espacial e dados criminais. Foram considerados cinco métodos de agrupamento: K-Means, PAM, VNSKMED, Ward-Like e SKATER, além disso, foi proposta uma alteração nos algoritmos Ward-Like e SKATER modificando a estrutura de pesos e o processo de partição dos grupos usando a distância Gower, nomeados de Ward-Like. New e SKATER. New, respectivamente. Os métodos foram comparados, por meio de três índices de validação: índice Calinski-Harabasz, índice Dunn e índice Davies-Bouldin. Para o estudo de caso, foram utilizados dados de 2007 a 2015 sobre a ocorrência de crimes dos bairros da cidade de Recife envolvendo as classificações das Áreas Integradas de Segurança. Os algorítmos permitiram explorar os padrões relacionados aos crimes, possibilitando mapeá-los em clusters de bairros da capital pernambucana. Os resultados mostraram que os métodos Ward-Like e SKATER produziram os melhores resultados e a modificação SKATER.New atestou maior qualidade na partição dos grupos.
|
|
5
|
-
ALISSON DOS SANTOS SILVA
-
Teoria da Informação aplicada a distribuições conjuntas induzidas do atributo SPAN (Total Scattering Power Image) em imagens PolSAR
-
Orientador : ABRAAO DAVID COSTA DO NASCIMENTO
-
MEMBROS DA BANCA :
-
ABRAAO DAVID COSTA DO NASCIMENTO
-
ALEJANDRO CESAR FRERY ORGAMBIDE
-
ANDERSON A. DE BORBA
-
GETULIO JOSE AMORIM DO AMARAL
-
JODAVID DE ARAUJO FERREIRA
-
Data: 27/02/2023
-
-
Mostrar Resumo
-
O sistema de radar de abertura sintética polarimétrica (PolSAR) é uma das ferramentas de maior sucesso para resolver problemas de sensoriamento remoto. Tal como em todos os recursos imagéticos que utilizam iluminação coerente, as imagens PolSAR são contaminadas por um ruído multidimensional granular denominado como speckle, que impõe uma natureza não normal e multiplicativa aos dados resultantes. Portanto, é necessário um processamento sob medida das imagens PolSAR, por exemplo, melhores testes de hipóteses e detectores de mudança. Nesta proposta de tese, usamos a distribuição gama bivariada (MBG) da McKay para descrever uma distribuição conjunta resultante de dois componentes da imagem de poder de dispersão total (SPAN). Ainda no contexto de uma modelagem especializada, propõe-se (a partir da MBG e da abordagem de modelagem multiplicativa) uma nova distribuição bivariada — chamada 𝒢0𝐼 McKay bivariada (𝒢 0 𝐼 MB) - para descrever um par aleatório induzido do SPAN, bem como são derivadas algumas propriedades associadas a 𝒢0𝐼 MB: como esperança, covariância, função geradora de momento e função geradora de cumulantes. O objeto de investigação aplicada desta proposta de tese é construir novos detectores de mudança com base nas distribuições induzidas pelo SPAN, a saber MBG e 𝒢 0 𝐼 MB. Para este fim, derivaram se expressões de forma fechada para as divergências de Kullback-Leibler e Rényi para as distribuições MBG e 𝒢 0 𝐼 MB. Como consequência, novos testes de hipótese para duas amostras em divergência são introduzidos, sendo seus desempenhos analisados via experimentos de Monte Carlo. Finalmente, aplicamos os novos testes às imagens reais da PolSAR para avaliar as mudanças causadas pelos processos de urbanização em Los Angeles e regiões da Califórnia. Os resultados mostraram que nossas propostas conseguem detectar mudanças nas imagens PolSAR, sendo determinadas técnicas recomendadas para específicas naturezas dos dados.
-
Mostrar Abstract
-
O sistema de radar de abertura sintética polarimétrica (PolSAR) é uma das ferramentas de maior sucesso para resolver problemas de sensoriamento remoto. Tal como em todos os recursos imagéticos que utilizam iluminação coerente, as imagens PolSAR são contaminadas por um ruído multidimensional granular denominado como speckle, que analisa a natureza não normal e multiplicativa aos dados resultantes. Portanto, é necessário um processamento sob medida das imagens PolSAR, por exemplo, melhores testes de hipóteses e detectores de mudança. Nesta proposta de tese, usamos a distribuição gama bivariada (MBG) da McKay para descrever uma distribuição conjunta resultante de dois componentes da imagem de poder de dispersão total (SPAN). Ainda no contexto de uma modelagem especializada, propõe-se (a partir da MBG e da abordagem de modelagem multiplicativa) uma nova distribuição bivariada — chamada GI0 McKay bivariada (GI0 MB) - para descrever um par aleatório induzido do SPAN, bem como são derivadas algumas propriedades associadas a GI0 MB: como esperança, covariância, função geradora de momento e função geradora de cumulantes. O objeto de investigação aplicada desta proposta de tese é construir novos detectores de mudança com base das distribuições induzidas pelo SPAN, a saber MBG e GI0 MB. Para este fim, derivaram- se expressões de forma fechada para as divergências de Kullback-Leibler e Rényi para a as distribuições MBG e GI0 MB. Como consequência, novos testes de hipótese para duas amostras em divergência são introduzidos, sendo seus desempenhos analisados via experimentos de Monte Carlo. Finalmente, aplicamos os novos testes às imagens reais da PolSAR para avaliar as mudanças causadas pelos processos de urbanização em Los Angeles e regiões da Califórnia. Os resultados mostraram que nossas propostas conseguem detectar mudanças nas imagens PolSAR, sendo determinadas técnicas recomendadas para especificas naturezas dos dados.
|
|
6
|
-
CODJO OLIVIER SOSSA
-
Teoria Assintótica de Alta Ordem nos Modelos Não Lineares Simétricos Heteroscedásticos
-
Orientador : AUDREY HELEN MARIZ DE AQUINO CYSNEIROS
-
MEMBROS DA BANCA :
-
ALDO WILLIAM MEDINA GARAY
-
AUDREY HELEN MARIZ DE AQUINO CYSNEIROS
-
FRANCISCO JOSE DE AZEVEDO CYSNEIROS
-
MARIANA CORREIA DE ARAÚJO
-
MIGUEL ANGEL URIBE OPAZO
-
Data: 28/02/2023
-
-
Mostrar Resumo
-
Cysneiros et al. (2010) propuseram a classe dos modelos não lineares simétricos heteroscedásticos (MNLSH). No nosso trabalho, estendemos a classe dos MNLSH permitindo que as funções de ligação da média e da dispersão possam ser funções não lineares que dependem de um conjunto de parâmetros desconhecidos a serem estimados, tendo a heteroscedasticidade multiplicativa como um caso particular. Três linhas de pesquisa são abordadas neste trabalho. A primeira, trata da derivação de expressões analíticas que permitam calcular os vieses dos estimadores de máxima verossimilhança na classe dos MNLSH, possibilitando a obtenção de estimadores corrigidos, que, em princípio, são mais precisos que os não corrigidos. Estimadores com vieses corrigidos por bootstrap também foram considerados. Adicionalmente, apresentamos diferentes tipos de intervalos de confiança. A segunda linha de pesquisa, aborda a derivação de ajustes às estatísticas de testes da razão de verossimilhanças e escore, com o objetivo de melhorar a qualidade das inferências acerca dos parâmetros de regressão da média e da dispersão nos MNLSH. Os desempenhos dos estimadores e testes de hipóteses foram avaliados numericamente e comparados às suas versões não corrigidas através de estudos de simulação de Monte Carlo, no que tange ao tamanho e ao poder, em amostras finitas. A terceira linha de pesquisa trata de técnicas de diagnóstico para os MNLSH, a saber: alavancagem generalizada, influência local e global. Finalmente, um conjunto de dados é utilizado para avaliar os nossos resultados teóricos.
-
Mostrar Abstract
-
Cysneiros et al. (2010) propuseram a classe dos modelos não lineares simétricos heteroscedásticos (MNLSH). Esta classe de modelos inclui todas as distribuições contínuas simétricas e tem uma ampla variedade de aplicações práticas em vários campos, a saber: engenharia, biologia, medicina, economia, entre outros. No nosso trabalho, consideramos uma estrutura não linear qualquer para a dispersão, tendo a heteroscedasticidade multiplicativa como um caso particular, estendendo portanto, os artigos de Cysneiros et al (2010) e Araújo et al. (2022). Duas linhas de pesquisa são abordadas neste trabalho. A primeira, trata da derivação de expressões analíticas que permitam calcular os vieses dos estimadores de máxima verossimilhança na classe dos MNLSH, possibilitando a obtenção de estimadores corrigidos, que, em princípio, são mais precisos que os não corrigidos. Estimadores com vieses corrigidos por bootstrap são também considerados. Adicionalmente, apresentamos diferentes tipos de intervalos de confiança. A segunda linha de pesquisa, aborda a derivação de ajustes para as estatísticas de testes (razão de verossimilhanças,escore e gradiente), com o objetivo de melhorar a qualidade das inferências acerca dos parâmetros de regressão da média e da dispersão nos MNLSH. Os desempenhos dos estimadores e testes de hipóteses serão avaliados numericamente e comparados às suas contrapartidas usuais através de estudos de simulação de Monte Carlo, no que tange ao tamanho e ao poder, em amostras finitas. Adicionalmente, a utilidade dos refinamentos desenvolvidos será ilustrada através de aplicações a conjunto de dados reais.
|
|
7
|
-
LUAN PORTELLA DA SILVA
-
Algoritmos recursivos com aproximações de baixa complexidade para estimação
espectral e autocorrelação.
-
Orientador : RENATO JOSE DE SOBRAL CINTRA
-
MEMBROS DA BANCA :
-
BRUNA GREGORY PALM
-
FÁBIO MARIANO BAYER
-
RENATO JOSE DE SOBRAL CINTRA
-
RICARDO MENEZES CAMPELLO DE SOUZA
-
THIAGO LOPES TRUGILLO DA SILVEIRA
-
VITOR DE ANDRADE COUTINHO
-
Data: 27/03/2023
-
-
Mostrar Resumo
-
A importância da transformada discreta de Fourier (DFT) decorre da sua rica interpretação física e de seus princípios matemáticos. Em processamento de sinais, a DFT desempenha um papel fundamental em estimação espectral, filtragem, econvoluções rápidas de sinais. Para reduzir o custo computacional da DFT, uma série de algoritmos, denominados transformadas rápidas de Fourier (FFT) têm sidodesenvolvidos. Capazes de reduzir a complexidade multiplicativa, os algoritmos rápidospermitiram que o uso da DFT fosse difundido. No entanto, mesmo com a reduçãoda complexidade aritmética oriunda das FFTs, o cômputo da DFT pode ser um obstáculoem aplicações que apresentam condições restritivas, como consumo de energia, áreade ocupação no chip e tempo. Se pequenos desvios de acurácia forempermitidos em tais condições, o cálculo da DFT pode ser realizado de forma aproximada. O presentetrabalho aborda quatro diferentes tópicos relacionados com a estimação da DFT. Primeiramente, baseado em iterações do algoritmo radix-N de Cooley-Tukey, são propostas transformadas aproximadas para sinais de comprimento N^2^n. Segundo, uma versão aproximada do algoritmo de Good-Thomas capaz de realizar todo o cálculoda DFT sem necessidade de multiplicações é apresentada. Terceiro, aproximaçõespara as matrizes de transformação e fatores de rotação são apresentadas utilizando o dígito de sinal canônico (CSD) com o intuito de também propor um algoritmo de Cooley-Tukey livre de multiplicações. Por último, um estimador de baixa complexidade éproposto para o cálculo da autocorrelação baseado nas propriedades da DFT. Todasas propostas contêm (i) construção de algoritmos rápidos, (ii) avaliação da complexidade aritmética e (iii) análise de erro.
-
Mostrar Abstract
-
A importância da transformada discreta de Fourier (DFT) decorre da sua rica interpretação física e de seus princípios matemáticos. Em processamento de sinais, a DFT desempenha um papel fundamental em análise espectral, filtragem e convoluções rápidas de sinais. Na intenção de reduzir o custo computacional da DFT, uma série de algoritmos, denominados algoritmos rápidos de Fourier (FFT), foram desenvolvidos. Capazes de reduzir a complexidade multiplicativa de ON2para ONlog2N, os algoritmos rápidos permitiram que o uso da DFT fosse difundido. No entanto, o cômputo exato da DFT pode ser um obstáculo em aplicações que apresentam condições restritivas, como consumo de energia, área de ocupação no chip, tempo, entre outras. Se, em tais condições, pequenos desvios de acurácias forem permitidos, o cálculo da DFT pode ser realizado de forma aproximada. O presente trabalho aborda três tópicos da DFT. Primeiramente, uma versão aproximada do algoritmo de Good-Thomas capaz de realizar todo o cálculo da DFT sem necessidade de multiplicações é apresentada. Segundo, baseado em iterações do algoritmo Radix-N de Cooley-Tukey são propostas transformadas aproximadas para sinais de comprimento N2n. E por último, baseado nas propriedades da DFT, um estimador de baixa complexidade é proposto para o cálculo da autocorrelação. Todas as propostas contêm: (i) construção de algoritmos rápidos, (ii) avaliação da complexidade aritmética, e (iii) análise de erro. Embora preliminares, os resultados das propostas mencionadas são promissores e possuem contribuições relevantes para a área de processamento de sinais.
|
|
8
|
-
ANABETH PETRY RADÜNZ
-
Aproximações de baixa complexidade para transformadas discretas: projeto, algoritmos rápidos, codificação de imagens e inferência estatística.
-
Orientador : RENATO JOSE DE SOBRAL CINTRA
-
MEMBROS DA BANCA :
-
THIAGO LOPES TRUGILLO DA SILVEIRA
-
ANDRE LEITE WANDERLEY
-
DIEGO FELIPE GOMES COELHO
-
FÁBIO MARIANO BAYER
-
RENATO JOSE DE SOBRAL CINTRA
-
RICARDO MENEZES CAMPELLO DE SOUZA
-
Data: 31/03/2023
-
-
Mostrar Resumo
-
Transformadas discretas desempenham um papel importante no contexto de processamento de sinais. Elas são ferramentas pivotais pois permitem analisar e interpretar dados no domínio das transformadas, que frequentemente revelam padrões úteis. Em particular, podemos citar a transformada discreta de Fourier (DFT), a transformada de Karhunen-Loève (KLT) e a transformada discreta do cosseno (DCT) como as transformadas mais relevantes no contexto de processamento de sinais e imagens. Embora a relevância do uso dessas transformadas tenha sido amplamente corroborado em diversos estudos, os custos computacionais necessários para suas implementações podem se tornar proibitivos em contextos em que temos grande quantidade de dados e/ou a demanda por dispositivos de baixa complexidade. Nesse sentido, algoritmos rápidos podem ser uma solução para a redução das operações aritméticas necessárias para a computação das transformadas, porém, ainda é preciso lidar com a aritmética do ponto flutuante. Dessa forma, diversas aproximações matriciais de baixa complexidade vêm sendo propostas, como sendo uma alternativa de baixo custo para o computo destas transformadas. A presente tese está dividida em duas partes. Na primeira parte, propomos diversas classes de aproximações de baixa complexidade para a KLT, algoritmos rápidos, e demonstramos sua usabilidade no contexto de processamento de imagens. Na segunda parte da tese, abordamos a DFT, apresentamos classes de aproximação para esta transformada e sua aplicabilidade em problemas de inferência estatística, como no contexto de detecção de sinais e na estimação de parâmetros de baixa complexidade. Particularmente, abordamos a estimação do bispectro, que pode ser calculado como a DFT da sequência de cumulantes de terceira ordem. Dos resultados obtidos, podemos concluir que as aproximações de baixa complexidade para as transformadas podem ser consideradas excelentes alternativas em contextos em que há uma quantidade massiva de dados a ser processada ou no caso de implementação em hardware de baixo consumo.
-
Mostrar Abstract
-
Transformadas discretas desempenham um papel importante no contexto de processamento de sinais. Elas são ferramentas pivotais pois permitem analisar e interpretar dados no domínio das transformadas, que frequentemente revelam padrões úteis. Em particular, podemos citar a transformada discreta de Fourier (DFT), a transformada de Karhunen-Loève (KLT) e a transformada discreta do cosseno (DCT) como as transformadas mais relevantes no contexto de processamento de sinais e imagens. Embora a relevância do uso dessas transformadas tenha sido amplamente corroborado em diversos estudos, os custos computacionais necessários para suas implementações podem se tornar proibitivos em contextos em que temos grande quantidade de dados e/ou a demanda por dispositivos de baixa complexidade. Nesse sentido, algoritmos rápidos podem ser uma solução para a redução das operações aritméticas necessárias para a computação das transformadas, porém, ainda é preciso lidar com a aritmética do ponto flutuante. Dessa forma, diversas aproximações matriciais de baixa complexidade vêm sendo propostas, como sendo uma alternativa de baixo custo para o cômputo destas transformadas. A presente tese está dividida em duas partes. Na primeira parte, abordamos a transformada de Karhunen-Loève, propomos diversas classes de aproximações de baixa complexidade para esta transformada, algoritmos rápidos, e demonstramos sua usabilidade no contexto de processamento de imagens. Na segunda parte da tese, abordamos a transformada discreta de Fourier (DFT), apresentamos classes de aproximação para esta transformada e sua aplicabilidade em problemas de inferência estatística, como no contexto de detecção de sinais e na estimação de parâmetros de baixa complexidade. Particularmente, abordamos a estimação do bispectro, que pode ser calculado como a DFT da sequência de cumulantes de terceira ordem. Dos resultados obtidos, podemos concluir que as aproximações de baixa complexidade para as transformadas podem ser consideradas excelentes alternativas em contextos em que há uma quantidade massiva de dados a ser processada ou no caso de implementação em hardware de baixo consumo.
|
|
9
|
-
ALECIO SOARES SILVA
-
Um estudo sobre alguns conceitos de estabilidade com horizonte variável no Modelo de Grafos para Resolução de Conflitos
-
Orientador : LEANDRO CHAVES REGO
-
MEMBROS DA BANCA :
-
ALEXANDRE BEVILACQUA LEONETI
-
GIANNINI ITALINO ALVES VIEIRA
-
LEANDRO CHAVES REGO
-
MAISA MENDONCA SILVA
-
RAYDONAL OSPINA MARTINEZ
-
ROBERTO FERREIRA MANGHI
-
Data: 07/06/2023
-
-
Mostrar Resumo
-
Nesta tese abordamos conceitos de estabilidade de horizonte variável, os quais, apesar de serem mais flexíveis, ainda não são muito explorados na literatura sobre o Modelo de Grafos para Resolução de Conflitos (GMCR). Nosso objetivo é aumentar o entendimento sobre tais conceitos proporcionando alguns avanços e correções na literatura. Assim, dentre os avanços apresentados, temos um teorema que estabelece a equivalência entre os conceitos das estabilidades Maximinℎ e Metarracionalidade generalizada 𝑀 𝑅ℎ, para conflitos bilaterais, a qual foi justificada pela construção de uma política Maximin, baseada na construção de uma árvore Maximin. O segundo avanço foram resultados que estabelecem a relação entre as estabilidades Maximinℎ e Metarracionalidade Generalizada Alternativa, para conflitos multilaterais, que diferente do caso de conflitos com dois decisores, não são equivalentes. O terceiro avanço foi propor uma generalização alternativa para o conceito da estabilidade Movimento Limitado, na qual consideramos os oponentes do decisor focal como uma coalizão, que busca atingir estados finais do conflito que não são Pareto dominados por algum outro possível estado final. Além disso, estudamos as relações deste conceito com os conceitos clássicos de estabilidade do GMCR. No que se refere às correções sugeridas, a primeira delas foi o fato de o estado antecipado de acordo com a estabilidade 𝐿ℎ não ser único, gerando uma ambiguidade, para a qual, também, sugerimos uma desambiguação. A segunda, foi apontar que o corolário apresentado na literatura sobre o GMCR, sobre equilíbrio em políticas e Metarracionalidade Generalizada está incorreto, o que mostramos por meio de um exemplo. A terceira correção proposta, refere-se à justificativa para o fato de a estabilidade Movimento Limitado implicar a estabilidade Metarracional Generalizada, para o caso de conflitos bilaterais. Apesar desta implicação ser verdadeira, a justificativa não considera que em um conflito, um estado 𝑠 pode ser 𝐿ℎ estável para o decisor focal, mas seu oponente pode, ao buscar maximizar seu payoff, acessar estados diferentes a partir de um mesmo estado, quando este aparecer mais uma vez na árvore que representa seus possíveis movimentos. Daí, apresentamos uma justificativa correta para a implicação. Por fim, a quarta correção sugerida foi o fato de o estado antecipado de acordo com a estabilidade Maximinℎ não ser único, o que assim como no caso anterior da estabilidade 𝐿ℎ, também gera uma ambiguidade, e mais uma vez, sugerimos uma desambiguação.
-
Mostrar Abstract
-
Nesta tese abordamos conceitos de estabilidade de horizonte variável, os quais, apesar de serem mais flexíveis, ainda não são muito explorados na literatura sobre o Modelo de Grafos para Resolução de Conflitos (GMCR). Nosso objetivo é aumentar o entendimento sobre tais conceitos proporcionando alguns avanços e correções na literatura. Assim, dentre os avanços apresentados, temos um teorema que estabelece a equivalência entre os conceitos das estabilidades Maximinℎ e Metarracionalidade generalizada 𝑀 𝑅ℎ, para conflitos bilaterais, a qual foi justificada pela construção de uma política Maximin, baseada na construção de uma árvore Maximin. O segundo avanço foram resultados que estabelecem a relação entre as estabilidades Maximinℎ e Metarracionalidade Generalizada Alternativa, para conflitos multilaterais, que diferente do caso de conflitos com dois decisores, não são equivalentes. O terceiro avanço foi propor uma generalização alternativa para o conceito da estabilidade Movimento Limitado, na qual consideramos os oponentes do decisor focal como uma coalizão, que busca atingir estados finais do conflito que não são Pareto dominados por algum outro possível estado final. Além disso, estudamos as relações deste conceito com os conceitos clássicos de estabilidade do GMCR. No que se refere às correções sugeridas, a primeira delas foi o fato de o estado antecipado de acordo com a estabilidade 𝐿ℎ não ser único, gerando uma ambiguidade, para a qual, também, sugerimos uma desambiguação. A segunda, foi apontar que o corolário apresentado na literatura sobre o GMCR, sobre equilíbrio em políticas e Metarracionalidade Generalizada está incorreto, o que mostramos por meio de um exemplo. A terceira correção proposta, refere-se à justificativa para o fato de a estabilidade Movimento Limitado implicar a estabilidade Metarracional Generalizada, para o caso de conflitos bilaterais. Apesar desta implicação ser verdadeira, a justificativa não considera que em um conflito, um estado 𝑠 pode ser 𝐿ℎ estável para o decisor focal, mas seu oponente pode, ao buscar maximizar seu payoff, acessar estados diferentes a partir de um mesmo estado, quando este aparecer mais uma vez na árvore que representa seus possíveis movimentos. Daí, apresentamos uma justificativa correta para a implicação. Por fim, a quarta correção sugerida foi o fato de o estado antecipado de acordo com a estabilidade Maximinℎ não ser único, o que assim como no caso anterior da estabilidade 𝐿ℎ, também gera uma ambiguidade, e mais uma vez, sugerimos uma desambiguação.
|
|
10
|
-
JOSÉ JAIRO DE SANTANA E SILVA
-
Essays on Misspecification Detection in Double Bounded Random Variables Modeling
-
Orientador : FRANCISCO CRIBARI NETO
-
MEMBROS DA BANCA :
-
ALDO WILLIAM MEDINA GARAY
-
FRANCISCO CRIBARI NETO
-
GETULIO JOSE AMORIM DO AMARAL
-
GILBERTO ALVARENGA PAULA
-
SILVIA LOPES DE PAULA FERRARI
-
Data: 27/07/2023
-
-
Mostrar Resumo
-
The beta distribution is routinely used to model variables that assume values in the standard unit interval. Several alternative laws have, nonetheless, been proposed in the literature, such as the Kumaraswamy and simplex distributions. A natural and empirically motivated question is: does the beta law provide an adequate representation for a given dataset? We test the null hypothesis that the beta model is correctly specified against the alternative hypothesis that it does not provide an adequate data fit. Our tests are based on the information matrix equality, which only holds when the model is correctly specified. They are thus sensitive to model misspecification. Simulation evidence shows that the tests perform well, especially when coupled with bootstrap resampling. We model state and county Covid-19 mortality rates in the United States. The misspecification tests indicate that the beta law successfully represents Covid-19 death rates when they are computed using either data from prior to the start of the vaccination campaign or data collected when such a campaign was under way. In the latter case, the beta law is only accepted when the negative impact of vaccination reach on death rates is moderate. The beta model is rejected under data heterogeneity, i.e., when mortality rates are computed using information gathered during both time periods.
The beta regression model is tailored for responses that assume values in the standard unit interval. In its more general formulation, it comprises two submodels, one for the mean response and another for the precision parameter. We develop tests of correct specification for such a model. The tests are based on the information matrix equality, which fails to hold when the model is incorrectly specified. We establish the validity of the tests in the class of varying precision beta regressions, provide closed-form expressions for the quantities used in the test statistics, and present simulation evidence on the tests' null and non-null behavior. We show it is possible to achieve very good control of the type I error probability when data resampling is employed and that the tests are able to reliably detect incorrect model specification, especially when the sample size is not small. Two empirical applications are presented and discussed.
Diagnostic analysis in regression modeling is usually carried out based on residual or local influence analysis. We develop a new approach for detecting atypical data points in models for which parameter estimation is performed by maximum likelihood. The new approach uses the information matrix equality which holds when the model is correctly specified. We consider different measures of the distance between two symmetric matrices and use them with sample counterparts of the matrices in the information matrix equality in such a way that zero distance corresponds to correct model specification. The distance measures we use thus quantify the degree of model adequacy. We show that they can be used to identify observations that disproportionately contribute to altering the degree of model adequacy. We also introduce a modified generalized Cook distance and a new criterion that uses the two generalized Cook's distances (modified and unmodified). Empirical applications are presented and discussed.
-
Mostrar Abstract
-
A distribuição beta é usada rotineiramente para modelar variáveis que assumem valores no intervalo unitário padrão. Várias leis alternativas foram, contudo, propostas na literatura, tais como as distribuições Kumaraswamy e simplex. Uma questão natural e empiricamente motivada é: a lei beta fornece uma representação adequada para os dados sob análise? Nós testamos a hipótese nula de que o modelo beta está corretamente especificado contra a hipótese alternativa de que ele não fornece um ajuste adequado aos dados. Nossos testes são baseados na igualdade da matriz de informação, que somente é válida quando o modelo se encontra corretamente especificado. Os testes são, portanto, sensíveis a qualquer forma de especificação incorreta do modelo. Resultados de simulação mostram que os testes têm bom desempenho, especialmente quando utilizados com reamostragem bootstrap. Nós modelamos as taxas de mortalidade estaduais e municipais de Covid-19 nos Estados Unidos. Nossos testes de má especificação indicam que a lei beta representa adequadamente as taxas de mortalidade do Covid-19 quando estas são computadas com base em dados anteriores ao início da campanha de vacinação de Covid-19 ou com base em dados coletados quando tal campanha já se encontrava em andamento. No último caso, a lei beta só é aceita quando o impacto da vacinação sobre as taxas de mortalidade é moderado. O modelo beta é rejeitado sob heterogeneidade de dados, ou seja, quando as taxas de mortalidade são computadas usando informações coletadas durante ambos os períodos de tempo. Os testes de má especificação são estendidos para cobrir o modelo beta de regressão de precisão variável. Apresentamos expressões em forma fechada para tais estatísticas de teste na classe de modelos de regressão em que a variável de resposta segue distribuição beta com estruturas de regressão separadas para sua média e precisão. São apresentados resultados de simulação de Monte Carlo sobre o comportamento dos testes, tanto sob a hipótese nula como sob a hipótese alternativa.
|
|
11
|
-
ELISÂNGELA CANDEIAS BIAZATTI
-
Algumas novas distribuições e novas famílias de distribuições: teoria e aplicações
-
Orientador : GAUSS MOUTINHO CORDEIRO
-
MEMBROS DA BANCA :
-
ABRAAO DAVID COSTA DO NASCIMENTO
-
EDWIN MOISES MARCOS ORTEGA
-
GAUSS MOUTINHO CORDEIRO
-
MARCELO BOURGUIGNON PEREIRA
-
MARIA DO CARMO SOARES DE LIMA
-
Data: 07/11/2023
-
-
Mostrar Resumo
-
Várias classes de distribuições foram introduzidas nas últimas duas décadas para estender distribuições bem conhecidas e fornecer maior flexibilidade na modelagem de dados reais. Neste trabalho, serão apresentadas três novas famílias de distribuições: Dual Dagum-G, Exponentiated-Weibull-G e Weibull Flexible-G; e duas novas distribuições de probabilidade: Weibull Beta Prime e Weibull extended Weibull. Algumas propriedades das novas distribuições são apresentadas e o método de máxima verossimilhança foi utilizado para estimar os parâmetros das distribuições propostas. Novos modelos de regressão também são propostos com base nas novas famílias e distribuições.
-
Mostrar Abstract
-
Several classes of distributions have been introduced over the past two decades to extend well-known distributions and provide greater flexibility in modeling real data. In this work, three new families of distributions will be presented: Dual Dagum-G, Exponentiated-Weibull-G and Weibull Flexible-G; and two new distributions of probability: Weibull Beta Prime and Weibull extended Weibull. Some properties of the new distributions are presented and the maximum likelihood method was used to estimate the parameters of the proposed distributions. New regression models are also proposed based on new families and distributions.
|
|
12
|
-
JEAN CARLOS CARDOSO
-
PERCOLAÇÃO ACESSÍVEL EM ÁRVORES
-
Orientador : PABLO MARTIN RODRIGUEZ
-
MEMBROS DA BANCA :
-
PABLO ALMEIDA GOMES
-
NEVENA MARIC
-
PABLO MARTIN RODRIGUEZ
-
VALDIVINO VARGAS JÚNIOR
-
ÉLCIO LEBENSZTAYN
-
Data: 17/11/2023
-
-
Mostrar Resumo
-
Embora a percolação acessível seja um conceito recente, muitos trabalhos foram desenvolvidos na ultima década abordando esse tema tão em voga. A possibilidade de modelar problemas reais usando a teoria de percolação sem dúvida é o que faz essa área ser tão interessante e aclamada. O objetivo principal do nosso trabalho é encontrar condições para percolação acessível em árvores esfericamente simétricas. Sendo assim, neste trabalho introduzimos uma nova forma de caracterizar árvores esfericamente simétrica, denotada por2-power. Este novo conceito é baseado na velocidade do crescimento da árvore. Para provar a percolação acessível dessas novas árvores foi necessário a criação do que chamamos de percolaçãoδ-acessível. Esta por sua vez é uma forma mais restrita da já conhecida percolação acessível.Vários resultados foram derivados da criação desses conceitos e exemplos selecionados foram utilizados para a compreensão dos principais resultados. Finalizamos nosso trabalho explicitamos também condições para a extinção de árvores esfericamente simétricas
-
Mostrar Abstract
-
Embora a percolação acessível seja um conceito recente, muitos trabalhos foram desenvolvidos na ultima década abordando esse tema tão em voga. A possibilidade de modelar problemas reais usando a teoria de percolação sem dúvida é o que faz essa área ser tão interessante e aclamada. O objetivo principal do nosso trabalho é encontrar condições para percolação acessível em árvores esfericamente simétricas. Sendo assim, neste trabalho introduzimos uma nova forma de caracterizar árvores esfericamente simétrica, denotada por2-power. Este novo conceito é baseado na velocidade do crescimento da árvore. Para provar a percolação acessível dessas novas árvores foi necessário a criação do que chamamos de percolaçãoδ-acessível. Esta por sua vez é uma forma mais restrita da já conhecida percolação acessível.Vários resultados foram derivados da criação desses conceitos e exemplos selecionados foram utilizados para a compreensão dos principais resultados. Finalizamos nosso trabalho explicitamos também condições para a extinção de árvores esfericamente simétricas
|
|