Mestrado em Estatística Aplicada e Biometria
URI Permanente para esta coleçãohttps://repositorio.unifal-mg.edu.br/handle/123456789/2658
Navegar
Navegando Mestrado em Estatística Aplicada e Biometria por Título
Agora exibindo 1 - 20 de 66
- Resultados por página
- Opções de Ordenação
Item Acesso aberto (Open Access) A dinâmica espacial da agricultura no Brasil em 2008 e 2018(Universidade Federal de Alfenas, 2021-04-28) Silva Júnior, Marcio Aloisio; Ramos, Patrícia De Siqueira; Dias, Adriana; Nogueira, Denismar AlvesDada a influência da agricultura na sociedade e os fatores que podem contribuir para a concentração espacial de culturas agrícolas, tais como condições climáticas, tipos de solo e topografia, tem-se a importância da compreensão da dinâmica espacial de diferentes culturas agrícolas. Tal compreensão permite a identificação de regiões produtoras estratégicas, além de servir como subsídio para políticas públicas do setor. A compreensão da dinâmica espacial de culturas agrícolas no Brasil torna-se ainda mais relevante, tendo em vista as diferentes características observadas ao longo de seu território e o fato de ser o país um dos maiores exportadores de produtos agrícolas do mundo. Com isso, o objetivo desse trabalho é realizar, por meio da análise exploratória de dados espaciais, uma análise comparativa da dependência espacial da produção de diferentes culturas agrícolas no Brasil, nos anos de 2008 e 2018. Para tanto, utiliza-se de dados da Produção Agrícola Municipal (PAM) do IBGE, da qual foram selecionadas as 12 culturas com os maiores valores totais, em reais, da produção em 2018. Tais culturas foram: algodão, arroz, banana, café, cana-de-açúcar, feijão, fumo, laranja, mandioca, milho, soja e tomate. A variável utilizada para a análise espacial foi a quantidade produzida (em toneladas), adotando como unidades geográficas os municípios. Entre os resultados, tem-se que todas as culturas apresentaram autocorrelação espacial positiva, segundo o teste do I de Moran global, destacando em ambos os anos o baixo valor da estatística observado para a cultura tomate. Os maiores valores observados em tal estatística foram para a cana-de-açúcar, o café e o milho em 2018, e para o fumo, o café e a cana-de-açúcar em 2008. Por meio dos mapas temáticos e dos mapas LISA foram identificados, para cada uma das culturas, os agrupamentos espaciais de municípios com quantidades produzidas acima da média, bem como aqueles municípios que se destacam em relação a seus vizinhos. De modo geral, a análise comparativa das culturas evidenciou a formação de três grupos, segundo a dinâmica espacial entre os dois anos. O primeiro grupo é formado pelas culturas que tendem a se concentrar em áreas específicas do território, enquanto que o segundo grupo é composto por culturas que em 2018 expandiram as áreas em destaque que apresentavam em 2008. Por fim, o terceiro e último grupo apresenta como culturas aquelas que apresentaram agrupamentos com menores extensões e mais espaçados entre si.Item Acesso aberto (Open Access) A distribuição espacial do seguro rural no Brasil(Universidade Federal de Alfenas, 2022-03-17) Mendonça, Walef Machado De; Ramos, Patrícia De Siqueira; Ferreira, Leandro; Nogueira, Denismar AlvesAs atividades agropecuárias se inserem em um contexto de adversidades que as colocam em situação diferenciada em relação aos riscos enfrentados pelos produtores. Tais atividades de- mandam grandes investimentos, o que faz com que sua atratividade esteja relacionada às formas existentes de gerenciamento de riscos. Uma das formas usuais de gerenciamento de risco neste setor é a contratação de seguro rural, uma vez que esta modalidade de seguro possibilita a re- cuperação da capacidade financeira do produtor na ocorrência de sinistros. Dessa forma, o objetivo da presente pesquisa é analisar a distribuição e a dinâmica espacial de variáveis rela- cionadas às apólices de seguro rural contratadas nos municípios brasileiros no período de 2006 a 2019. Para tanto, a dissertação foi dividida em dois artigos. No primeiro, o objetivo é ava- liar a evolução das variáveis relacionadas ao seguro rural de forma individual. Para esse fim, foi realizada uma análise descritiva da evolução das variáveis de apólices de seguro rural. Os resultados indicam que as maiores concentrações de apólices de seguro rural estão situadas nas regiões Sul, Sudeste e Centro-Oeste. No segundo artigo, o objetivo é investigar a distribuição espacial do seguro rural nos municípios brasileiros no período de 2006 a 2019. Para alcançar tal objetivo, foi utilizada a Análise de Componentes Principais, com objetivo de reduzir a dimensi- onalidade dos dados. Os escores do primeiro componente principal foram utilizados na Análise Exploratória de dados Espaciais para investigar a presença de padrões de distribuição espacial de dados multivariados de seguro rural. Os resultados apontam que as maiores concentrações de apólices de seguro rural estão situadas nas regiões Sul, Sudeste e Centro-Oeste. Além disso, apesar de haver um aumento nas contratações de seguro rural, há também uma tendência de maior concentração espacial das apólices ao longo do período analisado. Em ambos os artigos foram utilizados dados dos Censos do seguro rural, compilados pelo Ministério da Agricultura, Pecuária e Abastecimento e dados com atributos geográficos do território disponíveis no ende- reço eletrônico do Instituto Brasileiro de Geografia e Estatística.Item Acesso aberto (Open Access) Abordagem bayesiana da isoterma de langmuir(Universidade Federal de Alfenas, 2016-02-12) Carvalho, Diailison Teixeira De; Muniz, Joel Augusto; Ramos, Patrícia De Siqueira; Savian, Taciana VillelaOs metais-traço são contaminantes altamente tóxicos presentes sobretudo no meio aquático. Uma técnica eficiente para remoção desses metais-traço é o processo de adsorção. Em estudos laboratoriais relacionados à adsorção há a geração de materiais contaminados, o que implica em riscos socioambientais, além de custos adicionais associados ao tratamento e descarte apropriado dos resíduos tóxicos gerados. Diante disso, há uma limitação prática na quantidade de amostra disponível. O processo de adsorção pode ser descrito por isotermas de adsorção, das quais a mais conhecida é a isoterma de Langmuir. Esta isoterma apresenta o parâmetro k, relacionado à energia de adsorção, e o parâmetro M, que indica a capacidade máxima de adsorção do metal em uma matriz adsorvente. A estimação destes parâmetros geralmente baseia-se em métodos assintóticos, portanto para tamanhos de amostras pequenas as estimativas tendem a apresentar baixa precisão e acurácia. Desse modo, há um impasse em como obterem-se estimativas precisas e acuradas e ao mesmo tempo utilizar-se de amostras de tamanho reduzido. Objetivando superar este problema, foi estudado neste trabalho, a aplicação da inferência bayesiana no ajuste da isoterma de Langmuir considerando prioris informativas e não informativas. Realizou-se então um estudo de simulação de dados com tamanhos amostrais de 5, 6, 7, 9, 12, 15, 20, 25 e 30, analisados em dois cenários com diferentes valores de M e k. Para avaliar a precisão foram utilizados o erro quadrático médio e a amplitude do intervalo HPD ao nível de 95% de credibilidade, para a acurácia o viés médio relativo absoluto. Amostras das distribuições marginais a posteriori dos parâmetros foram obtidas pelo amostrador de Gibbs. As inferências foram realizadas e os resultados indicaram que as estimativas obtidas com uso das prioris informativas apresentaram maiores precisão e acurácia mesmo em tamanhos amostrais inferiores. Posteriormente ajustou-se a isoterma sobre dados experimentais de adsorção de chumbo Pb2+ em cascas de laranja, considerando as prioris propostas e os resultados obtidos corroboraram com o estudo de simulação. Assim, a metodologia bayesiana mostrou-se eficiente para a estimação dos parâmetros da isoterma de Langmuir e o uso de prioris informativas permitiu a obtenção de estimativas com precisão e acurácia satisfatórias para tamanhos amostrais relativamente inferiores, o que permite contornar a limitação prática da quantidade de amostra disponível em estudos reais de adsorção.Item Acesso aberto (Open Access) Abordagem Bayesiana na Modelagem da Curva de Crescimento do Fungo Botrytis cinerea(Universidade Federal de Alfenas, 2024-05-24) Gomes, Mariana De Paula; Beijo, Luiz Alberto; Savian, Taciana Villela; Nogueira, Denismar AlvesO estudo da curva de crescimento de fungos fitopatogênicos permite compreender as etapas de seu crescimento e os fatores que o influenciam. Geralmente, em pesquisas com tal finalidade, os dados são analisados ao longo do tempo, o que pode gerar dependência nos resíduos e comprometer o processo de inferência quando ignorada. Como forma de considerar a autocorrelação residual na modelagem foi incorporada estrutura AR(p) para os erros do modelo. A abordagem bayesiana tem sido eficiente no estudo de curvas de crescimento e permite algumas vantagens como a facilidade de modelagens mais complexas e a capacidade de análise de amostras relativamente pequenas. Além disso, o fato de considerar os parâmetros como aleatórios permite realizar interpretações diretas sobre os mesmos e obter maior clareza das informações extraídas. Assim, o presente estudo teve como objetivo avaliar a performance da abordagem bayesiana quanto à: modelagem da curva de crescimento do fungo Botrytis cinerea sob efeito de óleos essenciais, por meio do ajuste do modelo logístico, considerando autocorrelação dos erros; e aos impactos de tamanhos amostrais reduzidos na precisão da análise e no processo de inferência. Os dados de crescimento micelial radial sob efeito de óleos essenciais foram obtidos em Vismara et al. (2019) *, em que as medidas das nove repetições foram coletadas ao longo de dez dias. Para o estudo do crescimento micelial radial foi ajustado o modelo de regressão não linear logístico. Diante dos resultados obtidos, pode-se concluir que a abordagem bayesiana mostrouse eficiente na modelagem da curva de crescimento do fungo Botrytis cinerea, considerando estrutura AR(p) para os erros, além de produzir estimativas levemente mais precisas tanto com priori informativa quanto não informativa. A abordagem também possibilitou a análise com tamanhos amostrais reduzidos sem alterar as estimativas dos parâmetros de forma significativa, considerando sobreposição dos intervalos HPD de 95% de credibilidade apesar da diminuição da precisão das estimativas. A adoção da abordagem bayesiana foi essencial para identificar o efeito do tratamento Patchouli em relação ao crescimento máximo, representado pelo parâmetro β1 do modelo ajustado, além do efeito do tratamento Guaçatonga na redução da taxa de crescimento, representado pelo parâmetro β3, o que não foi possível identificar no estudo de origem dos dados. Por fim, pode-se concluir que todos os óleos essenciais avaliados apresentaram efeito no controle do fungo Botrytis cinerea, sendo Patchouli e Melaleuca os mais efetivos.Item Acesso aberto (Open Access) Abordagem bayesiana para um delineamento Crossover 2 × 2 com medidas repetidas: um estudo de simulação e dados reais(Universidade Federal de Alfenas, 2021-08-17) Miranda Lopez, Yaciled Paola; Nogueira, Denismar Alves; Silva, Fabyano Fonseca E; Petrini, JulianaNos delineamentos crossover, as unidades experimentais recebem todos os tratamentos do estudo em períodos distintos, de acordo com os grupos de sequências formados. Devido a que as unidades experimentais atuam como seu próprio controle, efeitos carryover podem estar presentes no modelo; dificultando as inferências sobre os efeitos dos tratamentos. Além disso, podem ser tomadas medidas repetidas da variável resposta ao longo do tempo, o qual permite examinar e comparar as tendências das respostas. No entanto, medidas tomadas na mesma unidade experimental podem estar correlacionadas. Assim, o objetivo deste trabalho foi analisar o delineamento crossover 2 × 2 com medidas repetidas dentro de período de tratamento, via abordagem Bayesiana de modelos mistos. Foram considerados como efeitos sistemáticos: tratamentos, períodos, sequências, tempo e a interação simples entre tempo e tratamento; o efeito da unidade experimental foi considerado como aleatório através do modelo misto marginal. Um estudo de simulação foi realizado empregando conceitos frequentistas, considerando três medidas repetidas (efeitos de tempo) dentro de cada período, tamanhos de amostra de 20 e 100, dois diferentes coeficientes de variação (5% e 20%), diferença entre os tratamentos de 1 e 2 erros padrão (EP) entre as médias e efeitos carryover iguais a zero para cada tratamento. Além disso simularam-se 4 cenários considerando efeitos carryover iguais a 4EP, sendo assim, simulou-se 28 cenários com 1000 repetições em cada um. Após a simulação, os dados foram ajustados apenas a modelos Bayesianos. Também se realizou uma aplicação com dados reais da área da fisiopatologia, considerando a frequência mediana do músculo gastrocnêmio lateral direito para avaliar se um protocolo de exergaming melhora a atividade muscular em pacientes com câncer. As estimativas Bayesianas a posteriori sobre os parâmetros desconhecidos do modelo foram obtidas sob distribuições a priori não informativas e função de verossimilhança normal, utilizando o amostrador de Gibbs. A taxa de erro tipo I do teste da diferença de efeitos carryover foi próximo a 10%, sendo menor nos cenários com amostra maior. O teste dos efeitos de tempo tende a ser liberal com amostras de 20 unidades experimentais, enquanto com tamanho amostral de 100 torna-se exato ao nível de significância de 5%; o poder do teste foi de aproximadamente 99% nos cenários em que se considerou 6EP desse efeito. O modelo proposto apresentou bom desempenho com relação à acurácia, erro quadrático médio e precisão das estimativas dos efeitos carryover, diferenças dos efeitos do tratamento e efeitos do tempo, especialmente com amostras de 100 unidades experimentais. Por sua vez, quando os efeitos carryover foram iguais a 4EP da diferença entre médias, as estimativas foram não viesadas e não houve perda de acurácia e precisão, embora com estimativas viesadas de efeito de período. Os resultados com os dados reais se mostraram consistentes, se aproximando dos cenários simulados com diferenças de tratamentos de 1EP e efeito de tempos de 0 e 1.Item Acesso aberto (Open Access) Abordagens inteligentes para estimar a produção de energia eólica(Universidade Federal de Alfenas, 2018-06-18) Gebin, Luis Gustavo Gutierrez; Salgado, Ricardo Menezes; Gonzaga, Flávio Barbieri; Ohishi, TakaakiUma das maiores preocupações do século XXI é conciliar o desenvolvimento econômico e social com a preservação ambiental. Assim, o setor de energia torna-se foco de estudo, visto que grande parte das emissões de gases poluentes são advindas da geração elétrica. Como consequência, fontes renováveis e limpas de energia, que não causam malefícios para a natureza, como a produção de energia eólica, ganharam destaque no Brasil e no mundo. Porém, como a produção de energia eólica é uma energia obtida a partir do vento, o homem não possui total controle sobre sua geração, o que torna desejável que se tenha certa confiança no que concerne ao seu potencial elétrico. O que justifica o desenvolvimento de métodos eficientes para previsão destes dados eólicos, pois obtendo confiança quanto a estes modelos de previsão, pode-se expandir, ainda mais, a eficiência e potencial energético da produção de energia eólica brasileira, além de auxiliar as empresas no que se refere a distribuição da energia. Além disso, pode-se ter mais segurança em diminuir a complementação térmica, visto que as turbinas termoelétricas são usadas no Brasil, em geral, em períodos sazonais, quando a produção hidroelétrica está em baixa. Todavia, a previsão dos dados eólicos não é tarefa trivial, devido às diversas variáveis exógenas que podem afetar na produção. Visto isso, o trabalho tem como objetivo fazer a predição de uma semana em escala horária da produção de energia eólica nas quatro estações do ano com os modelos inteligentes (XGBoost e Random Forest) e com um modelo estatístico tradicional (ARIMA), para posteriormente aplicar nos modelos inteligentes um algoritmo de seleção de variáveis, além de propor um novo modelo baseado em ensemble com os modelos individuais. A partir dos resultados obtidos, pode-se perceber que o Random Forest foi o modelo mais beneficiado pela seleção, enquanto que o XGBoost, mesmo sem a seleção, conseguiu ter um desempenho interessante, visto o seu método de aproximação. O ARIMA, mesmo sem ter se ajustado perfeitamente, obteve resultado um pouco inferior aos modelos inteligentes. Quanto ao ensemble proposto, percebe-se que o mesmo foi superior aos modelos desenvolvidos individualmente, principalmente em relação ao RMSE. Vale ressaltar que o ensemble conseguiu melhorar na predição, principalmente, nos dados extremos, em que todos os modelos individuais superestimavam.Item Acesso aberto (Open Access) Agrupamento dos municípios do Sul/Sudoeste de Minas Gerais em relação ao envelhecimento populacional(Universidade Federal de Alfenas, 2017-01-26) Souza, Larissa Gonçalves; Ramos, Patrícia De Siqueira; Ferreira, Leandro; Ferreira, Eric BatistaNas últimas décadas, o Brasil tem experimentado transformações em seu regime demográfico, que conduzem ao envelhecimento populacional. Esse fenômeno não ocorre de maneira uniforme em todas as regiões do país, produzindo diferenciais demográficos. Nesse sentido, o objetivo deste trabalho é agrupar os municípios da mesorregião Sul/Sudoeste de Minas Gerais em relação ao envelhecimento populacional. Especificamente, identificar os grupos de municípios mais envelhecidos e menos envelhecidos com base em indicadores demográficos e no método não hierárquico das $k$-médias. As variáveis utilizadas foram: esperança de vida ao nascer, taxa de fecundidade total, mortalidade infantil, mortalidade até 5 anos de idade, razão de dependência, probabilidade de sobrevivência até 40 anos, probabilidade de sobrevivência até 60 anos e taxa de envelhecimento. Esses dados são provenientes do Censo Demográfico de 2010 do IBGE, consultados por meio do Atlas do Desenvolvimento Humano no Brasil. A linguagem R foi usada para implementar as análises por meio do programa RStudio. O método das k-médias propôs uma divisão dos municípios em quatro grupos. O G1 é o menos envelhecido e é composto por 17 municípios, o grupo G2, formado por 46 municípios, é considerado o mais envelhecido em relação aos demais. Nos grupos G3 e G4 estão 36 e 47 municípios, respectivamente, e são caracterizados por assumirem posições intermediárias entre os dois primeiros (G3 menos envelhecido que G4). Portanto, aproximadamente 64% dos municípios foram classificados nos grupos considerados mais envelhecidos (G2 e G4), o que corresponde a 93 dos 146 municípios.Item Acesso aberto (Open Access) Algoritmos de aprendizado de máquina aplicados na previsão clínica de pacientes com insuficiência cardíaca e uma revisão para dados limitados(Universidade Federal de Alfenas, 2024-03-08) Alves, João Carlos Pereira; Ferreira, Eric Batista; Souza, Anderson Luiz Ara; Beijo, Luiz Alberto; Carvalho, Iago Augusto DeO uso do aprendizado de máquina na área da saúde representa uma revolução significativa nos métodos de diagnóstico e tratamento de doenças. Essa tecnologia aproveita a capacidade computacional avançada para identificar padrões complexos em dados médicos. Essa abordagem representa significativo o potencial de melhorar substancialmente a eficiência dos diagnósticos relacionados a doenças graves como o caso da Insuficiência Cardíaca Congestiva. No entanto, enfrenta-se um desafio contínuo nesta área: a aplicação efetiva de aprendizado de máquina em cenários de escassez de dados, isto é, em situações onde as amostras disponíveis são limitadas. Este desafio estimula o estudo do aprendizado de máquina com pequenas amostras, uma abordagem que busca adaptar e otimizar os modelos de aprendizado de máquina para funcionar eficientemente mesmo com um número restrito de dados. Esta dissertação, composta por uma coleção de artigos, explora aplicações de algoritmos de aprendizado de máquina na previsão clínica de pacientes com Insuficiência Cardíaca e a revisão de técnicas de aprendizado de máquina em cenários de poucos dados. O primeiro artigo apresenta uma aplicação prática que utiliza modelos de aprendizado de máquina para prever a sobrevivência e o tempo de internamento de pacientes com Insuficiência Cardíaca Congestiva, com enfoque nas variáveis mais significativas associadas aos fatores de risco e os resultados destacam o potencial dos modelos de aprendizado de máquina na previsão de desfechos clínicos em pacientes com ICC. O segundo artigo realiza uma análise teórica, investigando a aplicabilidade e eficácia de técnicas de aprendizado de máquina em contextos caracterizados pela escassez de dados. Este estudo destaca a importância dos modelos de aprendizado de máquina, técnicas como a seleção de variáveis, e o uso de dados médicos no campo do aprendizado de máquina, com contribuições na área da saúde, onde decisões baseadas em dados podem ter impactos consideráveis na vida dos pacientes.Item Acesso aberto (Open Access) Análise Bayesiana da precipitação máxima de Petrópolis-RJ(Universidade Federal de Alfenas, 2021-07-29) Silva, Sandra Valéria Coelho Da; Beijo, Luiz Alberto; Gonçalves, Kelly Cristina Mota; Avelar, Fabrício GoeckingA cidade de Petrópolis, situada na região serrana do estado do Rio de Janeiro-RJ, sofre frequentemente com estragos provocados por fortes chuvas, como as ocorridas nos anos de 2011 e 2013. Portanto, analisar e prever a ocorrência de precipitações pluviais extremas em Petrópolis é fundamental para o planejamento de atividades vul- neráveis a sua ocorrência, tais como a agropecuária e a remoção de pessoas das áreas de risco, sendo a primeira fundamental para a subsistência de muitas famílias locais e a segunda de extrema importância para evitar a perda de vidas humanas. A modelagem do comportamento desse evento extremo é feita, geralmente, por meio da distribuição Generalizada de Valores Extremos (GEV). A metodologia Bayesiana tem apresentado bons resultados na estimação dos parâmetros da distribuição GEV. Sendo assim, objetivou-se ajustar a distribuição GEV às séries históricas de precipi- tação máxima de Petrópolis, e avaliar diferentes estruturas de prioris, informativas e não informativas, na previsão dos valores de precipitação extrema de Petrópolis em diferentes tempos de retorno. Foi possível concluir que a distribuição a priori funda- mentada em informações da cidade de Teresópolis, uma vez a variância, forneceu resultados mais precisos e acurados na predição dos níveis de retorno para a cidade de Petrópolis. Dessa forma, foram realizadas as predições para as precipitações má- ximas esperadas para os tempos de retorno de 2, 5, 10, 25, 50, 100, 115 e 135 anos utilizando-se essa estrutura de priori. Espera-se que, em um tempo médio de 5 anos, ocorra pelo menos um dia com precipitação máxima maior ou igual 100,7mm em Petrópolis-RJ.Item Acesso aberto (Open Access) Análise de Arquétipos: introdução a teoria e aplicações(Universidade Federal de Alfenas, 2015-04-10) Martins Júnior, José Márcio; Ferreira, Eric Batista; Bueno Filho, Júlio Silvio De Sousa; Dias, Adriana; Beijo, Luiz AlbertoExistem diversas técnicas que auxiliam na interpretação e análise de dados multivariados. Uma das técnicas mais difundidas e utilizadas é a Análise de Componentes Principais, que tem como principal objetivo reduzir a dimensionalidade dos dados afim de facilitar a interpretação. A Análise de Arquétipos também é uma técnica multivariada que busca reduzir a dimensionalidade dos dados, mas por meio de combinações convexas dos próprios dados. Os arquétipos são selecionados pela minimização da soma de quadrados de resíduos que representa o erro cometido ao se reconstruir os dados originais utilizando os arquétipos. Este trabalho teve como objetivo geral explorar em mais detalhes a Análise de Arquétipos e traçar a sua história, além de verificar potencialidades de aplicações existentes e futuras em diversas áreas do conhecimento. De forma mais específica objetivou-se: descrever em detalhes a Análise de Arquétipos, identificar similaridades e diferenças entre a Análise de Arquétipos e a Análise de Componentes Principais, realizar estudos de simulação para avaliar qual a melhor métrica para medir a falta de ajuste dos dados recompostos pelos arquétipos, aplicar a técnica Análise de Arquétipos em dados sobre a movimentação de jogadores de futebol, realizar simulações Monte Carlo para avaliar se há algum ganho em executar a Análise de Arquétipos em conjunto com a Análise de Componentes Principais, e aplicar esta em dados sensométricos experimentais sobre hambúrgueres. As metodologias utilizadas foram uma extensa revisão bibliográfica e simulações Monte Carlo. Os resultados mostraram que a Análise de Arquétipos é uma técnica com ampla aplicabilidade e excelentes resultados práticos. O estudo das métricas concluiu que a soma de quadrados de resíduos deve ser utilizada por ser a mais simples, e que não há qualquer prejuízo em utilizar esta métrica em relação as outras estudadas. No contexto do futebol a Análise de Arquétipos foi capaz de verificar se o jogador ou grupo de jogadores atuam em seu espaço designado, se a apostura foi ofensiva ou defensiva entre outras, sendo uma nova abordagem para ser utilizada em conjunto com outras técnicas para este fim. No estudo de simulação que visava aplicar as duas técnicas, foi evidenciado a capacidade de reconstrução das técnicas em conjunto e a melhora na interpretabilidade que as técnicas apresentam quando utilizadas conjuntamente.There are several techniques that aid in the interpretation and analysis of multivariate data. One of the most widespread techniques used and is the Principal Component Analysis, which aims to reduce the dimensionality of the data in order to facilitate interpretation. The Archetypal Analysis is also a multivariate technique that seeks to reduce the dimensionality of the data, but through convex combinations of the data itself. Archetypes are selected by minimizing the residual sum of squares that is the mistake to reconstruct the original data using the archetypes. This work aimed to explore in more detail the Archetypal Analysis and trace its history, and to identify capabilities of existing and future applications in various areas of knowledge. More specifically it aimed to: describe in detail the Archetypal analysis, identify similarities and differences between the Archetypal Analysis and Principal Component Analysis, conduct simulation studies to assess how best metric for measuring the lack of fit of the data recomposed by archetypes, apply the Archetypal Analysis on data of the movement of soccer players, perform Monte Carlo simulations to assess whether there is some gain in performing Archetypal Analysis in conjunction with the Principal Component Analysis, and apply this to experimental sensory data of burgers. The methodologies used were an extensive literature review and Monte Carlo simulations. The results showed that the Archetypal Analysis is a technique with wide applicability and excellent practical results. The study of metrics concluded that the residual sum of squares should be used because it is the simplest, and that there is no harm in using this metric compared to the others tha was studied. In the context of the soccer, Archetypal Analysis was able to verify that the player or group of players are in their designated space, the offensive or defensive behavior among others, being a new approach to be used in conjunction with other techniques for this purpose. About the study of simulation designed to implement both techniques, was evidenced a improvement of reconstruction capacity and in the interpretability.Item Acesso aberto (Open Access) Análise de máximos de risco Brasil e resseguros: uma abordagem Bayesiana(Universidade Federal de Alfenas, 2018-04-27) Martins, Thaís Brenda; Beijo, Luiz Alberto; Ramos, Patrícia Siqueira; Ferreira, LeandroA teoria de valores extremos é frequentemente utilizada para análise e previsão de dados meteorológicos, mas sua aplicação tem se expandido para diversas áreas em que a ocorrência de eventos extremos causam grandes perdas financeiras, como na área de finanças, mercado de ações e seguros. Um método de estimação de parâmetros que vem sendo cada vez mais estudado e tem obtido bons resultados é a inferência Bayesiana, tais resultados deve-se, em grande parte, a incorporação de uma informação a priori que tende a melhorar o processo de inferência, reduzindo as incertezas a respeito das estimativas dos parâmetros. O objetivo deste trabalho foi avaliar a aplicação da inferência Bayesiana, considerando diferentes estruturas de distribuições a priori, no ajuste das distribuições de valores extremos, bem como comparar os resultados com os obtidos via estimação por máxima verossimilhança. Para isso, analisaram-se duas situações práticas: na primeira, analisou-se dados de risco Brasil máximo por semestre, investigando a possível presença de tendência linear nos dados, devido ao fato de serem extraídos de uma séria histórica, por meio da distribuição generalizada de valores extremos e distribuição Gumbel; e na segunda aplicação, utilizou-se a distribuição generalizada de Pareto, com estimação por máxima verossimilhança e inferência Bayesiana, para modelar as perdas referentes a reclamações automobilísticas de companhias seguradoras europeias. Conclui-se, com a realização deste estudo, que a inferência Bayesiana proporciona melhores resultados que os estimadores de máxima verossimilhança quando utilizada para estimação de parâmetros das distribuições generalizada de valores extremos e Gumbel para os dados de risco Brasil e para estimação de parâmetros da distribuição generalizada de Pareto aplicada a dados de resseguros.Item Acesso aberto (Open Access) Análise e aperfeiçoamento de modelos inteligentes para detecção de lâmpadas de iluminação pública(Universidade Federal de Alfenas, 2022-07-29) Silva, Igor Caetano; Salgado, Ricardo Menezes; Ohishi, Takaaki; Varejão, Flávio MiguelHá alguns anos, uma mudança na legislação passou a responsabilidade de gerenciamento e manutenção da rede de iluminação pública das companhias elétricas (agora responsáveis apenas pelo faturamento da energia utilizada) para as autoridades municipais. Essa mudança acarretou em diversos problemas de desinformação, nos quais muitas vezes a companhia elétrica não é notificada sobre mudanças na rede de iluminação pública. Para evitar perdas comerciais, as companhias passaram a enviar times de conferência manual, processo caro, moroso e pouco confiável. Neste sentido, este trabalho tem como objetivo aprimorar o estudo de detecção inteligente de lâmpadas de iluminação pública, através da otimização dos modelos propostos por Soares et al. (2015), capazes de classificar o tipo e potência de lâmpadas de pontos de iluminação pública de forma eficiente como uma solução alternativa para este problema. A proposta é utilizar algoritmos de diferentes níveis de complexidade (tanto de abordagem tradicional quanto aprendizado profundo), em conjunto com técnicas mais complexas de validação, seleção de características, transformação de dados e de otimização de hiperparâmetros. Os resultados mostram que os modelos com algoritmos mais complexos (máquina de vetores de suporte, XGBoost, floresta aleatória e perceptron multicamadas) conseguem atingir uma acurácia média final de 80-86% de acerto que ao serem comparados por testes t de Student não apresentaram evidências de diferença significativa a nível de 5%.Item Acesso aberto (Open Access) Análise espacial da precipitação extrema no sul e sudoeste de Minas Gerais(Universidade Federal de Alfenas, 2023-06-27) Ferreira, Thales Rangel; Liska, Gilberto Rodrigues; Seidel, Enio Júnior; Avelar, Fabricio GoeckingA ocorrência de precipitações extremas pode causar danos significativos à infraestrutura urbana, ao meio ambiente e às atividades humanas em geral. Desta forma, compreender o comportamento desse fenômeno em uma região pode auxiliar no planejamento de atividades sujeitas à tais danos. Portanto, este trabalho teve como objetivo modelar espacialmente a precipitação máxima no sul e sudoeste de Minas Gerais utilizando duas abordagens: Inferência Bayesiana associada a Krigagem e Inverso da Distância Ponderada (IDP) e, processos Máx-estáveis (PME) e modelo Generalizado de Valores Extremos (GEV) espacial. Foram utilizados no estudo, dados diários de precipitação de 29 cidades da região. Para a análise via IDP, Krigagem Ordinária (KO) e Log-Normal (KLN), foram utilizadas predições de precipitação, obtidas via Inferência Bayesiana para cada localidade e tempos de retorno (TR), 2, 5 e 10 anos. As predições foram obtidas utilizando a melhor estrutura de priori (não informativa e informativa) para cada município. Para os métodos de Krigagem, foram avaliados o melhor modelo semivariograma dentre o Gaussiano, Esférico, Exponencial e Onda. A avaliação dos modelos deu-se utilizando validação cruzada e o erro médio de predição (EMP). Os resultados da avaliação evidenciaram que para a predição espacial para o tempo de retorno mais alto o modelo mais adequado foi a KO com semivariograma Onda. Desta forma, este foi utilizado para a obtenção dos mapas de predição para os TR de 50 e 100 anos. Para a análise via PME, foram utilizados o modelo de Smith e o modelo de Schlather com função de correlação de Bessel, Cauchy, Powered Exponential e Whittle-Mátern. Nos modelos Máx-estáveis e no modelo GEV espacial foram utilizadas superfícies de tendência para os parâmetros da GEV. A análise da dependência espacial de extremos foi realizada por meio do Coeficiente Extremal, que apresentou evidências de baixa dependência espacial para os dados. Os modelos foram avaliados utilizando o Critério de Informação de Takeuchi e o cálculo do EMP. Os resultados evidenciaram similaridade entre os modelos, porém, o modelo de Smith mostrou-se o mais adequado. Logo, este foi selecionado para a obtenção dos mapas de predição para os TR de 50 e 100 anosItem Acesso aberto (Open Access) Análise espacial da produção madeireira proveniente da silvicultura nos anos de 2009 e 2018(Universidade Federal de Alfenas, 2020-09-30) Lima, Ulisses De Souza; Ramos, Patrícia De Siqueira; Frias, Lincoln Thadeu Gouveia De; Beijo, Luiz AlbertoO setor de florestas plantadas com ênfase em produtos madeireiros exerce papel importante para a economia do Brasil, sendo um dos principais produtores mundiais. Os principais segmentos são os produtos de madeira em tora (celulose, serraria e painéis), madeira para carvão e lenha. A produção para essas finalidades é caracterizada por apresentar padrões espaciais entre as regiões produtoras. Portanto, o presente trabalho tem como objetivo analisar e verificar o comportamento em relação aos aspectos espaciais envolvidos na produção de madeira para lenha (m3), tora (m3) e carvão vegetal (toneladas) provenientes de plantios florestais nos municípios brasileiros entre os anos de 2009, caracterizado por uma profunda crise no setor de florestas plantadas, e o período mais atual, 2018, a partir do banco de dados da Produção de Extração Vegetal e Silvicultura (PEVS – IBGE). Dessa maneira, utilizou-se a análise exploratória de dados espaciais de área para verificar a existência de autocorrelação espacial entre a produção e os aglomerados de clusters espaciais obtidos através do índice global e local I de Moran e testados estatisticamente por meio do teste de pseudo-significância (1.000 permutações) com nível de significância de 5% (α = 0,05). Os resultados obtidos demonstram que, além do fato da produção geral apresentar considerável crescimento entre os períodos analisados, existe dependência espacial positiva significativa para todas as variáveis analisadas. Assim, os padrões locais observados, principalmente em relação às aglomerações do tipo alto/alto, apresentam características relacionadas principalmente com as regiões onde a cadeia produtiva de celulose para madeira em tora, da indústria metalúrgica para o carvão vegetal e da produção agrícola de grãos no caso da lenha estavam bem estabelecidas no período. Portanto, o presente trabalho sugere que os grandes aglomerados produtivos para as variáveis da produção da silvicultura entre os anos de 2009 e 2018 estão presentes principalmente em grandes polos industriais, onde o mercado de madeira, de modo geral, atende à demanda regional.Item Acesso aberto (Open Access) Análise espacial da produtividade de café em Minas Gerais (2002-2017)(Universidade Federal de Alfenas, 2019-06-25) Bernardes, Renan Serenini; Ramos, Patrícia De Siqueira; Ferreira, Leandro; Nogueira, Denismar AlvesO Brasil é o maior produtor mundial de café. Nos últimos 20 anos, foi responsável por aproximadamente um terço da produção mundial. No Brasil, o estado de maior destaque é Minas Gerais, que, segundo estimativas da CONAB - Companhia Nacional de Abastecimento, em 2018 produziu mais de 53% de todo o café produzido no país. Considerando a relevância do café e do estado de Minas Gerais no contexto, este trabalho tem como objetivo analisar a distribuição espacial da produtividade (medida pela produção de café sobre a área colhida) do café em MG no período de 2002 a 2017 e verificar a evolução da produção e da produtividade ao longo do período. Especificamente, foi analisada a distribuição espacial através da divisão do estado em regiões geográficas imediatas, nova divisão regional publicada pelo Instituto Brasileiro de Geografia e Estatística (IBGE), em 2017. Para atingir o objetivo foram analisadas as séries de produção, produtividade e área colhida, verificando a existência de dependência espacial entre as regiões e clusters de alta ou baixa produtividade ao longo dos anos analisados. A dependência espacial foi estimada através da estatística I de Moran e a indicação de clusters ou outliers espaciais foi verificada pelo I de Moran local. Os resultados indicaram que a produtividade do café em Minas Gerais como um todo vem aumentando nos últimos anos. Algumas regiões que possuíam pequenas áreas de café deixaram de produzir e outras regiões, que possuíam grandesáreas,mascomníveisdeprodutividadebaixos, aumentaramaprodutividade,indicandoum movimento de concentração da produção. Foi identificado que a dependência espacial da produtividade se mostrou mais expressiva no primeiro período (2002 a 2009) do que no segundo (2010 a 2017). Alguns clusters de alta produtividade foram identificados, mostrando-se mais expressivos no primeiro período. Os resultados do trabalho podem servir como subsídio para novas pesquisas,implementando variáveis associadas à produtividade do café, bem com o apoio à tomada de decisões para políticas do setor.Item Acesso aberto (Open Access) Análise sequencial no ajuste de mapas de preferência(Universidade Federal de Alfenas, 2018-07-27) Fagundes, Cássia De Souza Santos; Ferreira, Eric Batista; Oliveira, Marcelo Silva De; Gomes, Davi ButturiO Mapa de Preferência Externo (MPE) é uma das ferramentas estatísticas aplicadas à Análise Sensorial de alimentos e bebidas, sendo muito utilizado para identificar a aceitação dos consumidores com relação aos produtos avaliados. De forma resumida, pode ser entendido como a sobreposição de superfícies de resposta ajustadas aos dados da aceitação de consumidores em função dos atributos sensoriais de um produto. Na literatura que fundamenta os MPE, recomenda-se um tamanho amostral de pelo menos 100 consumidores para avaliar a aceitação dos produtos. Uma forma de não pré-fixar tamanho amostral é utilizar os testes sequenciais que, além disso, controlam as taxas de erro Tipo I e Tipo II. Um modo de utilizar estes testes em MPE é inferindo sobre a qualidade de ajuste dos mesmos. Sendo assim, o objetivo deste trabalho é propor uma abordagem sequencial na construção de MPE, inferir em sua qualidade de ajuste por meio do coeficiente de determinação (R2) e propor uma forma de selecionar modelos sequencialmente. Os dados analisados foram obtidos por meio de uma análise sensorial de refrigerante sabor guaraná de duas marcas com duas versões (tradicional e zero-açúcar). O mapa de preferência sequencial ajustado obteve ajuste mínimo de 70% pelo teste t sequencial e foi construído com 40 consumidores. Assim, foi possível constatar que a versão tradicional de ambas as marcas foi mais bem aceita, porém a marca líder de mercado destaca na aceitação média. Na comparação de modelos, dentre os modelos existentes na literatura, o vetorial foi o que apresentou o melhor ajuste. Por fim, conclui-se que é possível decidir sequencialmente sobre a qualidade do ajuste de mapas de preferência, de modo que ele possa ser construído sem uma determinação prévia do número de consumidores a serem entrevistados.Item Acesso aberto (Open Access) Aplicações do diagrama de Hasse na análise das propriedades dos aminoácidos do código genético(Universidade Federal de Alfenas, 2021-04-30) Fernandes, Roberta Siqueira; Oliveira, Anderson José De; Lima, Leandro Bezarra De; Santos, José Paulo Carvalho DosA modelagem algébrica do código genético, cujo objetivo é caracterizar matematicamente o que o mundo biológico realiza, tornou-se um problema instigante e atraente para diversos pes quisadores. As estruturas matemáticas, como os reticulados booleanos, diagramas de Hasse e a distância de Hamming, têm sido utilizadas no processo de análise de fenômenos mutacionais, possibilitando uma análise físico-química dos aminoácidos, além de permitirem a caracteriza ção algébrica do código genético. O matemático Claude E. Shannon foi o precursor da teoria de códigos e aplicou elementos de engenharia na biologia. Este trabalho propõe a construção dos reticulados booleanos e dos diagramas de Hasse primal e dual, utilizando uma permutação, escolhida aleatoriamente, de cada um dos rotulamentos A, B e C, que foram obtidos através de uma analogia do código genético, relacionada com o conjunto de nucleotídeos denotado por N = {A, C, G, T/U} (A-adenina, C-citosina, G-guanina, T-timina/U-uracila) e o alfabeto 4-ário na estrutura de anel, denotado por Z4 = {0, 1, 2, 3}. Da relação entre esses conjuntos é possível obter 24 permutações, as quais podem ser divididas em três rotulamentos (A, B e C), de acordo com as características geométricas e a complementaridade biológica dos mes mos. A partir dessas construções foi realizada uma análise das diferenças e semelhanças físico químicas dos aminoácidos, através da caracterização biológica das construções e dos cálculos das médias das distâncias de Hamming entre os códons. Os resultados expostos neste trabalho contribuem para o desenvolvimento de ferramentas que podem ser aplicadas em diversas áreas do conhecimento, como engenharia genética, devido ao fato de terem sido utilizados elementos de Matemática, Biologia e Códigos Corretores de Erros, uma vez que podem servir como base para estudos relacionados a fenômenos mutacionais.Item Acesso aberto (Open Access) Avaliação de diferentes prioris na estimação dos parâmetros da distribuição GEV e na predição de quantis extremos(Universidade Federal de Alfenas, 2022-12-15) Costa, Matheus De Souza; Beijo, Luiz Alberto; Targino , Rodrigo Dos Santos; Liska , Gilberto RodriguesA abordagem bayesiana tem sido muito aplicada em estudos de valores extremos devido a possibilidade da redução da incerteza nas estimativas. Contudo, a maneira de se elicitar uma estrutura a priori informativa, quando se trata de valores extremos ajustados por meio da distribuição generalizada de valores extremos (GEV), ainda não está completamente estabelecida. Deste modo, objetivou-se, neste trabalho, avaliar diferentes estruturas a priori em uma abordagem Bayesiana da distribuição GEV ajustada à dados de máximos provenientes de simulação e de dados reais de precipitação máxima. As estruturas a priori utilizadas foram: distribuições Normais Trivariadas com matrizes de variância e covariância multiplicadas por 1, 4, distribuição Normal Trivariada não-informativa; distribuição Gama para diferenças de quantis extremos, com diferentes variabilidades. Para o caso com dados simulados, avaliou-se a estimação dos parâmetros e de quantis com o modelo GEV associado a cada uma dessas estruturas a priori, com respeito aos respectivos valores reais, através de viés e viés médio relativo percentual em diferentes cenários de simulação e tamanhos amostrais. E para os dados reais, objetivou-se avaliar, através de acurácia e precisão das estimativas dos níveis de retorno, o desempenho das referidas estruturas a priori em uma abordagem Bayesiana para ajustar a distribuição GEV a dados de precipitações diárias máximas anuais de São João da Boa Vista-SP, no período de 1971 a 2017. Utilizou-se como priori dados de precipitação máxima anual de Lavras-MG e Silvianópolis-MG, comparando- se o critério de informação deviance (DIC), acurácia, erro médio de predição e amplitude média intervalar das predições de precipitações máximas dos modelos. Quanto aos principais resultados do caso simulado, observou-se que distribuições a priori com menor variabilidade, produzem estimativas mais precisas de todos os parâmetros da distribuição GEV, considerando pequenos tamanhos amostrais. Nos cenários em que se simulou dados de precipitação o modelo com priori Gama apresentou menor viés de parâmetros e níveis de retorno. Para os dados reais, pelo critério DIC, não houve diferenças substanciais entre os modelos. O modelo com estrutura a priori normal trivariada com matriz de variâncias e covariâncias multiplicada por 4, com informações a priori de Silvianópolis, forneceu estimativas de níveis de retorno mais precisas e acuradas.Item Acesso aberto (Open Access) Café: emoções, hábitos, preferências, aspectos sensoriais e extrínsecos(Universidade Federal de Alfenas, 2021-05-12) Cardoso, Ana Beatriz Dos Anjos; Ferreira, Eric Batista; Pereira, Renato Nunes; Oliveira, Tiago Almeida DeO café tem uma importância significativa para o Brasil. O país é o maior produtor e exportador mundial, sendo este o quinto produto na pauta das exportações brasileiras. Os consumidores brasileiros estão buscando cada vez mais produtos com maior qualidade e atributos diferenciados. Conhecer os hábitos dos consumidores é de grande importância para produtores, torrefações, cooperativas e cafeterias. Neste sentido, buscou-se investigar o perfil do consumidor brasileiro de café antes e durante a pandemia de COVID-19; o porquê do início do hábito de tomar café; os tipos de cafés mais consumidos; formas de preparo da bebida, marcas e horários de consumo preferidos. Também foi avaliada a influência dos aspectos extrínsecos como a embalagem e o preço no processo de decisão de compra do produto. Em adição, foi analisada a lista CATA proposta por Ricardi (2016). Foram feitas duas pesquisas online, via Google Forms. Todas as análises utilizaram o software RStudio versão 4.0.4 e a linguagem de programação R. Foram fei tas análises exploratórias a partir de estatística descritiva, teste de Qui-Quadrado, testes exato de Fisher, testes de McNemar, análises de correspondência, de componentes principais e de fato res. Constatou-se nesse trabalho uma prevalência do sexo feminino com idade média de 35 anos, frequência de consumo em sua maioria de duas vezes ao dia, sendo o motivo principal para o início do hábito de tomar café a tradição familiar e a marca preferida a Pilão. A principal forma de tomar o café é puro, com açúcar branco e logo pela manhã. O pior horário para consumo, desconsiderando a noite e madrugada, é logo antes do almoço. Os consumidores brasileiros preferem cafés tracionais e extra-forte. Alterações no padrão de consumo durante a pandemia foram observadas. A variável mais afetada foi o local de consumo, seguida pelo número de xí caras e horários de consumo. Em adição, percebeu-se uma mudança no padrão de consumo de café coado e de café solúvel, com diminuição de ambos. O estudo também selecionou um léxico de emoções evocadas pelo café a partir da metodologia CATA com 22 termos emocionaisItem Acesso aberto (Open Access) Códigos BCH Aplicados no Processo de Análise de Fenômenos Mutacionais(Universidade Federal de Alfenas, 2020-06-19) Oliveira, Alice Noronha De; Oliveira, Anderson José De; Queiroz, Cátia Regina De Oliveira Quilles; Monteiro, EvandroA teoria dos códigos corretores de erros tem como objetivo desenvolver métodos capazes de detectar e corrigir erros que possam surgir durante a transmissão ou armazenamento de dados. Embora não apresente relação aparente, estudos recentes evidenciam a utilização dos códigos corretores de erros também na transmissão e armazenamento de informações genéticas, verificando a existência de uma estrutura matemática relacionada com a estrutura do DNA. Desse modo, sequências de DNA podem ser identificadas e reproduzidas como palavras código de códigos corretores de erros sobre a extensão de um anel de Galois. Para a reprodução dessas sequências de DNA utiliza-se os códigos BCH, os quais possuem características simples, porém com alto poder de detecção de erros, tornando esses códigos eficientes para serem aplicados no contexto biológico. Este trabalho tem como objetivo um estudo da estrutura algébrica de um código BCH, além da reprodução de uma sequência de DNA relacionada à proteína mitocondrial ATP6, por meio dos códigos BCH, a fim de identificar onde ocorre a troca de nucleotídeo na sequência gerada. Na reprodução dessa sequência foi possível observar que ocorre a troca de um nucleotídeo na posição da trinca 17, acarretando em uma mutação não silenciosa. Assim, será analisado como essa alteração pode modificar a arquitetura biológica da sequência gerada. Os resultados dessas análises poderão ser úteis no estudo de mutações genéticas, pois a troca de um aminoácido na enzima ATP6 pode acarretar em algumas doenças genéticas.