Autor: marlkarx

  • O mercado não tem picuinha

    Que fazer previsões não é nenhum passeio todo mundo sabe, ainda mais em uma economia volátil como a brasileira. Porém, atribuir erros de previsão à uma briga do mercado contra o governo beira ser uma teoria da conspiração — no sentido literal da coisa.

    Para que haja de fato uma torcida contra o governo, com sugeriram vários artigos às vésperas do Natal e do Ano Novo, as previsões têm de ter um erro sistemático do mercado como um todo, e não apenas erros da previsão média (ou mediana). Apesar de, sim, os dados de expectativas médias poderem ser lidos como sinais de otimismo ou pessimismo sobre a situação do país, uma análise justa sobre as previsões tem de também levar em consideração ao menos a discordância1 entre os entrevistados.

    Os dados trimestrais do PIB mostram que, na verdade, é incomum o mercado como um todo errar sistematicamente. Ao considerar a banda total de opiniões, verificam-se poucos períodos de erros consistentes (nos arredores da crise financeira de 2008 e no período pós-pandemia, começando em 2021). Não aparenta haver nenhum tipo de viés contra qualquer presidente em específico desde 2016. Olhando para a inflação mensalmente, há menos evidência ainda. Caso o mercado de fato jogasse contra o governo para influenciar políticas econômicas (principalmente a monetária), nós veríamos padrões de erros persistentes na direção que mais conviesse.

    Os dados anuais, seguindo a lógica de pegar as expectativas no primeiro dia útil, mostram uma figura similar: não existem alguns períodos viés sistemático contra algum governo, uma vez que a conjuntura tenha sido levada em conta.

    Primeiro, vemos um leve viés negativo contra os governos na segunda metade do governo Lula 1, porém isso é marcado pela saída do então Ministro Antônio Palocci Filho (que foi chave em manter a economia nos eixos durante a transição FHC-Lula). Os erros de previsão durante Lula 2 são certamente marcados pela crise mundial do subprime.

    Segundo, há vieses positivos durante os governos Dilma 1 e 2, indo diretamente contra a ideia de uma torcida contra governos mais à esquerda. Vale ressaltar que a doutrina da Nova Matriz Econômica operava a todo vapor durante o primeiro governo Dilma. O esgotamento do modelo ainda manteve o mercado esperançoso com a Fazenda sendo liderada por Joaquim Levy, que à época deu um alívio ao mercado mesmo sabendo-se que nem tudo o que foi prometido seria levado a cabo.

    Terceiro, apesar do otimismo inicial no governo Bolsonaro, o pessimismo também rondou já em 2022. Considerando que as expectativas mostradas acima são do início do ano, que era ano eleitoral, e que candidatura de Lula deu-se somente em julho, até poderia-se argumentar que mercado jogou contra o governo ali — claro, apenas no caso que o então presidente fosse outra pessoa, mantendo o resto constante.

    É difícil sustentar o ponto de que o mercado age contra governo tendo isso em vista. Considerando ainda que o Partido dos Trabalhadores governou por 17 dos últimos 23 anos, a tese de que o mercado tenha qualquer picuinha contra o governo de maneira sistêmica cai água abaixo.

    1. O Federal Reserve de Nova Iorque publicou um artigo interessante sobre discordância e sobre incerteza [Link] ↩︎

  • Monte Carlo e cadeias de Markov (III)

    A referência básica para esse post é Zellner (1970)

    Nesse post nós vamos estimar uma regressão linear com duas variáveis, um regressando e um regressor.

    y_i = \beta_0 + \beta_1 x_i + \varepsilon_i

    O regressando y_i e o regressor x_i são números reais, \varepsilon_i são termos aleatórios. Os parâmetros de interesse são \beta_0 e \beta_1, que eu vou colocar em um vetor \mathbf{\beta} \equiv (\beta_0, \beta_1)^\prime. O modelo (a verossimilhança) é \varepsilon_i \sim \mathcal{N}(0, \sigma^2). No fim, temos um vetor de parâmetros, \theta \equiv (\mathbf{\beta}, \sigma^2)^\prime.

    Mecanicamente, o processo funciona assim: nós começamos com uma distribuição a priori sobre os parâmetros, observamos os dados, e atualizamos essa distribuição (a posteriori). O objetivo é encontrar a “distribuição dos parâmetros”. Aqui eu acho que vale um adendo. Eu já vi muita gente falando que os parâmetros são uma variável aleatória. No meu ponto de vista, eles não são variáveis aleatórias mas sim são tratados como aleatórios porque a aleatoriedade apenas reflete nossa falta de conhecimento sobre eles.

    Ou seja, nós iniciamos com uma descrição do nosso conhecimento acerca os parâmetros do modelo (ou a falta dele). Daí observamos os dados e atualizamos essa descrição. Seguindo o primeiro post dessa saga,

    p(\theta | dados) \propto p(dados | \theta) p(\theta)

    No fim do dia, vamos obter amostras aleatórias de p(\theta | dados), e por isso passamos os últimos dois posts fazendo esse tipo de coisa. Vamos gerar uma amostra de (y_i, x_i) usando

    y_i = 2 + 0.5 x_i +\varepsilon_i com \varepsilon_i \sim^{i.i.d.} \mathcal{N}(0, 1) e x_i \sim^{i.i.d.} \mathcal{N}(0; 1,5)

    Vou iniciar o código incluindo alguns pacotes e definindo a pdf da normal.

    import numpy as np
    import pandas as pd
    import seaborn as sns
    from scipy.stats import norm as gauss, uniform
    
    def ll_normal(theta, x, y):
        n = x.shape[0]
        e = y - theta[0] - theta[1] * x
        variancia = theta[2]
    
        if variancia <= 0: # variância não pode ser negativa
            return -np.inf
            
        else:
            ll = -0.5 * n * np.log(2 * np.pi * variancia) - np.sum(e**2) / (2 * variancia)
            return ll

    Uma amostra típica…

    Para gerar essa amostra, eu uso o seguinte código:

    # Parâmetros
    N = 500
    
    b0 = 2
    b1 = 0.5
    sigma2e = 1
    sigma2x = 1.5
    
    y = np.zeros((N,))
    x = np.zeros((N,))
    
    # Gerar amostra
    x = gauss.rvs(size=N) * np.sqrt(sigma2x)
    e = gauss.rvs(size=N) * np.sqrt(sigma2e)
    y = b0 + b1 * x + e
    
    df = pd.DataFrame({'y': y, 'x': x})
    sns.scatterplot(df, x='x', y='y')

    Para amostrar da distribuição a posteriori, vamos aplicar o algoritmo Metropolis-Hastings.

    1. Iniciar a cadeia. Aqui, a cadeia começa no ponto (0,0,1).

    B = 10000
    theta = np.zeros((B,3))
    theta[0,2] = 1

    2. Gerar um candidato. Vou gerar usando uma distribuição normal (então o Metropolis-Hastings vai ser igual ao Metropolis).

    d_theta = gauss.rvs(size=3) * 1/50
    theta_cand = theta[b-1] + d_theta

    3. Calcular a “distância”.

    ll_old = ll_normal(theta[b-1], x, y)
    ll_new = ll_normal(theta_cand, x, y)
    alpha = np.exp(ll_new - ll_old)

    4. Aceita/rejeita

    u = uniform.rvs(size=1)
    if u >= alpha: # rejeita
        theta[b,:] = theta[b-1]
    else:
        theta[b,:] = theta_cand

    5. Iterar. Na verdade, fica tudo dentro de um loop.

    No fim, o código fica assim:

    # MCMC - Metropolis-Hastings
    B = 10000
    theta = np.zeros((B,3))
    theta[0,2] = 1
    
    for b in range(1,B):
        # Candidato
        d_theta = gauss.rvs(size=3) * 1/50
        theta_cand = theta[b-1] + d_theta
        
        ll_old = ll_normal(theta[b-1], x, y)
        ll_new = ll_normal(theta_cand, x, y)
    
        alpha = np.exp(ll_new - ll_old)
        u = uniform.rvs(size=1)
        
        if u >= alpha: # rejeita
            theta[b,:] = theta[b-1]
        else:
            theta[b,:] = theta_cand

    Finalmente, podemos plotar a cadeia. Aqui, vou plotar as últimas 1000 iterações.

    Código
    df_theta = pd.DataFrame(theta, columns=['b0', 'b1', 's2'])
    
    # Create a figure with 3 subplots, arranged vertically
    fig, (ax1, ax2, ax3) = plt.subplots(3, 1, figsize=(12, 15), sharex=True)
    
    # Plot each time series in its own subplot
    df_theta['b0'][-1000:].plot(ax=ax1, ylabel='$\\beta_0$')
    df_theta['b1'][-1000:].plot(ax=ax2, ylabel='$\\beta_1$')
    df_theta['s2'][-1000:].plot(ax=ax3, ylabel='$\\sigma^2$')
    
    ax1.axhline(b0, color='black', linestyle='-', label='$\\beta_0$')
    ax1.axhline(np.mean(df_theta['b0'][-1000:]), color='red', linestyle='--', label='Média')
    
    ax2.axhline(b1, color='black', linestyle='-', label='$\\beta_1$')
    ax2.axhline(np.mean(df_theta['b1'][-1000:]), color='red', linestyle='--', label='Média')
    
    ax3.axhline(sigma2e, color='black', linestyle='-', label='$\\sigma^2$')
    ax3.axhline(np.mean(df_theta['s2'][-1000:]), color='red', linestyle='--', label='Média')
    
    
    # Adjust the layout and add a main title
    plt.tight_layout()

    Vemos que todos os parâmetros estão perto dos verdadeiros valores — como era de se esperar.

    No próximo post, vou comentar sobre a convergência do MCMC. Fiquem ligados!

  • Monte Carlo e cadeias de Markov (II)

    Hoje vamos ver mais alguns algoritmos. O Metropolis-Hastings que eu discuti no primeiro post é muito geral. Apesar de isso geralmente ser uma coisa boa, sempre vai existir uma escolha entre generalidade e tempo computacional. No caso, um lugar onde nós poderíamos ter economizado tempo é no cálculo da pdf da normal, que foi a distribuição auxiliar. Claro, na escala do exemplo de ontem isso não faz nenhuma diferença na prática. Porém, pode ser difícil calcular q(\cdot|\cdot). Então seria bom evitar. Na realidade, isso não é complicado: basta escolher uma distribuição que satisfaça

    q(y|x) = q(x|y)

    (que é o caso da normal). A nova probabilidade então fica

    \alpha(X_t,Y) = min \{1, p(Y)/p(X_t)\}

    Esse é o algoritmo Metropolis — nada muito interessante. Vamos para algo mais interessante agora.

    O amostrador de Gibbs

    O amostrador de Gibbs (Gibbs sampler) é o que ajuda muito a fazer estimações Bayesianas. Mesmo sendo um caso particular do Metropolis-Hastings, vale a pena estudar ele separado porque ele tem umas propriedades interessantes, e uma dificuldade séria.

    Primeiro, a vantagem. O amostrador de Gibbs é um Metropolis-Hastings onde se aceitam todos os candidatos (então cada ponto será um ponto da posterior). Isso ajuda muito computacionalmente porque agora não temos que nos preocupar com a taxa de rejeição.

    O custo é que nós devemos saber (e amostrar rapidamente) de distribuições condicionais. Por exemplo, digamos que queremos amostrar de uma distribuição bi-variada (X,Y) \sim F. Para aplicar o método de Gibbs, temos de saber amostrar de

    X \sim F(\cdot|Y) \\ Y \sim F(\cdot|X)

    O que parece fácil mas fica difícil muito rápido para problemas que distoam um pouco do padrão. (Uma vez eu precisei usar um Gibbs para uma normal truncada e não foi exatamente simples.)

    A ideia do amostrador de Gibbs é usar essas distribuições condicionais e amostrar parte por parte. Como antes, vamos iniciar uma cadeia de um ponto (X_0, Y_0).

    Agora, condicional a X_0, vamos amostrar um novo valor para Y,

    Y_1 \sim F(\cdot | X_0)

    Agora vamos amostrar X_1, condicional a Y_1,

    X_1 \sim F(\cdot | Y_1)

    Após esse passo nós obtemos a primeira amostra (X, Y). Para obter as próximas, repetimos os passos,

    Y_2 \sim F(\cdot | X_1)

    X_2 \sim F(\cdot | Y_2)

    E assim por diante. O algoritmo então fica:

    • Inicie a cadeia em (X_0, Y_0)
    • Condicional a Y_0, gere X_1
    • Condicional a X_1, gere Y_1
    • Itere nos dois últimos passos

    Um exemplo completo

    Vamos amostrar de uma normal bivariada com o amostrador de Gibbs,

    \begin{bmatrix} y_1 \\ y_2 \end{bmatrix} \sim \mathcal{N}(\mu, \Sigma)

    Onde \mu é a média e Sigma é uma matrix de covariâncias. Vamos botar alguns números:

    \begin{bmatrix} \mu_1 \\ \mu_2 \end{bmatrix} = \begin{bmatrix} 1 \\ 2 \end{bmatrix} \\ \Sigma = \begin{bmatrix} 2 & 1 \\ 1 & 3 \end{bmatrix}

    Nesse caso, é importante lembrar que a distribuição de y_1 | y_2 = k é normal com média \mu_1 + \frac{1}{3} (k -\mu_2) e variância \frac{5}{3}. Dá pra achar a média e variância de y_2 | y_1 = k do mesmo jeito.

    Vamos primeiro fazer uma função pra dar esses parâmetros das distribuições condicionais.

    def param_cond(mu, Sigma, y1, y2):
        mu1 = mu[0] + Sigma[0,1]/Sigma[1,1] * (y2 - mu[1])
        mu2 = mu[1] + Sigma[0,1]/Sigma[0,0] * (y1 - mu[0])
    
        s1 = Sigma[0,0] - Sigma[0,1]**2 / Sigma[1,1]
        s2 = Sigma[1,1] - Sigma[0,1]**2 / Sigma[0,0]
    
        return mu1, mu2, s1, s2

    Vamos então iniciar a cadeia. Como já sabemos a média, vou começar por ali. Então, vou amostrar y_2 condicional a y_1, e assim por diante. Mais fácil ver no código mesmo…

    B = 10000 # número de repetições
    
    # Parâmetros
    mu = np.array([1,2])
    Sigma = np.array([[2, 1], [1,3]])
    
    # Declarando o vetor
    Y = np.zeros((2,B))
    Y[:,0] = mu #chute inicial
    
    for j in range(1,B):
        # Primeiro passo -> amostrar y_2 | y_1
        m1, m2, s1, s2 = param_cond(mu, Sigma, Y[0,j-1], Y[1,j-1]) # O segundo y nao importa e só vamos usar m2 e s2 agora
        s2 = np.sqrt(s2) # Transformar variância em desvio padrão
        Y[1,j] = np.random.normal(m2, s2)
    
        # Segundo passo -> amostrar y_1 | y_2
        m1, m2, s1, s2 = param_cond(mu, Sigma, Y[0,j-1], Y[1,j]) # O primeiro y nao importa e só vamos usar m1 e s1 agora
        s1 = np.sqrt(s1) # Transformar variância em desvio padrão
        Y[0,j] = np.random.normal(m1, s1)

    Daí é só plotar:

    Código para plotar
    df = pd.DataFrame(Y.T, columns=['y_1','y_2'])
    sns.kdeplot(data=df, x='y_1', y='y_2')
    plt.axhline(y=mu[1], c='red', linestyle='dashed')
    plt.axvline(x=mu[0], c='red', linestyle='dashed')

    Pronto! No próximo post da série vou estimar uma regressão linear. Até lá!

  • Não atribua à malícia o que pode ser mera ignorância

    Hoje eu vi esse tuíte mostrando a taxa de desemprego e a média das projeções do relatório Focus:

    Uma boa parte, se não a maioria, das respostas tem o mesmo tema (o “mercado” torce para a taxa de desemprego subir).

    A pergunta que fica é como que os entrevistados erram sistematicamente na mesma direção. Minha resposta é que isso não é torcida mas simplesmente porque talvez não dê para fazer dinheiro prevendo bem a taxa de desemprego.

    Se não tem grana envolvida, acaba que ninguém se importa em prever desemprego. E`ntão, pra enviar as respostas da pesquisa, o mais fácil é rodar um modelo estatístico simples qualquer. O modelo básico para séries temporais é um modelo autoregressivo (AR), que, no fim do dia, nada mais é do que uma correlação. A equação de um AR com um só período é a seguinte:

    desemprego_t = \phi_0 + \phi_1 desemprego_{t-1} + \varepsilon_t

    desemprego_t é a taxa de desemprego numa data qualquer (t), \varepsilon_t é um termo de erro (porque o modelo não prevê corretamente), e \phi_0 e \phi_1 são parâmetros.

    Nós podemos usar esse modelo para prever o desemprego. De largada, modelos AR têm uma característica importante: eles querem voltar para o valor médio da série no futuro. Previsões desse modelo, então, vão ficando cada vez mais perto da média da série à medida que o horizonte de previsão aumenta.

    O que eu fiz, então, é rodar um modelo AR (com mais valores antigos para previsão, seis no total) para construir o mesmo gráfico do tuíte original.

    Como a média é alta (10.5% entre 2012 e 2022), as previsões vão sendo puxadas para cima. Tá explicado.

    Código para replicação
    # Importar pacotes
    import ipeadatapy as ipd
    import numpy as np
    import pandas as pd
    from statsmodels.tsa.ar_model import AutoReg
    import seaborn as sns
    import matplotlib.pyplot as plt
    sns.set_style("whitegrid")
    # Baixar dados do ipeadata
    desemprego = ipd.timeseries('PNADC12_TDESOC12')
    desemprego = desemprego.loc[:, 'VALUE ((%))']
    desemprego.index.name = 'Data'
    desemprego.rename('Taxa de desemprego (%)', inplace=True)
    desemprego = desemprego.loc[desemprego.index.year >= 2012]
    # Calcular tentáculos
    tentaculos = pd.DataFrame(index = pd.date_range('05-01-2021', '06-01-2024', freq='MS'),
                              columns = pd.date_range('06-01-2021', '06-01-2025', freq='MS'))
    for t in pd.date_range('05-01-2021', '06-01-2024', freq='MS'):
        # train autoregression
        model = AutoReg(desemprego.loc[:t], lags=6)
        model_fit = model.fit()
        predictions = model_fit.predict(start=len(desemprego.loc[:t]), end=len(desemprego.loc[:t])+12, dynamic=False)
        tentaculos.loc[t, pd.date_range(t+pd.DateOffset(months=1), t+pd.DateOffset(months=13), freq='MS')] = predictions
    # Plotar
    fig, ax = plt.subplots(figsize=(6, 8))
    sns.lineplot(desemprego, ax=ax, color='black')
    dff = tentaculos.T
    for j in dff.index:
        try:
            dff.loc[j,j] = desemprego.loc[j]
        except:
            pass
    for j in dff.columns:
        sns.lineplot(dff.loc[:,j], color='darkgrey', linestyle='--', linewidth=2, ax=ax)
    ax.set(xlim=(pd.to_datetime('3/1/2017'), pd.to_datetime('1/1/2025')))
  • Monte Carlo e cadeias de Markov (I)

    Uma das coisas que eu quero incluir nesse blog são tópicos em econometria. Minha ideia é escrever um post seguindo meus estudos — basicamente fichando (publicamente) o que eu leio. Esse vai ser o primeiro nesse sentido.

    Pra começar, vou escrever sobre métodos de Monte Carlo baseados em cadeias de Markov. É um jeito de conduzir inferência Bayesiana quando os modelos que nós queremos estudar são muito difíceis de resolver com papel e caneta. Em macro aplicada, essa estratégia é o ganha-pão em várias áreas — estimação de DSGEs (modelos estocásticos de equilíbrio geral), estimação de VARs (modelos autorregressivos vetoriais), entre outros.

    A referência que eu vou seguir hoje é Computational Statistics Handbook with Matlab (escrito por Wendy Martinez e Angel Martinez), capítulo onze. Os códigos serão escritos em Python.

    Inferência Bayesiana

    Meu professor de macro do primeiro ano do doutorado vivia perguntando pra gente o que é um modelo econômico? A pergunta era uma pegadinha porque o primeiro instinto é responder algo como “uma simplificação matemática da realidade”, mas a resposta correta é “uma distribuição de probabilidade”. A distinção é bem sutil e também não é assunto para hoje.

    Enfim, vamos trabalhar com uma distribuição de probabilidade sobre coisas observáveis y e um conjunto de parâmetros \theta, \mathbb{P}(y,\theta). Usando regras de probabilidade,

    \mathbb{P}(y,\theta) = \mathbb{P}(\theta) \mathbb{P}(y|\theta)

    O que para mim sempre foi meio esquisito porque o que significa um parâmetro ser uma variável aleatória? A resposta que me deixou satisfeito é que os parâmetros não são uma variável aleatória (até porque isso não faria muito sentido quando os resultados Bayesianos são iguais aos da estatística clássica), mas que nós os tratamos como aleatórios devido à nossa ignorância/falta de conhecimento.

    Nós descrevemos essa ignorância usando uma distribuição de probabilidades, \mathbb{P}(\theta), que vamos chamar de prior (a priori, pressuposta). A outra parte é a verossimilhança, \mathbb{P}(y|\theta), que descreve os observáveis dependendo dos parâmetros.

    Inferência Bayesiana é o processo de aprendizado dos parâmetros conforme observamos os dados. Isso é, a distribuição a posteriori (posterior):

    \mathbb{P}(\theta|y)=\frac{\mathbb{P}(\theta) \mathbb{P}(y|\theta)}{\int \mathbb{P}(\theta) \mathbb{P}(y|\theta) d\theta}

    E essa igualdade é a regra de Bayes. Via de regra, o problema é o denominador (a constante de integração) que é difícil de calcular. Ainda bem que os métodos que eu vou descrever aqui não dependem de saber a constante de integração diretamente. Por isso pode se escrever

    \mathbb{P}(\theta|y) \propto \mathbb{P}(\theta) \mathbb{P}(y|\theta)

    sem problema algum. (\propto significando “proporcional”, ou seja, faltando só multiplicar por uma constante.)

    Metropolis-Hastings

    Vamos falar do algoritmo Metropolis-Hastings para amostrar de uma cadeia de Markov. Uma cadeia de Markov é uma sequência de variáveis aleatórias onde cada realização depende apenas da realização anterior. (Ou, caso isso não seja verdade diretamente, onde é possível reescrever o modelo e essa condição se verifique.)

    Definição (cadeia de Markov): Uma cadeia de Markov é uma sequência de variáveis aleatórias \{X_{1}, X_2, X_3, \dots \} que satisfaz \mathbb{P}(X_t | X_{t-1}, X_{t-2}, \dots) = \mathbb{P}(X_t|X_{t-1}) e \mathbb{P}(X_t|X_{t-1}) é o “kernel” de transição.

    Cadeias de Markov aparecem em todo lugar em macro. Os modelos DSGE clássicos que eu falei no começo são escritos com processos markovianos; VARs também admitem uma representação como um processo de Markov. (Já estou vendo que vai ter post sobre isso num futuro próximo 🙂 Hoje vou deixar bem geral mesmo e depois eu retorno para esse post.) De qualquer jeito, nossos modelos tradicionais são markovianos mas isso não quer dizer que seja fácil de estudá-los — a dificuldade reside justamente em obter amostras desse processo estocástico!

    O algoritmo Metropolis-Hastings (MH) é um jeito de contornar esse problema usando uma distribuição auxiliar. Isso foi revolucionário quando foi descoberto nos anos 50 porque já sabíamos como tirar amostras aleatórias de algumas distribuições e agora podemos usá-las para amostrar de outras. Vamos chamar essa distribuição de q(\dot).

    A ideia é “aceitar” um candidato Y da distribuição q(\cdot) se ele for “próximo” de algo que veríamos da distribuição de interesse original \mathbb{P}. De novo, vamos fazer isso porque é difícil amostrar de \mathbb{P} (que tem densidade p(\cdot)), mas é fácil tirar uma amostra de q(\cdot).

    Essa medida de “proximidade” é a probabilidade

    \alpha = min \{1, \frac{p(Y) q(X_t|Y)}{p(X) q(Y|X_t)} \}

    Se o ponto Y da distribuição candidata não for aceito, então a cadeia não move (X_{t+1}=X_t); caso contrário, X_{t+1}=Y.

    O algoritmo funciona assim:

    • Dê um “chute inicial”, X_0, t=0
    • Use q(\cdot|X_t) para gerar um candidato Y
    • Calcule a “proximidade” e gere um número uniforme U entre 0 e 1
    • Se U for maior que a “proximidade”, rejeite o candidato (X_{t+1} = X_t) e repita o procedimento; caso contrário, aceite (X_{t+1} = Y)
    • Repita os três passos anteriores até a sequência “convergir”

    Um exemplo completo

    Vou encerrar o post de hoje com um exemplo completo em Python. O objetivo é simular números aleatórios de uma distribuição de valores extremos generalizada. Essa distribuição tem três parâmetros, \mu (\in \mathbb{R}), \sigma (>0), e \xi (\in \mathbb{R}) que definem localização, escala, e forma, respectivamente.

    Uma coisa complicada é que o suporte da distribuição muda dependendo dos parâmetros. Se \xi >0, x \in [\mu - \sigma/\xi, +\inf). Se \xi =0, x \in (- \inf, +\inf). Se \xi < 0, x \in (-\inf, \mu - \sigma/\xi).

    A densidade é

    f(x|\mu,\sigma,\xi) = \sigma^{-1} t(x)^{\xi+1} exp(-t(x))

    onde

    t(x) \equiv \begin{cases} [1+\sigma^{-1}\xi(x-\mu)] & \text{ se } \xi \neq 0 \\ exp(-\sigma^{-1}(x-\mu)) & \text{ caso contrário} \end{cases}

    No Python, a primeira coisa é escrever essa pdf.

    def gev(x, mu, sigma, xi):
        # verificar o suporte...
        if ((xi > 0) & (x < mu - sigma/xi)) | ((xi < 0) & (x > mu - sigma/xi)):
            return 0 # já sai se der errado
    
        # calcular t
        if xi == 0:
            t = np.exp((mu-x)/sigma)
        else:
            t = (1 + xi * (x-mu)/sigma) ** (-1/xi)
    
        # calcular f
        f = t ** (xi + 1) * np.exp(-t)
        
        return f

    Pra minha distribuição candidata eu vou escolher uma gaussiana (mas poderia ser outra, claro!).

    Y|X \sim \mathcal{N}(X,0.5)

    A pdf é

    def npdf(x, mu, sigma):
        # sigma é o desvio padrão
        z = (x-mu)/sigma
        c = 1/np.sqrt(2 * np.pi)/sigma
        
        return c * np.exp(-1/2 * z**2) 

    Vamos começar a gerar os números de uma GEV(0, 1, 0.5). Como \xi >0, o suporte é truncado em 0, vou escolher X_0=1. Para terminar, o algoritmo implementado fica assim:

    # Declarações
    N = 10000 # tamanho da amostra
    X = np.zeros((N,))
    
    # parâmetros da GEV
    mu_GEV = 0
    sigma_GEV = 1
    xi_GEV = 0.5
    
    # parâmetros da normal (candidata)
    sigma_normal = np.sqrt(0.5)
    
    # chute inicial
    X[0] = 1
    
    for i in range(1,N):
        # Gerar número da candidata
        y = np.random.normal(X[i-1], sigma_normal)
    
        # quantidades da proximidade...
        p_y = gev(y, mu_GEV, sigma_GEV, xi_GEV)
        p_X = gev(X[i-1], mu_GEV, sigma_GEV, xi_GEV)
        q_y_X = npdf(y, X[i-1], sigma_normal)
        q_X_y = npdf(X[i-1], y, sigma_normal)
    
    
        # calculando efetivamente
        alfa = np.minimum(1, p_y/p_X * q_X_y/q_y_X)
    
        # gerar uniforme
        u = np.random.uniform()
    
        # aceita/rejeita
        if u < alfa:
            X[i] = y
        else:
            X[i] = X[i-1]

    Agora, vamos ver o resultado. O histograma das simulações é:

    E a cadeia evolui desse jeito no começo (primeiras 200 simulações):

    Analisar a evolução da cadeia vai ser assunto de um post no futuro também.

    Esse post é o primeiro de uma série de posts sobre esse tipo de estimação. Meu objetivo é ir em detalhes nesses algoritmos e no fim fazer uma aplicação de verdade pra escrever um post. No próximo artigo dessa série, vou passar por mais alguns algoritmos. Até a próxima!