Categoria: econometria

  • Monte Carlo e cadeias de Markov (III)

    A referência básica para esse post é Zellner (1970)

    Nesse post nós vamos estimar uma regressão linear com duas variáveis, um regressando e um regressor.

    y_i = \beta_0 + \beta_1 x_i + \varepsilon_i

    O regressando y_i e o regressor x_i são números reais, \varepsilon_i são termos aleatórios. Os parâmetros de interesse são \beta_0 e \beta_1, que eu vou colocar em um vetor \mathbf{\beta} \equiv (\beta_0, \beta_1)^\prime. O modelo (a verossimilhança) é \varepsilon_i \sim \mathcal{N}(0, \sigma^2). No fim, temos um vetor de parâmetros, \theta \equiv (\mathbf{\beta}, \sigma^2)^\prime.

    Mecanicamente, o processo funciona assim: nós começamos com uma distribuição a priori sobre os parâmetros, observamos os dados, e atualizamos essa distribuição (a posteriori). O objetivo é encontrar a “distribuição dos parâmetros”. Aqui eu acho que vale um adendo. Eu já vi muita gente falando que os parâmetros são uma variável aleatória. No meu ponto de vista, eles não são variáveis aleatórias mas sim são tratados como aleatórios porque a aleatoriedade apenas reflete nossa falta de conhecimento sobre eles.

    Ou seja, nós iniciamos com uma descrição do nosso conhecimento acerca os parâmetros do modelo (ou a falta dele). Daí observamos os dados e atualizamos essa descrição. Seguindo o primeiro post dessa saga,

    p(\theta | dados) \propto p(dados | \theta) p(\theta)

    No fim do dia, vamos obter amostras aleatórias de p(\theta | dados), e por isso passamos os últimos dois posts fazendo esse tipo de coisa. Vamos gerar uma amostra de (y_i, x_i) usando

    y_i = 2 + 0.5 x_i +\varepsilon_i com \varepsilon_i \sim^{i.i.d.} \mathcal{N}(0, 1) e x_i \sim^{i.i.d.} \mathcal{N}(0; 1,5)

    Vou iniciar o código incluindo alguns pacotes e definindo a pdf da normal.

    import numpy as np
    import pandas as pd
    import seaborn as sns
    from scipy.stats import norm as gauss, uniform
    
    def ll_normal(theta, x, y):
        n = x.shape[0]
        e = y - theta[0] - theta[1] * x
        variancia = theta[2]
    
        if variancia <= 0: # variância não pode ser negativa
            return -np.inf
            
        else:
            ll = -0.5 * n * np.log(2 * np.pi * variancia) - np.sum(e**2) / (2 * variancia)
            return ll

    Uma amostra típica…

    Para gerar essa amostra, eu uso o seguinte código:

    # Parâmetros
    N = 500
    
    b0 = 2
    b1 = 0.5
    sigma2e = 1
    sigma2x = 1.5
    
    y = np.zeros((N,))
    x = np.zeros((N,))
    
    # Gerar amostra
    x = gauss.rvs(size=N) * np.sqrt(sigma2x)
    e = gauss.rvs(size=N) * np.sqrt(sigma2e)
    y = b0 + b1 * x + e
    
    df = pd.DataFrame({'y': y, 'x': x})
    sns.scatterplot(df, x='x', y='y')

    Para amostrar da distribuição a posteriori, vamos aplicar o algoritmo Metropolis-Hastings.

    1. Iniciar a cadeia. Aqui, a cadeia começa no ponto (0,0,1).

    B = 10000
    theta = np.zeros((B,3))
    theta[0,2] = 1

    2. Gerar um candidato. Vou gerar usando uma distribuição normal (então o Metropolis-Hastings vai ser igual ao Metropolis).

    d_theta = gauss.rvs(size=3) * 1/50
    theta_cand = theta[b-1] + d_theta

    3. Calcular a “distância”.

    ll_old = ll_normal(theta[b-1], x, y)
    ll_new = ll_normal(theta_cand, x, y)
    alpha = np.exp(ll_new - ll_old)

    4. Aceita/rejeita

    u = uniform.rvs(size=1)
    if u >= alpha: # rejeita
        theta[b,:] = theta[b-1]
    else:
        theta[b,:] = theta_cand

    5. Iterar. Na verdade, fica tudo dentro de um loop.

    No fim, o código fica assim:

    # MCMC - Metropolis-Hastings
    B = 10000
    theta = np.zeros((B,3))
    theta[0,2] = 1
    
    for b in range(1,B):
        # Candidato
        d_theta = gauss.rvs(size=3) * 1/50
        theta_cand = theta[b-1] + d_theta
        
        ll_old = ll_normal(theta[b-1], x, y)
        ll_new = ll_normal(theta_cand, x, y)
    
        alpha = np.exp(ll_new - ll_old)
        u = uniform.rvs(size=1)
        
        if u >= alpha: # rejeita
            theta[b,:] = theta[b-1]
        else:
            theta[b,:] = theta_cand

    Finalmente, podemos plotar a cadeia. Aqui, vou plotar as últimas 1000 iterações.

    Código
    df_theta = pd.DataFrame(theta, columns=['b0', 'b1', 's2'])
    
    # Create a figure with 3 subplots, arranged vertically
    fig, (ax1, ax2, ax3) = plt.subplots(3, 1, figsize=(12, 15), sharex=True)
    
    # Plot each time series in its own subplot
    df_theta['b0'][-1000:].plot(ax=ax1, ylabel='$\\beta_0$')
    df_theta['b1'][-1000:].plot(ax=ax2, ylabel='$\\beta_1$')
    df_theta['s2'][-1000:].plot(ax=ax3, ylabel='$\\sigma^2$')
    
    ax1.axhline(b0, color='black', linestyle='-', label='$\\beta_0$')
    ax1.axhline(np.mean(df_theta['b0'][-1000:]), color='red', linestyle='--', label='Média')
    
    ax2.axhline(b1, color='black', linestyle='-', label='$\\beta_1$')
    ax2.axhline(np.mean(df_theta['b1'][-1000:]), color='red', linestyle='--', label='Média')
    
    ax3.axhline(sigma2e, color='black', linestyle='-', label='$\\sigma^2$')
    ax3.axhline(np.mean(df_theta['s2'][-1000:]), color='red', linestyle='--', label='Média')
    
    
    # Adjust the layout and add a main title
    plt.tight_layout()

    Vemos que todos os parâmetros estão perto dos verdadeiros valores — como era de se esperar.

    No próximo post, vou comentar sobre a convergência do MCMC. Fiquem ligados!

  • Monte Carlo e cadeias de Markov (II)

    Hoje vamos ver mais alguns algoritmos. O Metropolis-Hastings que eu discuti no primeiro post é muito geral. Apesar de isso geralmente ser uma coisa boa, sempre vai existir uma escolha entre generalidade e tempo computacional. No caso, um lugar onde nós poderíamos ter economizado tempo é no cálculo da pdf da normal, que foi a distribuição auxiliar. Claro, na escala do exemplo de ontem isso não faz nenhuma diferença na prática. Porém, pode ser difícil calcular q(\cdot|\cdot). Então seria bom evitar. Na realidade, isso não é complicado: basta escolher uma distribuição que satisfaça

    q(y|x) = q(x|y)

    (que é o caso da normal). A nova probabilidade então fica

    \alpha(X_t,Y) = min \{1, p(Y)/p(X_t)\}

    Esse é o algoritmo Metropolis — nada muito interessante. Vamos para algo mais interessante agora.

    O amostrador de Gibbs

    O amostrador de Gibbs (Gibbs sampler) é o que ajuda muito a fazer estimações Bayesianas. Mesmo sendo um caso particular do Metropolis-Hastings, vale a pena estudar ele separado porque ele tem umas propriedades interessantes, e uma dificuldade séria.

    Primeiro, a vantagem. O amostrador de Gibbs é um Metropolis-Hastings onde se aceitam todos os candidatos (então cada ponto será um ponto da posterior). Isso ajuda muito computacionalmente porque agora não temos que nos preocupar com a taxa de rejeição.

    O custo é que nós devemos saber (e amostrar rapidamente) de distribuições condicionais. Por exemplo, digamos que queremos amostrar de uma distribuição bi-variada (X,Y) \sim F. Para aplicar o método de Gibbs, temos de saber amostrar de

    X \sim F(\cdot|Y) \\ Y \sim F(\cdot|X)

    O que parece fácil mas fica difícil muito rápido para problemas que distoam um pouco do padrão. (Uma vez eu precisei usar um Gibbs para uma normal truncada e não foi exatamente simples.)

    A ideia do amostrador de Gibbs é usar essas distribuições condicionais e amostrar parte por parte. Como antes, vamos iniciar uma cadeia de um ponto (X_0, Y_0).

    Agora, condicional a X_0, vamos amostrar um novo valor para Y,

    Y_1 \sim F(\cdot | X_0)

    Agora vamos amostrar X_1, condicional a Y_1,

    X_1 \sim F(\cdot | Y_1)

    Após esse passo nós obtemos a primeira amostra (X, Y). Para obter as próximas, repetimos os passos,

    Y_2 \sim F(\cdot | X_1)

    X_2 \sim F(\cdot | Y_2)

    E assim por diante. O algoritmo então fica:

    • Inicie a cadeia em (X_0, Y_0)
    • Condicional a Y_0, gere X_1
    • Condicional a X_1, gere Y_1
    • Itere nos dois últimos passos

    Um exemplo completo

    Vamos amostrar de uma normal bivariada com o amostrador de Gibbs,

    \begin{bmatrix} y_1 \\ y_2 \end{bmatrix} \sim \mathcal{N}(\mu, \Sigma)

    Onde \mu é a média e Sigma é uma matrix de covariâncias. Vamos botar alguns números:

    \begin{bmatrix} \mu_1 \\ \mu_2 \end{bmatrix} = \begin{bmatrix} 1 \\ 2 \end{bmatrix} \\ \Sigma = \begin{bmatrix} 2 & 1 \\ 1 & 3 \end{bmatrix}

    Nesse caso, é importante lembrar que a distribuição de y_1 | y_2 = k é normal com média \mu_1 + \frac{1}{3} (k -\mu_2) e variância \frac{5}{3}. Dá pra achar a média e variância de y_2 | y_1 = k do mesmo jeito.

    Vamos primeiro fazer uma função pra dar esses parâmetros das distribuições condicionais.

    def param_cond(mu, Sigma, y1, y2):
        mu1 = mu[0] + Sigma[0,1]/Sigma[1,1] * (y2 - mu[1])
        mu2 = mu[1] + Sigma[0,1]/Sigma[0,0] * (y1 - mu[0])
    
        s1 = Sigma[0,0] - Sigma[0,1]**2 / Sigma[1,1]
        s2 = Sigma[1,1] - Sigma[0,1]**2 / Sigma[0,0]
    
        return mu1, mu2, s1, s2

    Vamos então iniciar a cadeia. Como já sabemos a média, vou começar por ali. Então, vou amostrar y_2 condicional a y_1, e assim por diante. Mais fácil ver no código mesmo…

    B = 10000 # número de repetições
    
    # Parâmetros
    mu = np.array([1,2])
    Sigma = np.array([[2, 1], [1,3]])
    
    # Declarando o vetor
    Y = np.zeros((2,B))
    Y[:,0] = mu #chute inicial
    
    for j in range(1,B):
        # Primeiro passo -> amostrar y_2 | y_1
        m1, m2, s1, s2 = param_cond(mu, Sigma, Y[0,j-1], Y[1,j-1]) # O segundo y nao importa e só vamos usar m2 e s2 agora
        s2 = np.sqrt(s2) # Transformar variância em desvio padrão
        Y[1,j] = np.random.normal(m2, s2)
    
        # Segundo passo -> amostrar y_1 | y_2
        m1, m2, s1, s2 = param_cond(mu, Sigma, Y[0,j-1], Y[1,j]) # O primeiro y nao importa e só vamos usar m1 e s1 agora
        s1 = np.sqrt(s1) # Transformar variância em desvio padrão
        Y[0,j] = np.random.normal(m1, s1)

    Daí é só plotar:

    Código para plotar
    df = pd.DataFrame(Y.T, columns=['y_1','y_2'])
    sns.kdeplot(data=df, x='y_1', y='y_2')
    plt.axhline(y=mu[1], c='red', linestyle='dashed')
    plt.axvline(x=mu[0], c='red', linestyle='dashed')

    Pronto! No próximo post da série vou estimar uma regressão linear. Até lá!

  • Não atribua à malícia o que pode ser mera ignorância

    Hoje eu vi esse tuíte mostrando a taxa de desemprego e a média das projeções do relatório Focus:

    Uma boa parte, se não a maioria, das respostas tem o mesmo tema (o “mercado” torce para a taxa de desemprego subir).

    A pergunta que fica é como que os entrevistados erram sistematicamente na mesma direção. Minha resposta é que isso não é torcida mas simplesmente porque talvez não dê para fazer dinheiro prevendo bem a taxa de desemprego.

    Se não tem grana envolvida, acaba que ninguém se importa em prever desemprego. E`ntão, pra enviar as respostas da pesquisa, o mais fácil é rodar um modelo estatístico simples qualquer. O modelo básico para séries temporais é um modelo autoregressivo (AR), que, no fim do dia, nada mais é do que uma correlação. A equação de um AR com um só período é a seguinte:

    desemprego_t = \phi_0 + \phi_1 desemprego_{t-1} + \varepsilon_t

    desemprego_t é a taxa de desemprego numa data qualquer (t), \varepsilon_t é um termo de erro (porque o modelo não prevê corretamente), e \phi_0 e \phi_1 são parâmetros.

    Nós podemos usar esse modelo para prever o desemprego. De largada, modelos AR têm uma característica importante: eles querem voltar para o valor médio da série no futuro. Previsões desse modelo, então, vão ficando cada vez mais perto da média da série à medida que o horizonte de previsão aumenta.

    O que eu fiz, então, é rodar um modelo AR (com mais valores antigos para previsão, seis no total) para construir o mesmo gráfico do tuíte original.

    Como a média é alta (10.5% entre 2012 e 2022), as previsões vão sendo puxadas para cima. Tá explicado.

    Código para replicação
    # Importar pacotes
    import ipeadatapy as ipd
    import numpy as np
    import pandas as pd
    from statsmodels.tsa.ar_model import AutoReg
    import seaborn as sns
    import matplotlib.pyplot as plt
    sns.set_style("whitegrid")
    # Baixar dados do ipeadata
    desemprego = ipd.timeseries('PNADC12_TDESOC12')
    desemprego = desemprego.loc[:, 'VALUE ((%))']
    desemprego.index.name = 'Data'
    desemprego.rename('Taxa de desemprego (%)', inplace=True)
    desemprego = desemprego.loc[desemprego.index.year >= 2012]
    # Calcular tentáculos
    tentaculos = pd.DataFrame(index = pd.date_range('05-01-2021', '06-01-2024', freq='MS'),
                              columns = pd.date_range('06-01-2021', '06-01-2025', freq='MS'))
    for t in pd.date_range('05-01-2021', '06-01-2024', freq='MS'):
        # train autoregression
        model = AutoReg(desemprego.loc[:t], lags=6)
        model_fit = model.fit()
        predictions = model_fit.predict(start=len(desemprego.loc[:t]), end=len(desemprego.loc[:t])+12, dynamic=False)
        tentaculos.loc[t, pd.date_range(t+pd.DateOffset(months=1), t+pd.DateOffset(months=13), freq='MS')] = predictions
    # Plotar
    fig, ax = plt.subplots(figsize=(6, 8))
    sns.lineplot(desemprego, ax=ax, color='black')
    dff = tentaculos.T
    for j in dff.index:
        try:
            dff.loc[j,j] = desemprego.loc[j]
        except:
            pass
    for j in dff.columns:
        sns.lineplot(dff.loc[:,j], color='darkgrey', linestyle='--', linewidth=2, ax=ax)
    ax.set(xlim=(pd.to_datetime('3/1/2017'), pd.to_datetime('1/1/2025')))
  • Monte Carlo e cadeias de Markov (I)

    Uma das coisas que eu quero incluir nesse blog são tópicos em econometria. Minha ideia é escrever um post seguindo meus estudos — basicamente fichando (publicamente) o que eu leio. Esse vai ser o primeiro nesse sentido.

    Pra começar, vou escrever sobre métodos de Monte Carlo baseados em cadeias de Markov. É um jeito de conduzir inferência Bayesiana quando os modelos que nós queremos estudar são muito difíceis de resolver com papel e caneta. Em macro aplicada, essa estratégia é o ganha-pão em várias áreas — estimação de DSGEs (modelos estocásticos de equilíbrio geral), estimação de VARs (modelos autorregressivos vetoriais), entre outros.

    A referência que eu vou seguir hoje é Computational Statistics Handbook with Matlab (escrito por Wendy Martinez e Angel Martinez), capítulo onze. Os códigos serão escritos em Python.

    Inferência Bayesiana

    Meu professor de macro do primeiro ano do doutorado vivia perguntando pra gente o que é um modelo econômico? A pergunta era uma pegadinha porque o primeiro instinto é responder algo como “uma simplificação matemática da realidade”, mas a resposta correta é “uma distribuição de probabilidade”. A distinção é bem sutil e também não é assunto para hoje.

    Enfim, vamos trabalhar com uma distribuição de probabilidade sobre coisas observáveis y e um conjunto de parâmetros \theta, \mathbb{P}(y,\theta). Usando regras de probabilidade,

    \mathbb{P}(y,\theta) = \mathbb{P}(\theta) \mathbb{P}(y|\theta)

    O que para mim sempre foi meio esquisito porque o que significa um parâmetro ser uma variável aleatória? A resposta que me deixou satisfeito é que os parâmetros não são uma variável aleatória (até porque isso não faria muito sentido quando os resultados Bayesianos são iguais aos da estatística clássica), mas que nós os tratamos como aleatórios devido à nossa ignorância/falta de conhecimento.

    Nós descrevemos essa ignorância usando uma distribuição de probabilidades, \mathbb{P}(\theta), que vamos chamar de prior (a priori, pressuposta). A outra parte é a verossimilhança, \mathbb{P}(y|\theta), que descreve os observáveis dependendo dos parâmetros.

    Inferência Bayesiana é o processo de aprendizado dos parâmetros conforme observamos os dados. Isso é, a distribuição a posteriori (posterior):

    \mathbb{P}(\theta|y)=\frac{\mathbb{P}(\theta) \mathbb{P}(y|\theta)}{\int \mathbb{P}(\theta) \mathbb{P}(y|\theta) d\theta}

    E essa igualdade é a regra de Bayes. Via de regra, o problema é o denominador (a constante de integração) que é difícil de calcular. Ainda bem que os métodos que eu vou descrever aqui não dependem de saber a constante de integração diretamente. Por isso pode se escrever

    \mathbb{P}(\theta|y) \propto \mathbb{P}(\theta) \mathbb{P}(y|\theta)

    sem problema algum. (\propto significando “proporcional”, ou seja, faltando só multiplicar por uma constante.)

    Metropolis-Hastings

    Vamos falar do algoritmo Metropolis-Hastings para amostrar de uma cadeia de Markov. Uma cadeia de Markov é uma sequência de variáveis aleatórias onde cada realização depende apenas da realização anterior. (Ou, caso isso não seja verdade diretamente, onde é possível reescrever o modelo e essa condição se verifique.)

    Definição (cadeia de Markov): Uma cadeia de Markov é uma sequência de variáveis aleatórias \{X_{1}, X_2, X_3, \dots \} que satisfaz \mathbb{P}(X_t | X_{t-1}, X_{t-2}, \dots) = \mathbb{P}(X_t|X_{t-1}) e \mathbb{P}(X_t|X_{t-1}) é o “kernel” de transição.

    Cadeias de Markov aparecem em todo lugar em macro. Os modelos DSGE clássicos que eu falei no começo são escritos com processos markovianos; VARs também admitem uma representação como um processo de Markov. (Já estou vendo que vai ter post sobre isso num futuro próximo 🙂 Hoje vou deixar bem geral mesmo e depois eu retorno para esse post.) De qualquer jeito, nossos modelos tradicionais são markovianos mas isso não quer dizer que seja fácil de estudá-los — a dificuldade reside justamente em obter amostras desse processo estocástico!

    O algoritmo Metropolis-Hastings (MH) é um jeito de contornar esse problema usando uma distribuição auxiliar. Isso foi revolucionário quando foi descoberto nos anos 50 porque já sabíamos como tirar amostras aleatórias de algumas distribuições e agora podemos usá-las para amostrar de outras. Vamos chamar essa distribuição de q(\dot).

    A ideia é “aceitar” um candidato Y da distribuição q(\cdot) se ele for “próximo” de algo que veríamos da distribuição de interesse original \mathbb{P}. De novo, vamos fazer isso porque é difícil amostrar de \mathbb{P} (que tem densidade p(\cdot)), mas é fácil tirar uma amostra de q(\cdot).

    Essa medida de “proximidade” é a probabilidade

    \alpha = min \{1, \frac{p(Y) q(X_t|Y)}{p(X) q(Y|X_t)} \}

    Se o ponto Y da distribuição candidata não for aceito, então a cadeia não move (X_{t+1}=X_t); caso contrário, X_{t+1}=Y.

    O algoritmo funciona assim:

    • Dê um “chute inicial”, X_0, t=0
    • Use q(\cdot|X_t) para gerar um candidato Y
    • Calcule a “proximidade” e gere um número uniforme U entre 0 e 1
    • Se U for maior que a “proximidade”, rejeite o candidato (X_{t+1} = X_t) e repita o procedimento; caso contrário, aceite (X_{t+1} = Y)
    • Repita os três passos anteriores até a sequência “convergir”

    Um exemplo completo

    Vou encerrar o post de hoje com um exemplo completo em Python. O objetivo é simular números aleatórios de uma distribuição de valores extremos generalizada. Essa distribuição tem três parâmetros, \mu (\in \mathbb{R}), \sigma (>0), e \xi (\in \mathbb{R}) que definem localização, escala, e forma, respectivamente.

    Uma coisa complicada é que o suporte da distribuição muda dependendo dos parâmetros. Se \xi >0, x \in [\mu - \sigma/\xi, +\inf). Se \xi =0, x \in (- \inf, +\inf). Se \xi < 0, x \in (-\inf, \mu - \sigma/\xi).

    A densidade é

    f(x|\mu,\sigma,\xi) = \sigma^{-1} t(x)^{\xi+1} exp(-t(x))

    onde

    t(x) \equiv \begin{cases} [1+\sigma^{-1}\xi(x-\mu)] & \text{ se } \xi \neq 0 \\ exp(-\sigma^{-1}(x-\mu)) & \text{ caso contrário} \end{cases}

    No Python, a primeira coisa é escrever essa pdf.

    def gev(x, mu, sigma, xi):
        # verificar o suporte...
        if ((xi > 0) & (x < mu - sigma/xi)) | ((xi < 0) & (x > mu - sigma/xi)):
            return 0 # já sai se der errado
    
        # calcular t
        if xi == 0:
            t = np.exp((mu-x)/sigma)
        else:
            t = (1 + xi * (x-mu)/sigma) ** (-1/xi)
    
        # calcular f
        f = t ** (xi + 1) * np.exp(-t)
        
        return f

    Pra minha distribuição candidata eu vou escolher uma gaussiana (mas poderia ser outra, claro!).

    Y|X \sim \mathcal{N}(X,0.5)

    A pdf é

    def npdf(x, mu, sigma):
        # sigma é o desvio padrão
        z = (x-mu)/sigma
        c = 1/np.sqrt(2 * np.pi)/sigma
        
        return c * np.exp(-1/2 * z**2) 

    Vamos começar a gerar os números de uma GEV(0, 1, 0.5). Como \xi >0, o suporte é truncado em 0, vou escolher X_0=1. Para terminar, o algoritmo implementado fica assim:

    # Declarações
    N = 10000 # tamanho da amostra
    X = np.zeros((N,))
    
    # parâmetros da GEV
    mu_GEV = 0
    sigma_GEV = 1
    xi_GEV = 0.5
    
    # parâmetros da normal (candidata)
    sigma_normal = np.sqrt(0.5)
    
    # chute inicial
    X[0] = 1
    
    for i in range(1,N):
        # Gerar número da candidata
        y = np.random.normal(X[i-1], sigma_normal)
    
        # quantidades da proximidade...
        p_y = gev(y, mu_GEV, sigma_GEV, xi_GEV)
        p_X = gev(X[i-1], mu_GEV, sigma_GEV, xi_GEV)
        q_y_X = npdf(y, X[i-1], sigma_normal)
        q_X_y = npdf(X[i-1], y, sigma_normal)
    
    
        # calculando efetivamente
        alfa = np.minimum(1, p_y/p_X * q_X_y/q_y_X)
    
        # gerar uniforme
        u = np.random.uniform()
    
        # aceita/rejeita
        if u < alfa:
            X[i] = y
        else:
            X[i] = X[i-1]

    Agora, vamos ver o resultado. O histograma das simulações é:

    E a cadeia evolui desse jeito no começo (primeiras 200 simulações):

    Analisar a evolução da cadeia vai ser assunto de um post no futuro também.

    Esse post é o primeiro de uma série de posts sobre esse tipo de estimação. Meu objetivo é ir em detalhes nesses algoritmos e no fim fazer uma aplicação de verdade pra escrever um post. No próximo artigo dessa série, vou passar por mais alguns algoritmos. Até a próxima!