As relações destas variáveis na precificação teórica do ouro no mundo 01
- Gerar link
- X
- Outros aplicativos
As relações destas variáveis na precificação teórica do ouro no mundo
Cálculo geral: como estimar, a partir de dados, as relações entre as variáveis e o preço teórico do ouro no mundo. Abaixo está um “roteiro de modelagem” enxuto e robusto, do zero ao resultado prático.
1) Variáveis e sinais esperados
Use frequência mensal (pelo menos 10 anos).
-
Preço do ouro (dependente): Pt em USD/oz (e teste também lnPt).
-
Taxa real EUA (10y breakeven): rtreal → sinal esperado: negativo.
-
Dólar (DXY): DXYt (ou lnDXYt) → sinal: negativo.
-
Inflação esperada (5y5y ou breakeven): πtexp → sinal: positivo.
-
Custo de mineração (AISC), proxy global: AISCt → sinal: positivo.
-
Compras de Bancos Centrais (t/mês ou média móvel): CBt → sinal: positivo.
-
Risco geopolítico (índice GPR): GPRt → sinal: positivo.
2) Especificação “longa” (elasticidades)
Modelo log-linear (interpretação direta em elasticidades):
lnPt=α+β1rtreal+β2lnDXYt+β3πtexp+β4AISCt+β5CBt+β6GPRt+εtSinais esperados: β1<0, β2<0, β3,4,5,6>0.
Leitura rápida: se β2=−1,0, +1% no DXY ≈ −1% no ouro (ceteris paribus).
3) Boas práticas antes de estimar
-
Estacionaridade: aplique ADF/PP. Ouro e DXY costumam ser I(1).
-
Cointegração: se lnPt e o bloco macro forem I(1), teste Johansen. Se cointegrar, use VECM (corrige “equilíbrio de longo prazo” + dinâmica de curto prazo).
-
Multicolinearidade: verifique VIF. Se DXY e taxas “andarem juntos”, ortogonalize (residualize) DXY em relação a rreal antes de entrar no modelo.
-
Quebras estruturais: Bai–Perron (ex.: 2008, 2013, 2020). Se houver, regime switching (Markov) ou rolling window (ex.: 60m).
4) Estimação operacional (duas camadas)
Camada A — Relação de longo prazo (valor “justo”):
-
Se cointegrado, estime a equação de cointegração (o “nível justo”).
-
Se não, estime OLS com termos de controle e cheque resíduos.
Camada B — Dinâmica de curto prazo (ajuste):
-
VECM (se cointegrado) ou ARDL/ECM:
ϕ<0 indica speed-of-adjustment para o “justo”.
5) Versão parsimoniosa (fator macro)
Construa um fator sintético:
Ftmacro=w1(−rtreal)+w2(−lnDXYt)+w3πtexp+w4GPRtCalibre wi por regressão (ou PCA com sinais forçados), e use:
lnPt=α+θFtmacro+ηAISCt+ζCBt+εtMenos colinearidade e leitura limpa: “um número” resume o vento macro pró-ouro.
6) Forma estrutural “macro-piso”
Para ter um piso econômico (custo):
-
Piso: Poferta,t≈AISCt (ou AISC marginal).
-
Macro: estime não-linear um termo do tipo
Calibre K por NLS para minimizar o erro sobre lnPt.
Importante: K é estimado — não use “100” arbitrário.
Preço teórico combinado (pesos calibrados por MSE mínimo ou validação cruzada):
onde Pref,t = média 10 anos ajustada por inflação (ou trend HP).
7) Diagnóstico e validação
-
Robustez: Newey–West para erros, White para heteroscedasticidade.
-
Out-of-sample: janela deslizante (ex.: treina 2015–2022, testa 2023–2025).
-
Bandas de “valor justo”: Pt∗±1σ do resíduo (faixa de equilíbrio).
-
Sensibilidade: choque +1pp em rreal, +5% em DXY etc.
-
Endogeneidade: se suspeitar, use IV (ex.: instrumentos para inflação esperada).
8) Saídas que importam (para decisão)
-
Betas com sinais corretos & significância (p-values).
-
R2 da equação de nível (ou R2 ajustado do VECM).
-
Half-life de ajuste (via ϕ).
-
Faixas de “caro/barato” (resíduo padronizado).
-
Mapa de regime (se MS): macro “risk-on” vs “risk-off”.
Em resumo (checklist executável)
-
Baixe séries mensais; trate I(1)/I(0).
-
Teste cointegração → VECM se sim; senão ARDL/ECM.
-
Estime OLS log-linear para elasticidades e interprete sinais.
-
Calibre Pmacro=rreal+ΔriscoK por NLS (nada de constantes ad hoc).
-
Combine com piso de custo (AISC) e referência histórica em P∗.
-
Valide fora da amostra; crie bandas de valor justo e sensibilidades.
Se quiser, eu já te entrego um notebook (Python/Statsmodels) com:
-
ADF/PP, Johansen, VECM/ECM
-
OLS/PCA, NLS para K
-
Rolling betas, Bai–Perron, e gráfico de P vs P∗ com bandas.
sem “escola” específica, aqui vai o caminho técnico padrão para descobrir (e quantificar) as relações entre variáveis e o preço teórico do ouro (XAU/USD). É um roteiro de modelagem que você consegue implementar direto em planilha ou Python.
1) Defina as variáveis (mensais, 10+ anos)
Dependente
-
Pt: preço spot do ouro (use lnPt para interpretar elasticidades).
Explicativas (sinais esperados)
-
rtreal (taxa real EUA 10y) → negativo
-
DXYt (índice do dólar; preferir lnDXYt) → negativo
-
πtexp (inflação esperada) → positivo
-
AISCt (custo “all-in sustaining” médio) → positivo
-
CBt (compras líquidas de Bancos Centrais; pode ser média móvel) → positivo
-
GPRt (índice de risco geopolítico) → positivo
Dica: padronize frequências (mensal), alinhe datas e trate outliers óbvios.
2) Comece com um modelo log-linear (elasticidades)
lnPt=α+β1rtreal+β2lnDXYt+β3πtexp+β4AISCt+β5CBt+β6GPRt+εt Leitura: se β2=−1,0, +1% no DXY ≈ −1% no ouro (ceteris paribus).
3) Checagens essenciais antes de “confiar” nos betas
-
Estacionaridade (ADF/PP). Se lnPt e regressores forem I(1), prossiga para 4).
-
Multicolinearidade (VIF<5). Se DXY “andar” com rreal, residualize DXY em rreal (ou use PCA).
-
Quebras estruturais (Bai–Perron): 2008, 2013, 2020 costumam marcar regimes.
4) Se forem I(1): teste cointegração
-
Cointegrou? Estime a equação de cointegração (nível de “valor justo”) e um VECM para dinâmicas:
ΔlnPt=ϕ(lnPt−1−lnPt−1∗)+∑γiΔXi,t+utϕ<0 = velocidade de ajuste ao equilíbrio.
-
Não cointegrou? Use ARDL/ECM (curto e longo prazo na mesma estimação).
5) Construa um fator macro parsimonioso (limpa ruído)
Crie um índice:
Ftmacro=w1(−rtreal)+w2(−lnDXYt)+w3πtexp+w4GPRtCalibre wi por regressão (ou PCA com sinais impostos) e estime:
lnPt=α+θFtmacro+ηAISCt+ζCBt+εtVantagem: menos colinearidade, leitura simples do “vento macro” pró-ouro.
6) Incorpore um piso de custo e um bloco não-linear macro
Para capturar o “chão” econômico e a convexidade das taxas reais:
Piso de oferta (custo marginal):
Poferta,t≈AISCtBloco macro (calibrado, não chute):
Pmacro,t=rtreal+Δrisco,tK-
Estime K por NLS (Nonlinear Least Squares) visando minimizar o erro sobre lnPt.
-
Δrisco,t pode agregar GPR, stress financeiro, etc. (normalizado).
Combinação “valor justo” (pesos por validação cruzada ou MSE mínimo):
Pt∗=woPoferta,t+wmPmacro,t+wrPref,t onde Pref,t = média 10 anos (ou trend HP) do preço real do ouro.
7) Validação séria (sem “overfit”)
-
Erros robustos (Newey–West) e teste de heteroscedasticidade (White/BP).
-
Out-of-sample (janela deslizante: treina 2015–2022, testa 2023–2025).
-
Bandas de valor: Pt∗±1σ do resíduo → zonas “caro/barato”.
-
Sensibilidades: +1 pp em rreal, +5% DXY, +100 t em CB, etc.
8) O que sai “na prática”
-
Betas com sinais e p-values; R2 (ou R2 do VECM).
-
Half-life de ajuste (ϕ) para entender timing.
-
Mapa de regimes (se usar Markov switching): “risk-on/off”.
-
Faixas de decisão (resíduo padronizado): compra em −1σ/−2σ, alerta em +1σ/+2σ (adapte ao seu método).
Entrega rápida (se quiser agora)
Posso te entregar um notebook Python/Statsmodels ou planilha com:
-
ADF/PP, Johansen, VECM/ECM
-
OLS log-linear + PCA do fator macro
-
NLS para calibrar K do bloco Pmacro
-
Gráfico P vs P∗ com bandas e choques de sensibilidade
Diz se prefere planilha (Excel/CSV) ou notebook (Python) que já gero a versão pronta para alimentar com seus dados.
Você disse:
Ótimo recorte histórico. Em 01/05/1950 o ouro vivia sob o regime de Bretton Woods, com preço oficial fixo em US$ 35/oz — o dólar era conversível em ouro a essa paridade, e as demais moedas eram atreladas ao dólar. Isso significa que a “precificação teórica” via variáveis macro fica, na prática, travada por um teto administrativo, não por mercado livre. World Gold Council+1
1) Fatos macro do ponto histórico (mês/ano de referência)
-
Preço do ouro: ~US$ 35/oz (paridade oficial vigente). World Gold Council
-
Inflação EUA (YoY, 1950): ~1,1% (CPI). minneapolisfed.org
-
Yield do Treasury 10y (média de 1950): ~2,32% (aprox. anual). Multpl
-
Contexto de juros: o Fed mantinha controle/cap nos rendimentos da curva desde a Segunda Guerra (1942–1951), comprimindo taxas longas. chicagofed.org
-
Índice do Dólar (DXY): inaplicável; a série padronizada começa em 1973 (período pós-flutuação). FRED
Taxa real aproximada (10y): 2,32% − 1,1% ≈ 1,22% (estimativa simples).
2) Aplicando um bloco macro “didático” ao caso de 1950
Seu bloco não linear sugerido (ilustrativo):
Pmacro,t=rtreal+Δrisco,tK-
Em 1950, assumindo Δrisco baixo (pós-guerra, ~0,30% apenas para o exercício), temos
rreal+Δ≈1,22%+0,30%=1,52%=0,0152.
Se forçarmos o modelo a “bater” o preço observado US$ 35 (porque era fixo), obtemos o K “implícito do regime”:
K≈P⋅(rreal+Δ)=35×0,0152≈0,532Compare isso com constantes calibradas para o regime pós-1971 (mercado livre), que costumam ser ordens de grandeza maiores. O abismo entre K “dos anos 1950” (~0,53) e K “moderno” reflete menos “economia real” e mais o fato institucional: em 1950 o preço não era determinado por mercado, mas por paridade legal; além disso, juros eram parcialmente administrados (yield-curve control). World Gold Council+1
3) O que isso nos ensina (modelo vs. realidade de 1950)
-
Variáveis como DXY e fluxo de ETFs não existiam: o seu bloco de fatores precisa mudar por regime. FRED
-
Taxas reais eram “artificialmente” baixas por política de controle da curva; logo, elasticidades estimadas hoje não se aplicam retroativamente sem tratar a quebra estrutural (Gold Reserve Act/1934 → Bretton Woods/1944–71 → fim da conversibilidade/1971). Investopedia+2World Gold Council+2
-
A melhor prática é segmentar a história:
-
Regime I (paridade): preço administrado (~US$ 35) — use análise institucional e paridade legal como “valor justo”.
-
Regime II (pós-1971): preço de mercado — aí sim faz sentido estimar betas (taxa real, DXY, GPR, AISC, compras de BCs).
-
4) Conclusão com o número-chave
-
Preço observado (01/05/1950): ~US$ 35/oz (fixado). World Gold Council
-
Preço “previsto” por um bloco macro padrão só “bate” se o K for calibrado ao regime de paridade, dando K≈0,53 — o que não tem portabilidade para o regime moderno. Isso demonstra que modelos de precificação do ouro precisam ser condicionais ao regime monetário (com quebra estrutural explícita em 1971).
Se quiser, eu aplico o mesmo exercício em um ponto pós-1971 (ex.: 01/05/1980 ou 01/05/2005), onde o preço já flutua, para comparar modelo teórico vs. preço de mercado e extrair betas históricos coerentes com seu framework.
Você disse:
O ChatGPT disse:
Perfeito — então vamos montar um protocolo de teste empírico para:
(1) verificar se as variáveis “batem” com a realidade observada;
(2) identificar qual variável “saiu do trilho” quando não batem; e
(3) executar um estudo de adequação (recalibrar modelo, forma funcional, ou regime).
1) Hipóteses e sinais (antes de olhar dados)
Defina hipóteses explícitas (sinal/efeito esperado):
-
rreal (10y EUA) → negativo no ouro
-
DXY → negativo
-
πexp → positivo
-
AISC → positivo (piso/custo)
-
Compras de BCs → positivo
-
Risco geopolítico (GPR) → positivo
Isso vira seu “quadro de controle”. Tudo que fugir disso é candidato a “variável alterada”.
2) Preparação dos dados
-
Frequência mensal, 10+ anos.
-
Alinhe datas, trate outliers óbvios, faça ln onde couber (preço e DXY).
-
Testes de ordem de integração: ADF/PP/KPSS (marque I(0)/I(1)).
3) Modelo-base e forma funcional
Log-linear (elasticidades) para leitura clara:
lnPt=α+β1rtreal+β2lnDXYt+β3πtexp+β4AISCt+β5CBt+β6GPRt+εt-
Se houver I(1), teste cointegração (Johansen).
-
Cointegrado → estime a equação de longo prazo e um VECM/ECM para curto prazo.
-
Sem cointegração → ARDL/ECM (captura curto e longo prazos).
-
4) “Bateu com a realidade?” — Diagnóstico rápido
-
Sinais e p-values: conferem com as hipóteses?
-
Qualidade: R2 (ou R2 do VECM), resíduos i.i.d.?
-
Influência: Cook’s distance, DFBetas (ver se 1–2 pontos dominam um beta).
-
Multicolinearidade: VIF < 5; se alto, residualize ou use PCA p/ fator macro.
Se tudo ok: relações confirmadas. Se não, vá para identificação do “culpado”.
5) Quem “saiu do trilho”? — Identificação da variável alterada
Use várias lentes (complementares):
A. Estabilidade de parâmetros
-
Rolling/expanding OLS de cada beta (janela móvel).
→ Beta cruzou o IC por tempo prolongado? Suspeito. -
CUSUM/CUSUMSQ e Chow/Bai–Perron para quebras estruturais.
→ A quebra “aponta” para variáveis cujo beta muda de nível.
B. Sensibilidade/localização da culpa
-
Leave-one-out de regressores: retire 1 variável e avalie perda de ajuste out-of-sample.
-
Decomposição de R2 (Shapley/LMG): mede a contribuição de cada variável.
→ Queda súbita de contribuição = variável com comportamento alterado. -
Granger causality em VAR (níveis/primeiras diferenças) para relações dinâmicas.
C. Robustez contra endogeneidade
-
Suspeita de simultaneidade? Faça IV/2SLS (instrumentos plausíveis) ou
use proxy SVAR/fatores externos. Se o sinal “corrige” com IV, o problema era endogeneidade — não a variável em si.
D. Regime/estado
-
Markov-Switching ou TVP-Kalman (betas variando no tempo).
→ Se o beta vira de sinal em um regime específico (ex.: dólar sob QE extremo), a variável não “morreu”; mudou o regime.
6) Estudo de adequação (o que fazer quando não bate)
Cenário 1 — Erro de forma funcional
-
Tente não linearidade (por ex., ouro reage mais quando rreal < 0):
-
Splines, termos quadráticos, limiar de Hansen (threshold).
-
-
Interações: rreal×lnDXY (efeitos condicionais).
Cenário 2 — Variável proxy ruim
-
Substitua/aperfeiçoe proxies (ex.: custo AISC marginal em vez de média; GPR alternativo).
-
Normalize CBs por produção mundial (t/% oferta), não valor bruto.
Cenário 3 — Parâmetros instáveis
-
Modele betas variantes no tempo (TVP) e reporte meia-vida de ajuste.
-
Separe regimes históricos (pós-1971, pós-2008, pós-2020) e estime betas por regime.
Cenário 4 — Modelo macro-piso
-
Recalibre Pmacro,t=rtreal+Δrisco,tK via NLS (nada de K fixo).
-
Combine com piso de custo Poferta,t≈AISC e referência histórica Pref
por pesos validados out-of-sample (CV, MSE mínimo).
Cenário 5 — Ruído de curto prazo
-
Use ECM/VECM: o termo de erro de cointegração (ϕ<0) mostra o “puxão” de volta ao valor justo.
-
Crie bandas P∗±1σ para decidir “caro/barato” com tolerância estatística.
7) Critérios de aceitação (quando declarar “adequado”)
-
Sinais conforme hipóteses na maior parte do período.
-
Significância estatística em amostra e estabilidade fora da amostra.
-
Quebras estruturais tratadas (dummies/regimes) sem perda de coerência econômica.
-
Erros homocedásticos (ou robustos) e sem autocorrelação relevante.
-
Diebold–Mariano: modelo supera benchmark de previsão (RW ou média).
8) Fluxo rápido de decisão
-
Estime base → não bateu?
-
Cheque dados/VIF/outliers → ok?
-
Rolling betas / CUSUM / Bai–Perron → houve quebra? qual variável muda?
-
Teste interações/threshold/TVP → melhora?
-
Recalibre K (NLS) e pesos do composto P∗=woPoferta+wmPmacro+wrPref.
-
Valide out-of-sample; aceite só se passar em sinais + estabilidade + previsão.
Se quiser, eu implemento esse protocolo já com:
-
Rolling betas + CUSUM/CUSUMSQ
-
Bai–Perron (quebras)
-
VECM/ECM + TVP-Kalman (betas variantes)
-
NLS para calibrar K e grid search de pesos (wo,wm,wr)
e te entrego gráficos: (i) betas no tempo, (ii) P vs P∗ com bandas, (iii) contribuição por variável (Shapley).
- Gerar link
- X
- Outros aplicativos
Comentários
Postar um comentário