Material para o curso de Inferência Estatística oferecido como disciplina obrigatória das graduações em Matemática Aplicada e Ciência de Dados e Inteligência Artificial da Escola de Matemática Aplicada da Fundação Getulio Vargas (FGV EMAp).
Slides aqui.
Notas (independentes) feitas por @wellington36 estão aqui.
Tópicos marcados com um *
são extra e em geral designam material mais avançado.
- Principal: [DG] DeGroot MH, Schervish MJ. Probability and statistics. Pearson Education; 2012.
- Apoio: [CB] Casella, G., & Berger, R. L. (2002). Statistical Inference. Pacific Grove, CA: Duxbury.
Aula 1 - Revisão de probabilidade:
- Esta apostila tem material relevante para quem precisa revisar alguns conceitos.
*
Sobre a lei forte dos grandes números: uma prova elementar com taxas de convergência e notas de Terence Tao com um tratamento mais refinado, incluindo algumas desigualdades probabilísticas.*
Sobre a prova do Teorema Central do Limite e a existência de muitos TCLs, sob premissas diferentes: neste artigo temos essencialmente a mesma demonstração de Casela & Berger (2002) teorema 5.5.14, mas de forma mais rigorosa e detalhada. Já este artigo descreve uma demonstração elementar do TCL -- isto é, uma demonstração que não envolve funções características -- e mostra, nas seções 3 e 4, outros casos de interesse;- Lista de exercícios.
Aula 2 - Inferência Estatística (fundamentos):
*
Artigo de Peter McCullagh sobre o que é um modelo estatístico (avançado).- Material do curso de Modelagem Estatística.
*
Em Finite Exchangeable Sequences, Persi Diaconis e David Freedman mostram que se a geração de um conjunto finito de variáveis aleatórias pode ser representada como um experimento envolvendo urnas, este conjunto será permutável (exchangeable) -- avançado.
Aula 3 - Inferência bayesiana:
- Esta vignette oferece um panorama da inferência bayesiana, mencionando tópicos avançados que não serão discutidos neste curso.
- Este artigo de Bradley Effron discorre sobre porque nem todo mundo é bayesiano.
*
O blog de Larry Wasserman tem uma discussão mais técnica sobre as diferenças entre os paradigmas de inferência (avançado).
Aula 4 - Prioris conjugadas:
-
Artigo de Ylvisaker e Diaconis (1979) sobre a familia de prioris conjugadas para distribuições conjuntas dos dados morando na família exponencial (avançado).
-
Este compêndio traz um catálogo de prioris conjugadas e suas respectivas verossimilhanças.
Aula 5 - Estimadores de Bayes:
- Verbete da Encyclopedia of Mathematics sobre o teorema de Bernstein-von Mises e a normalidade assintótica da posteriori (avançado).
Aula 6 - Estimador de máxima verossimilhança
-
Neste artigo, o grande Abraham Wald dá um tratamento formal mas elementar da consistência do EMV sob condições brandas.
-
Uma demonstração da consistência da EMV pode ser encontrada na seção 4 deste documento. A nota contém ainda vários resultados interessantes sobre teoria assintótica.
Aula 8 - Suficiência
- A história épica do EMV fala sobre o tópico da aula 6 assim como o resultado de suficiência do EMV.
Aula 9 - Rao-Blackwell e admissibilidade
-
O artigo referenciado na seção 8.7.6 de DeGroot e tópico da questão bônus da A12020 é este aqui.
-
Aqui um artigo sobre a vida e obra de David Blackwell (1919-2010).
Aula 12 - Distribuição da média e variância amostrais
- O Teorema de Basu tem como caso particular a independência da média e variância amostrais para o caso Normal. Em particular, esse resultado caracteriza a distribuição Normal.
Aula 13 - Intervalos de confiança
- Este link tem uma visualização legal de intervalos de confiança. Basicamente uma versão interativa da visualização que vimos em aula.
- O artigo de Gardner & Altman na Statistics in Medicine advoga o uso de intervalos de confiança para testar hipóteses.
Aula 15 - Razão de verossimilhança
- A prova do Teorema 9.1.4 de DeGroot, originalmente formulado por Samuel Wilks neste paper de 1938, pode ser encontrada aqui.
Miscelânea
-
O Canal A Ciência da Estatística do Professor Alexandre Patriota é um excelente recurso para aprender mais. Ver, por exemplo, este vídeo sobre a aplicação de variáveis aleatórias Bernoulli a um problema em atuária.
-
Este artigo apresenta o resultado
E[X] = int_0^inf Pr(X > x)dx
, chamado em inglês de "tail formula for the expectation". -
Sobre a "diferenciação sob o sinal da integral", ou regra de Leibniz, este post mostra bem o poder da técnica, muito embora não dê um tratamento completo. Para isso, o artigo da Wikipedia serve bem.
-
Neste post, Larry Wasserman explica que você não precisa assumir que todas as amostras vêm da mesma distribuição para ter a cobertura correta do intervalo de confiança.
Versões anteriores
Agradecimentos
@IgorMichels, @lucasmoschen, @reneroliveira, @wellington36, @MaisaFraiz, @jpdonasolo, @Caioflp, @adamesalles e @lfzinho ajudaram a consertar typos e esclarecer alguns argumentos.