EM CONSTRUÇÃO
Estatística Básica: Probabilidade e Inferência
Luiz Gonzaga Morettin
Introdução à Estatística
A Estatística é a ciência que coleta, organiza, analisa e interpreta dados para auxiliar na tomada de decisões. Ao longo do tempo, a estatística tem desempenhado um papel essencial em várias áreas, como ciência, economia, saúde e políticas públicas.
Exemplo de Coleta de Dados
Um exemplo clássico de coleta de dados estatísticos é o censo, onde uma amostra da população é estudada para obter informações demográficas.
A probabilidade é um conceito fundamental na estatística. A definição clássica de probabilidade é baseada no número de resultados favoráveis dividido pelo número total de resultados possíveis.
A probabilidade condicional de um evento A dado que o evento B ocorreu é calculada como:
P(A|B)=P(A∩B)P(B),P(B)>0
A inferência estatística envolve o uso de dados de amostra para fazer inferências sobre uma população. Existem dois tipos principais de inferência: estimativa e teste de hipóteses.
A estimativa envolve o uso de dados amostrais para calcular estimativas pontuais ou intervalares de parâmetros populacionais. Por exemplo, a média amostral é uma estimativa pontual da média populacional.
O teste de hipóteses é uma metodologia para tomar decisões baseadas em dados amostrais. Um teste de hipóteses típico envolve a formulação de uma hipótese nula (H0) e uma hipótese alternativa (H1), e o cálculo de um valor p para determinar se H0 deve ser rejeitada.
Uma variável aleatória é uma função que associa um número real a cada resultado de um experimento aleatório. As variáveis aleatórias podem ser classificadas em dois tipos: discretas e contínuas.
A distribuição de probabilidade de uma variável aleatória descreve a probabilidade de que ela assuma cada um de seus possíveis valores. Para uma variável aleatória discreta X, a função de probabilidade é dada por:
P(X=xi)=pi,∑ipi=1
Já para uma variável aleatória contínua, a função densidade de probabilidade é tal que:
P(a≤X≤b)=∫bafX(x)dx
A distribuição binomial descreve o número de sucessos em uma sequência de experimentos independentes de Bernoulli. A probabilidade de obter exatamente k sucessos em n tentativas é dada pela fórmula:
P(X = k) = \binom{n}{k} p^k (1-p)^{n-k} onde p é a probabilidade de sucesso em cada tentativa.
Suponha que estamos jogando uma moeda 10 vezes e que a probabilidade de obter cara em cada jogada seja 0,5. A probabilidade de obter exatamente 6 caras é:
P(X = 6) = \binom{10}{6} 0,5^6 (1-0,5)^{4}
A distribuição normal, também conhecida como distribuição Gaussiana, é uma das distribuições mais importantes na estatística. A função densidade de probabilidade da distribuição normal é dada por:
f(x) = \frac{1}{\sigma \sqrt{2\pi}} \exp \left( -\frac{(x - \mu)^2}{2\sigma^2} \right)
onde \mu é a média e \sigma^2 é a variância.
Um intervalo de confiança fornece uma estimativa para um parâmetro populacional com um grau de confiança especificado. O intervalo de confiança para a média populacional \mu, com variância conhecida \sigma^2, é dado por:
\left( \bar{x} - z_{\alpha/2} \frac{\sigma}{\sqrt{n}}, \bar{x} + z_{\alpha/2} \frac{\sigma}{\sqrt{n}} \right)
onde \bar{x} é a média amostral, n é o tamanho da amostra, e z_{\alpha/2} é o valor crítico da distribuição normal padrão correspondente ao nível de confiança \alpha.
No teste de hipóteses, formulamos uma hipótese nula H_0 e uma hipótese alternativa H_1, e usamos dados amostrais para decidir se devemos rejeitar H_0. O processo envolve a escolha de uma estatística de teste, a definição de uma região crítica e o cálculo de um valor p.
A regressão linear é uma técnica utilizada para modelar a relação entre uma variável dependente Y e uma ou mais variáveis independentes X. O modelo de regressão linear simples é dado por:
Y = \beta_0 + \beta_1 X + \epsilon
onde \beta_0 é o intercepto, \beta_1 é o coeficiente de regressão e \epsilon é o termo de erro.
O método dos mínimos quadrados é utilizado para estimar os parâmetros \beta_0 e \beta_1 minimizando a soma dos quadrados dos resíduos:
S(\beta_0, \beta_1) = \sum_{i=1}^{n} (y_i - \beta_0 - \beta_1 x_i)^2
Morettin, Luiz Gonzaga Estatística básica : probabilidade e inferência, volume único I Luiz Gonzaga Morettin. – São Paulo : Pearson Prentice Hall, 201 O.