Processing math: 27%

Sumário

EM CONSTRUÇÃO

1 - Introdução

Estatística Básica: Probabilidade e Inferência

Luiz Gonzaga Morettin

Introdução à Estatística

A Estatística é a ciência que coleta, organiza, analisa e interpreta dados para auxiliar na tomada de decisões. Ao longo do tempo, a estatística tem desempenhado um papel essencial em várias áreas, como ciência, economia, saúde e políticas públicas.

Exemplo de Coleta de Dados

Um exemplo clássico de coleta de dados estatísticos é o censo, onde uma amostra da população é estudada para obter informações demográficas.

1.1 - Conceitos Fundamentais

A probabilidade é um conceito fundamental na estatística. A definição clássica de probabilidade é baseada no número de resultados favoráveis dividido pelo número total de resultados possíveis.

1.2 - Probabilidade Condicional

A probabilidade condicional de um evento A dado que o evento B ocorreu é calculada como:

P(A|B)=P(AB)P(B),P(B)>0

1.3 - Inferência Estatística

A inferência estatística envolve o uso de dados de amostra para fazer inferências sobre uma população. Existem dois tipos principais de inferência: estimativa e teste de hipóteses.

1.4 - Estimativa

A estimativa envolve o uso de dados amostrais para calcular estimativas pontuais ou intervalares de parâmetros populacionais. Por exemplo, a média amostral é uma estimativa pontual da média populacional.

1.5 -Teste de Hipóteses

O teste de hipóteses é uma metodologia para tomar decisões baseadas em dados amostrais. Um teste de hipóteses típico envolve a formulação de uma hipótese nula (H0) e uma hipótese alternativa (H1), e o cálculo de um valor p para determinar se H0 deve ser rejeitada.

2 - Variáveis Aleatórias e Distribuições de Probabilidade

Uma variável aleatória é uma função que associa um número real a cada resultado de um experimento aleatório. As variáveis aleatórias podem ser classificadas em dois tipos: discretas e contínuas.

3 - Distribuição de Probabilidade

A distribuição de probabilidade de uma variável aleatória descreve a probabilidade de que ela assuma cada um de seus possíveis valores. Para uma variável aleatória discreta X, a função de probabilidade é dada por:

P(X=xi)=pi,ipi=1

Já para uma variável aleatória contínua, a função densidade de probabilidade é tal que:

P(aXb)=bafX(x)dx

4 - Distribuição Binomial

A distribuição binomial descreve o número de sucessos em uma sequência de experimentos independentes de Bernoulli. A probabilidade de obter exatamente k sucessos em n tentativas é dada pela fórmula:

P(X = k) = \binom{n}{k} p^k (1-p)^{n-k} onde p é a probabilidade de sucesso em cada tentativa.

Suponha que estamos jogando uma moeda 10 vezes e que a probabilidade de obter cara em cada jogada seja 0,5. A probabilidade de obter exatamente 6 caras é:

P(X = 6) = \binom{10}{6} 0,5^6 (1-0,5)^{4}

4.1 - Distribuição Normal

A distribuição normal, também conhecida como distribuição Gaussiana, é uma das distribuições mais importantes na estatística. A função densidade de probabilidade da distribuição normal é dada por:

f(x) = \frac{1}{\sigma \sqrt{2\pi}} \exp \left( -\frac{(x - \mu)^2}{2\sigma^2} \right)

onde \mu é a média e \sigma^2 é a variância.

4.2 - Propriedades da Distribuição Normal

  • A distribuição normal é simétrica em torno de sua média \mu.
  • A variância \sigma^2 controla a dispersão da distribuição.
  • Aproximadamente 68% dos valores estão dentro de um desvio-padrão da média, e 95% estão dentro de dois desvios-padrão.

4.3 - Intervalos de Confiança

Um intervalo de confiança fornece uma estimativa para um parâmetro populacional com um grau de confiança especificado. O intervalo de confiança para a média populacional \mu, com variância conhecida \sigma^2, é dado por:

\left( \bar{x} - z_{\alpha/2} \frac{\sigma}{\sqrt{n}}, \bar{x} + z_{\alpha/2} \frac{\sigma}{\sqrt{n}} \right)

onde \bar{x} é a média amostral, n é o tamanho da amostra, e z_{\alpha/2} é o valor crítico da distribuição normal padrão correspondente ao nível de confiança \alpha.

4.4 - Teste de Hipóteses

No teste de hipóteses, formulamos uma hipótese nula H_0 e uma hipótese alternativa H_1, e usamos dados amostrais para decidir se devemos rejeitar H_0. O processo envolve a escolha de uma estatística de teste, a definição de uma região crítica e o cálculo de um valor p.

4.5 - Erro Tipo I e Tipo II

  • O erro tipo I ocorre quando rejeitamos a hipótese nula H_0 quando ela é verdadeira.
  • O erro tipo II ocorre quando não rejeitamos H_0 quando ela é falsa. A probabilidade de erro tipo I é chamada de nível de significância, geralmente denotada por \alpha.

4.6 - Regressão Linear

A regressão linear é uma técnica utilizada para modelar a relação entre uma variável dependente Y e uma ou mais variáveis independentes X. O modelo de regressão linear simples é dado por:

Y = \beta_0 + \beta_1 X + \epsilon

onde \beta_0 é o intercepto, \beta_1 é o coeficiente de regressão e \epsilon é o termo de erro.

5 - Método dos Mínimos Quadrados

O método dos mínimos quadrados é utilizado para estimar os parâmetros \beta_0 e \beta_1 minimizando a soma dos quadrados dos resíduos:

S(\beta_0, \beta_1) = \sum_{i=1}^{n} (y_i - \beta_0 - \beta_1 x_i)^2

6 - Referências Bibliográficas

Morettin, Luiz Gonzaga Estatística básica : probabilidade e inferência, volume único I Luiz Gonzaga Morettin. – São Paulo : Pearson Prentice Hall, 201 O.