Em todos os problemas de inferência estatística considerados, assumimos que a distribuição da variável aleatória que está sendo amostrada seja conhecida a menos, talvez, para alguns parámetros. Na prática, entretanto, a forma funcional da distribuição é raramente ou nunca conhecida. Por conseguinte, é desejável conceber alguns procedimentos que estejam livres desta hipótese relativa à distribuição.

Para entender a ideia de estatística não paramétrica, primeiro requeremos uma compreensão de conceitos da estatística básica paramétrica. O termo estatística não paramétrica foi usado pela primeira vez por Jacob Wolfowitz em 1942. Conceitos elementares introduzem o teste de significância estatística com base na distribuição amostral de uma estatística particular. Em resumo, se tivermos um conhecimento básico da distribuição subjacente de uma variável, poderemos fazer previsões sobre como, em amostras repetidas de tamanho igual, essa estatística específica se comportará, isto é, como será distribuída.

Estudamos aqui alguns procedimentos que são comumente referidos como métodos sem distribuição ou não paramétricos. O termo livre de distribuição refere-se ao fato de que nenhuma suposição é feita sobre a distribuição subjacente, exceto que a função de distribuição sendo amostrada seja absolutamente contínua ou puramente discreta. O termo não paramétrico refere-se ao fato de não haver parâmetros envolvidos no sentido tradicional do termo parâmetro utilizado até o momento. Nos dois exemplos seguintes mostramos distribuições conhecidas que são livres de parâmetros.


Exemplo 1.

Seja \(X\sim t(n)\), ou seja, seja \(X\) uma variável aleatória com distribuição t-Student com \(n\) graus de liberdade. Isto significa que \(X\) tem por função de densidade \[\begin{equation} f(x)=\dfrac{\Gamma\big(\frac{n+1}{2}\big)}{\Gamma\big(\frac{n}{2}\big)\sqrt{n\pi}}\Big( 1+\frac{x^2}{n} \Big)^{-\frac{n+1}{2}}, \end{equation}\] para \(x\in (-\infty,\infty)\). Mostramos a forma desta função de densidade, quando \(n=3\), na figura abaixo à esquerda.

Seja \(X\sim \chi^2(n)\), ou seja, seja \(X\) uma variável aleatória com distribuição qui-quadraado com \(n\) graus de liberdade. Isto significa que \(X\) tem por função de densidade \[\begin{equation} f(x)=\dfrac{1}{\Gamma\big(\frac{n}{2}\big)2^{n/2}} e^{-x/2} x^{n/2-1}, \end{equation}\] para \(x\in (0,\infty)\). Mostramos a forma desta função de densidade, quando \(n=3\), na figura acima à direita.

library(ggplot2)
library(patchwork)

# 2. Definir o primeiro gráfico: t-Student(3)
p1 <- ggplot(data.frame(x = c(-5, 5)), aes(x = x)) +
  stat_function(fun = dt, args = list(df = 3), color = "blue", size = 1) +
  labs(title = "t-Student (df=3)",
       x = "Valor",
       y = "Densidade") +
  theme_minimal()

# 3. Definir o segundo gráfico: Qui-quadrado(3)
p2 <- ggplot(data.frame(x = c(0, 15)), aes(x = x)) +
  stat_function(fun = dchisq, args = list(df = 3), color = "red", size = 1) +
  labs(title = "Qui-Quadrado (df=3)",
       x = "Valor",
       y = "Densidade") +
  theme_minimal()

# 4. Combinar os gráficos na mesma linha usando o patchwork
p1 + p2


Grosseiramente falando, um procedimento não paramétrico é um procedimento estatístico que possui certas propriedades desejáveis que mantêm suposições relativamente leves em relação às populações subjacentes das quais os dados são obtidos. O desenvolvimento repetido e contínuo de procedimentos estatísticos não paramétricos nas últimas décadas deve-se às seguintes vantagens de técnicas não paramétricas:



Como suporte computacional utilizamos a linguagem de programação e ambiente de desenvolvimento integrado para cálculos estatísticos e gráficos R:

R.version.string
## [1] "R version 4.5.3 (2026-03-11)"


Índice:


  • Estatística não paramétrica
    1. Estimação não paramétrica
      1.1. Estimação de densidades

    2. Exercícios

    3. Bibliografia

  • Procedimentos em amostra única
    1. Testes de bondade de ajuste
      1.1. Teste qui-quadrado
      1.2. Teste Kolmogorov-Smirnov
      1.3. Teste Lilliefors
      1.4. Teste Cramér-von Mises
      1.5. Teste Anderson-Darling
      1.6. Teste Jarque-Bera
      1.7. Análise visual

    2. Problema de posição
      2.1. O teste do sinal
      2.2. Teste de Wilcoxon

    3. Testes de aleatoriedade
      3.1. Teste baseados no número total de corridas
      3.2. Momentos de R na distribuição nula
      3.3. Distribuição nula de R assintótica
      3.4. Teste baseado nos postos

    4. Métodos de reamostragem
      4.1. Jackknife
      4.1.1. O estimador jackknife do vício
      4.1.2. O estimador jackknife da variância
      4.2. Bootstrap
      4.2.1. Descrição do método bootstrap
      4.2.2. Intervalos confidenciais bootstrap

    5. Exercícios

    6. Bibliografia

  • Procedimentos em \(k\) amostras
    1. Procedimentos de amostra única e com amostras pareadas
      1.1. Intervalo de confiança para o quantil populacional
      1.2. Teste de hipótese para um quantil populacional
      1.3. Procedimento com amostras pareadas

    2. O problema geral de duas amostras
      2.1. Teste de Wald-Wolfowitz
      2.2. Teste Kolmogorov-Smirnov para duas amostras
      2.3. O teste da mediana
      2.4. Teste \(U\) de Mann-Whitney

    3. Medidas de associação em classificações múltiplas
      3.1. Extensão do teste da mediana
      3.2. Análise de Variância por postos de Friedman
      3.3. Comparações múltiplas não paramétricas e intervalos de confiança simultâneos

    4. Medidas de dependência
      4.1. Coeficiente de associação de Kendall
      4.2. Coeficiente de associação de Spearman

    5. Exercícios

    6. Bibliografia

  • Regressão não paramétrica