Em todos os problemas de inferência estatística considerados, assumimos que a distribuição da variável aleatória que está sendo amostrada seja conhecida a menos, talvez, para alguns parámetros. Na prática, entretanto, a forma funcional da distribuição é raramente ou nunca conhecida. Por conseguinte, é desejável conceber alguns procedimentos que estejam livres desta hipótese relativa à distribuição.
Para entender a ideia de estatística não paramétrica, primeiro
requeremos uma compreensão de conceitos da estatística básica
paramétrica. O termo estatística não paramétrica foi usado
pela primeira vez por Jacob Wolfowitz em 1942. Conceitos elementares
introduzem o teste de significância estatística com base na distribuição
amostral de uma estatística particular. Em resumo, se tivermos um
conhecimento básico da distribuição subjacente de uma variável,
poderemos fazer previsões sobre como, em amostras repetidas de tamanho
igual, essa estatística específica se comportará, isto é, como será
distribuída.
Estudamos aqui alguns procedimentos que são comumente referidos como métodos sem distribuição ou não paramétricos. O termo livre de distribuição refere-se ao fato de que nenhuma suposição é feita sobre a distribuição subjacente, exceto que a função de distribuição sendo amostrada seja absolutamente contínua ou puramente discreta. O termo não paramétrico refere-se ao fato de não haver parâmetros envolvidos no sentido tradicional do termo parâmetro utilizado até o momento. Nos dois exemplos seguintes mostramos distribuições conhecidas que são livres de parâmetros.
Exemplo 1.
Seja \(X\sim t(n)\), ou seja, seja \(X\) uma variável aleatória com distribuição t-Student com \(n\) graus de liberdade. Isto significa que \(X\) tem por função de densidade \[\begin{equation} f(x)=\dfrac{\Gamma\big(\frac{n+1}{2}\big)}{\Gamma\big(\frac{n}{2}\big)\sqrt{n\pi}}\Big( 1+\frac{x^2}{n} \Big)^{-\frac{n+1}{2}}, \end{equation}\] para \(x\in (-\infty,\infty)\). Mostramos a forma desta função de densidade, quando \(n=3\), na figura abaixo à esquerda.
Seja \(X\sim \chi^2(n)\), ou seja, seja \(X\) uma variável aleatória com distribuição qui-quadraado com \(n\) graus de liberdade. Isto significa que \(X\) tem por função de densidade \[\begin{equation} f(x)=\dfrac{1}{\Gamma\big(\frac{n}{2}\big)2^{n/2}} e^{-x/2} x^{n/2-1}, \end{equation}\] para \(x\in (0,\infty)\). Mostramos a forma desta função de densidade, quando \(n=3\), na figura acima à direita.
library(ggplot2)
library(patchwork)
# 2. Definir o primeiro gráfico: t-Student(3)
p1 <- ggplot(data.frame(x = c(-5, 5)), aes(x = x)) +
stat_function(fun = dt, args = list(df = 3), color = "blue", size = 1) +
labs(title = "t-Student (df=3)",
x = "Valor",
y = "Densidade") +
theme_minimal()
# 3. Definir o segundo gráfico: Qui-quadrado(3)
p2 <- ggplot(data.frame(x = c(0, 15)), aes(x = x)) +
stat_function(fun = dchisq, args = list(df = 3), color = "red", size = 1) +
labs(title = "Qui-Quadrado (df=3)",
x = "Valor",
y = "Densidade") +
theme_minimal()
# 4. Combinar os gráficos na mesma linha usando o patchwork
p1 + p2
Grosseiramente falando, um procedimento não paramétrico é um procedimento estatístico que possui certas propriedades desejáveis que mantêm suposições relativamente leves em relação às populações subjacentes das quais os dados são obtidos. O desenvolvimento repetido e contínuo de procedimentos estatísticos não paramétricos nas últimas décadas deve-se às seguintes vantagens de técnicas não paramétricas:
Como suporte computacional utilizamos a linguagem de programação e ambiente de desenvolvimento integrado para cálculos estatísticos e gráficos R:
R.version.string
## [1] "R version 4.5.3 (2026-03-11)"
Índice:
Estimação não paramétrica
1.1. Estimação de
densidades
Exercícios
Bibliografia
Testes de bondade de ajuste
1.1. Teste qui-quadrado
1.2.
Teste Kolmogorov-Smirnov
1.3. Teste Lilliefors
1.4. Teste
Cramér-von Mises
1.5. Teste Anderson-Darling
1.6. Teste
Jarque-Bera
1.7. Análise visual
Problema de posição
2.1. O teste do sinal
2.2. Teste de
Wilcoxon
Testes de aleatoriedade
3.1. Teste baseados no número total
de corridas
3.2. Momentos de R na distribuição nula
3.3.
Distribuição nula de R assintótica
3.4. Teste baseado nos
postos
Métodos de reamostragem
4.1. Jackknife
4.1.1. O estimador
jackknife do vício
4.1.2. O estimador jackknife da variância
4.2. Bootstrap
4.2.1. Descrição do método bootstrap
4.2.2.
Intervalos confidenciais bootstrap
Exercícios
Bibliografia
Procedimentos de amostra única e com amostras pareadas
1.1.
Intervalo de confiança para o quantil populacional
1.2. Teste de
hipótese para um quantil populacional
1.3. Procedimento com amostras
pareadas
O problema geral de duas amostras
2.1. Teste de
Wald-Wolfowitz
2.2. Teste Kolmogorov-Smirnov para duas amostras
2.3. O teste da mediana
2.4. Teste \(U\) de Mann-Whitney
Medidas de associação em classificações múltiplas
3.1.
Extensão do teste da mediana
3.2. Análise de Variância por postos de
Friedman
3.3. Comparações múltiplas não paramétricas e intervalos de
confiança simultâneos
Medidas de dependência
4.1. Coeficiente de associação de
Kendall
4.2. Coeficiente de associação de Spearman
Exercícios
Bibliografia