2 Vetores Aleatórios e Suas Características
No capítulo anterior, estabelecemos a motivação para a análise multivariada: a necessidade de entender sistemas complexos onde múltiplas variáveis interagem. Para fazer isso de maneira formal e rigorosa, precisamos primeiro definir o objeto matemático central de nosso estudo. Em vez de começar com uma tabela de dados, começamos com o conceito que gera esses dados: o vetor aleatório.
2.1 O Vetor Aleatório
Imagine que, para uma população de interesse (e.g., todos os estudantes de uma universidade), associamos a cada membro um conjunto de \(p\) características que nos interessam (e.g., nota em matemática, nota em história, horas de estudo). Antes de observarmos um membro específico, os valores dessas características são incertos. Podemos modelar essa incerteza tratando cada característica como uma variável aleatória.
Definição 2.1 Um vetor aleatório \(\mathbf{x}\) é um vetor-coluna cujos componentes são \(p\) variáveis aleatórias, \(X_1, X_2, \ldots, X_p\).
\[ \mathbf{x} = \begin{pmatrix} X_1 \\ X_2 \\ \vdots \\ X_p \end{pmatrix} \]
Este vetor é a representação matemática de uma “observação multivariada” em nível populacional. Toda a teoria da análise multivariada se baseia na compreensão das propriedades e da estrutura de distribuição deste vetor.
- Uma letra minúscula em negrito (e.g., \(\mathbf{x}\)) denota um vetor aleatório.
- Uma letra maiúscula comum (e.g., \(X_j\)) denota uma variável aleatória escalar, o \(j\)-ésimo componente do vetor.
- Mais adiante, uma letra maiúscula em negrito (e.g., \(\mathbf{X}\)) será usada para a matriz de dados (amostral).
- O apóstrofo (\('\)) denota transposição matricial. Por exemplo, \(\mathbf{A}'\) é a transposta de \(\mathbf{A}\).
2.2 Parâmetros Populacionais
Assim como variáveis aleatórias escalares são caracterizadas por parâmetros como a média (expectativa) e a variância, os vetores aleatórios também o são. Esses parâmetros descrevem a tendência central, a dispersão e as inter-relações das variáveis que compõem o vetor.
Definição 2.2 O vetor de médias populacional, denotado por \(\boldsymbol{\mu}\), é o vetor das expectativas de cada uma de suas variáveis componentes.
\[ \boldsymbol{\mu} = E[\mathbf{x}] = \begin{pmatrix} E[X_1] \\ E[X_2] \\ \vdots \\ E[X_p] \end{pmatrix} = \begin{pmatrix} \mu_1 \\ \mu_2 \\ \vdots \\ \mu_p \end{pmatrix} \]
Geometricamente, \(\boldsymbol{\mu}\) representa o centróide (centro de massa) da distribuição de probabilidade no espaço \(p\)-dimensional.
Definição 2.3 A matriz de covariâncias populacional, denotada por \(\boldsymbol{\Sigma}\), é uma matriz simétrica \(p \times p\) cujo elemento \((j, k)\) é a covariância entre a \(j\)-ésima e a \(k\)-ésima variável aleatória, \(\sigma_{jk} = \text{Cov}(X_j, X_k) = E[(X_j - \mu_j)(X_k - \mu_k)]\).
\[ \boldsymbol{\Sigma} = \text{Cov}[\mathbf{x}] = E[(\mathbf{x} - \boldsymbol{\mu})(\mathbf{x} - \boldsymbol{\mu})'] = \begin{pmatrix} \sigma_{11} & \sigma_{12} & \cdots & \sigma_{1p} \\ \sigma_{21} & \sigma_{22} & \cdots & \sigma_{2p} \\ \vdots & \vdots & \ddots & \vdots \\ \sigma_{p1} & \sigma_{p2} & \cdots & \sigma_{pp} \end{pmatrix} \]
- Diagonal (\(\sigma_{jj}\)): As variâncias, \(\text{Var}(X_j)\), medem a dispersão de cada variável.
- Fora da Diagonal (\(\sigma_{jk}\)): As covariâncias, medem a tendência de associação linear entre as variáveis \(X_j\) e \(X_k\).
- Simetria: A matriz é simétrica, pois \(\text{Cov}(X_j, X_k) = \text{Cov}(X_k, X_j)\), o que implica \(\sigma_{jk} = \sigma_{kj}\).
Definição 2.4 A matriz de correlações populacional, denotada por \(\mathbf{P}\), é uma versão reescalada da matriz de covariâncias, com elementos \(\rho_{jk} = \frac{\sigma_{jk}}{\sqrt{\sigma_{jj}}\sqrt{\sigma_{kk}}}\).
\[ \mathbf{P} = \begin{pmatrix} 1 & \rho_{12} & \cdots & \rho_{1p} \\ \rho_{21} & 1 & \cdots & \rho_{2p} \\ \vdots & \vdots & \ddots & \vdots \\ \rho_{p1} & \rho_{p2} & \cdots & 1 \end{pmatrix} \]
Seus elementos \(\rho_{jk}\) variam de -1 a 1, fornecendo uma medida de associação linear livre de escala.
2.3 Propriedades de \(\boldsymbol{\mu}\) e \(\boldsymbol{\Sigma}\)
As propriedades de combinações lineares são generalizações diretas dos resultados univariados. Seja \(\mathbf{x}\) um vetor aleatório \(p\)-dimensional com média \(\boldsymbol{\mu}\) e covariância \(\boldsymbol{\Sigma}\). Sejam \(\mathbf{c}\) um vetor de constantes \(p \times 1\) e \(\mathbf{A}\) uma matriz de constantes \(q \times p\).
Esperança de uma Combinação Linear: \[ E[\mathbf{A}\mathbf{x} + \mathbf{c}] = \mathbf{A}E[\mathbf{x}] + \mathbf{c} = \mathbf{A}\boldsymbol{\mu} + \mathbf{c} \]
Covariância de uma Combinação Linear: \[ \text{Cov}[\mathbf{A}\mathbf{x} + \mathbf{c}] = \mathbf{A} \text{Cov}[\mathbf{x}] \mathbf{A}' = \mathbf{A}\boldsymbol{\Sigma}\mathbf{A}' \]
No próximo capítulo, veremos como, na prática, não temos acesso a esses parâmetros populacionais (\(\boldsymbol{\mu}\), \(\boldsymbol{\Sigma}\), \(\mathbf{P}\)), mas podemos usar dados observados para obter estimativas confiáveis deles.