Visualização interativa de Análise de Componentes Principais, elipses de covariância e autovetores para entender a redução de dimensionalidade
Mede como as variáveis variam juntas. Para dados centralizados: Σ = (1/n)XᵀX. Elementos diagonais são variâncias, fora da diagonal são covariâncias.
Direções principais de variância máxima. Vetores ortogonais que definem os eixos da elipse de covariância. O primeiro autovetor aponta na direção de variância máxima.
Quantidade de variância explicada por cada autovetor. Maior autovalor significa mais variância nessa direção. Os quadrados dos comprimentos dos semieixos da elipse de covariância.
Representação visual da matriz de covariância. Mostra a forma e orientação da distribuição de dados. Semieixos alinhados com autovetores, comprimentos proporcionais a √autovalores.
Subtrair a média de cada dimensão: x_centered = x - μ. Essencial para o PCA encontrar direções de variância máxima ao redor da média.
Manter apenas os k primeiros componentes principais reduz dimensões preservando variância máxima. Erro de reconstrução = soma dos autovalores descartados.
Para matriz de dados centralizados X, Σ = (1/n)XᵀX
Σ pode ser decomposta como Σ = QΛQᵀ onde Q contém autovetores e Λ é matriz diagonal de autovalores
Projeta dados nos componentes principais (rotação e possivelmente projeção)
Reconstrói dados usando apenas k componentes principais
Fração da variância total explicada pelo primeiro componente principal
Equação paramétrica para elipse de covariância em 1σ (multiplicar por k para elipse kσ)
Subtrair a média de cada dimensão: x_centered = x - μ. Isso desloca os dados para ficarem centralizados na origem.
Calcular Σ = (1/n)XᵀX onde X é a matriz de dados centralizados. Isso captura como as variáveis variam juntas.
Resolver Σv = λv. Ordenar autovetores por autovalores em ordem decrescente. Maiores autovalores indicam direções de mais variância.
Transformar dados: z = Qᵀ(x - μ). Isso rotaciona o sistema de coordenadas para alinhar com direções principais.
Manter apenas os k primeiros componentes: z_k = Q_kᵀ(x - μ). Isso reduz dimensões preservando variância máxima.
Reconstruir de k componentes: x̂ = Q_k z_k + μ. Erro de reconstrução = soma dos autovalores descartados.
Projetar dados de alta dimensão em 2D ou 3D para visualização preservando o máximo de variância possível. Essencial para análise exploratória de dados.
Extrair representações compactas de características para aprendizado de máquina. Usado em reconhecimento facial (Eigenfaces), reconhecimento de escrita, etc.
Remover ruído reconstruindo com menos componentes. Ruído tipicamente capturado por menores autovalores (CPs posteriores).
Comprimir imagens mantendo os k primeiros componentes principais. Alcançar compressão significativa preservando características principais.
Detectar valores atípicos medindo o erro de reconstrução. Anomalias têm alto erro de reconstrução ao usar poucos CPs.
Lidar com características correlacionadas na análise de regressão. O PCA transforma em componentes ortogonais (não correlacionados).
A elipse de covariância torna-se um círculo (ou alinhada aos eixos). Sem direção preferida. Variância igual em todas as direções. Os autovalores são iguais.
Os dados tendem para cima. A elipse de covariância inclina 45°. O primeiro autovetor aponta na direção da tendência.
Os dados tendem para baixo. A elipse de covariância inclina -45°. Relação inversa entre variáveis.
A elipse degenerada torna-se uma linha. Um autovalor aproxima-se de zero. Os dados são essencialmente 1D. Reconstrução perfeita com 1 CP.
Ruído alto aumenta ambos os autovalores igualmente. Torna a elipse mais circular. Reduz a vantagem da redução de dimensionalidade.
Autovetores são direções que não mudam de direção sob a transformação linear. Eles são os 'eixos naturais' da distribuição de dados.