Covariance estimation
Matrix algebra review
Covariance matrix estimation in the operator norm
::: {.theorem name=“Covariance estimation”}
s.t. .
Let sample Cov matrix based on .
Then there exists a universal constant s.t. below holds with probabilty at least .
:::
- 이건 결국 일 때 operator norm 안의 를 계속해서 estimate 할 수 있다는 것을 말함. 실제로 추가적인 가정 없이는 이 rate 이상으로 측정을 정밀화할 수 없음.
증명을 2단계로 분할.
- discretization argument 를 써서 문제를 finitely 많은 랜덤변수의 maximum 을 제어하는 문제로 변경. 이하의 정보와 함께 finite maximum 라는 사실 사용해서 에 대한 상한 생산.
let 로 하고, 을 의 -covering 으로 함.
이때 .
이를 증명하자. 에 대해 만족하는 선택. 이때 는 symmetric Matrix 이므로,
여기서 는 symmetric Matrix 이므로, .
\tag{5.1}
- , and
Applying the same argument to then gives .
To complete the proof of inequality (5.1), note that
This implies that and rearranging the terms yields inequality (5.1).
- standard concentration inequality 사용.
Step 2. By choosing = 1/4, inequality (5.2) becomes
Therefore by the union bound
Note that we can write
We saw earlier in Lemma 3.3 that the square of a sub-Gaussian random variable is sub-exponential with parameters . This property implies that is sub-exponential with . Applying the sub-exponential tail bound, especially inequality (3.2), yields
where the last step uses the result in Lecture 4, which shows that the cardinality of is bounded by . (here note that ). Finally, inverting the bound gives the desired result.
Bounds for structured covariance matrices
우리의 주된 목적은 샘플 Cov를 경유하여 unstructured Cov Matrix를 estimate 하는 것. Cov Matrix 가 추가적인 structure 를 품고 있다면, 샘플 Cov 가 아니라 다른 estimator 를 사용해서 좀더 연산이 빠른 estimate 가 가능.
- Diagonal matrix
Cov Matrix 가 diagonal이라는 정보를 가지고 있다고 해보자. 이때 로 estimate 하는 것은 자연스럽다. 이 경우 sub-Gaussinianity 를 가정한다면 어떻게 될까? unstructured 케이스에서 order 가 rates (단, ) 였던 것과 대비되게 estimation error of the order $\sqrt{\frac{\log d}{n}} 가 생산된다.
좀 더 자세히 살펴보자. diagonal 케이스에서, 의 operator norm 은 본질적으로 개의 entry값 중의 maximum 이다. 그렇다면 여기서 the union bound argument along with an exponential tail bound 를 통해 우리는 일 때 operator norm 이 0로 decay 된다는 것을 파악할 수 있다. See Theorem 2.11 for a similar argument.
- Unknown sparsity and thresholding
좀더 일반적인 케이스를 생각해보자. Cov Matrix가 상대적으로 sparse 하다는 사실이 알려져 있지만, 어느 entry가 non-zero인지는 알려져있지 않다. 이때 estimator가 thresholding 에 기반하고 있다고 생가가흔 넉승 나젼스럽다. 이때 라는 패러미터가 주어져 있다고 생각할 때, hard-thresholding 을 통해 얻어지는 Cov estimator 의 entry 는 .
let 의 adjacency matrix , . adjacency matrix 의 operator norm 는 sparsity 에 대한 natural measure 를 제공한다. 이때 우리는 가 row 별로 개의 non-zero entry를 갖고 있다면 임을 보일 수 있다. 또한 thresholded 샘플 Cov Matrix 는 다음과 같은 concentration bound를 가짐.
::: {.theorem name=“Thresholding-based covariance estimation”}
, s.t. , and suppose each component is sub-Gaussinian with 패러미터 at most .
만약 라면, 에 대해, thresholded 샘플 Cov Matrix with 는 이하를 만족한다.
:::
-
위의 부등식은 높은 확률로 임을 보여줌. 이에 더해서 가 row 당 최대 개의 non-zero entry 를 가진다는 조건을 생각하자. 이는 곧 라는 의미가 됨. 그렇다면 thresholded Cov Matrix는 일 때 consistent 하며, 이는 곧 특히 가 작을 때 보다 훨씬 빠르다.
-
thresholding 패러미터는 sub-Gaussian 패러미터 에 의존하는데, 이는 실전 상황에서는 대부분 unknown.
Proof: Let us denote the elementwise infinity norm of the error matrix by . The proof of the theorem is based on two intermediate results:
\
- Under the assumptions of the theorem,
\mathbb{P}(||\widehat{\Delta}||_{\infty}/\sigma^{2}\geq t)\leq8e^{-{\frac{n}{16}}\operatorname*{min}\{t,t^{2}\}+2\log d}\quad\mathrm{for~all~}t\gt 0 \tag{5.3}
- For any choice of such that we are guaranteed that
||\widehat{\Sigma}-\Sigma||_{\mathrm{lop}}\leq\ 2||A||_{\mathrm{op}}\lambda_{n} \tag{5.4}
\
Having these results in place, the theorem follows by taking in inequality (5.3) and see
, when . Thus
It remains to prove inequality (5.3) and inequality (5.4), which are left as exercises (see Section 6.5 of Martin’s book)
It remains to prove inequality (5.3) and inequality (5.4), which are left as exercises (see Section 6.5 of Martin’s book)