윌콕슨 순위 합 검정 (Wilcoxon rank sum test) = 만-휘트니 U 검정 (Mann–Whitney U test) = Mann-Whitney-Wilcoxon (MWW)

+ 이나스AI에는 인공지능 관련 다양한 강의가 있습니다.

- Object detection, Text To Speech, Reinforcement learning, OCR, Chatbot, Time series prediction,

- Meta learning, eXplainable AI, Transformer/BERT/GPT, Graph-based ML, etc

- 소스코드, 다이어그램 및 중간데이터에 기반하여 인공지능 알고리즘들의 작동원리와 구조를 이해하기 쉽고 정확하게 설명합니다.


+ 작업할 때 켜놓는 라이브 스트리밍 study with me 채널도 운영하고 있습니다.



1. 개념

- 두 개의 표본이 있을 때, 이 두 표본의 중앙값에 차이가 있는지 검정하는 비모수적 방법이다.

- 두 개의 표본을 합한 결합표본을 오름차순 정렬했을 때 생성되는 순위값을 각 표본의 원본 데이터에 부여하고, 부여된 순위를 합하는 과정을 통해 검정한다.

- 두 표본은 동일한 분포를 가지며 독립된 두개의 모집단에서 추출되었다는 가정이 필요하다.



2. 검정 방법

2-1. 가설 설정

- 두 모집단 중앙값의 차를 $$$\Delta$$$ 라고 둔다.

$$$H_0$$$ : $$$\Delta=0$$$ (두 모집단의 중앙값에 차이가 없다)

$$$H_1$$$ : $$$\Delta>0$$$ or $$$\Delta<0$$$ or $$$\Delta\ne 0$$$ (두 모집단의 중앙값에 차이가 있다)

2-2. 검정 통계량 계산

- 두 표본 중 하나의 표본 기준으로 검정통계량값을 계산한다.

- 아래에서는 두 표본 i, j 중 i 기준으로 작성함.

$$$\mu_w = \mathbb{E}[R_{i}] = n_i \times \dfrac{N+1}{2}$$$

$$$\sigma_w = \sqrt{\dfrac{n_i n_j (N+1)}{12}}$$$

$$$W_i = \sum\limits_{i=1}^{n_i}R_i$$$

$$$Z = \dfrac{W_i-\mu_w}{\sigma_w}$$$

where,

$$$n_i$$$ = 표본i의 크기

$$$n_j$$$ = 표본j의 크기

$$$N$$$ = 표본 i와 j를 결합한 표본의 크기

$$$\mu_w = \mathbb{E}[R_{i}]$$$ = 표본i에서 순위(rank) 의 기대값

$$$W_i$$$ = 표본i의 순위 합


2-3. 기각 여부

- 계산된 Z 값이 정의된 significance level $$$\alpha$$$ 하에서, 기각역을 벗어나는 경우 $$$H_0$$$ 를 기각한다.

- 대립가설의 부등호에 따라 양측검정, 단측검정을 할 수 있다.



3. 예시

3-1. 데이터 정의

표본1 = {123.5, 125.3, 126.5, 127.9, 122.1, 125.6, 129.8, 117.2}

표본2 = {117.1, 121.3, 127.8, 121.9, 117.4, 124.5, 119.5, 115.1}

3-2. 결합표본 생성 및 정렬

순위가 부여된 결합표본 = {115.1: 1, 117.1: 2, 117.2: 3, 117.4: 4, 119.5: 5, 121.3: 6, 121.9: 7, 122.1: 8, 123.5: 9, 124.5: 10, 125.3: 11, 125.6: 12, 126.5: 13, 127.8: 14, 127.9: 15, 129.8: 16}

3-3. 각 표본에 순위 부여

표본1 = {123.5: 9, 125.3: 11, 126.5: 13, 127.9: 15, 122.1: 8, 125.6: 12, 129.8: 16, 117.2: 3}

표본2 = {117.1: 2, 121.3: 6, 127.8: 14, 121.9: 7, 117.4: 4, 124.5: 10, 119.5: 5, 115.1: 1}

3-4. 데이터 크기 산출

$$$n_1=8$$$

$$$n_2=8$$$

$$$N=16$$$

3-5. 검정통계량 산출

$$$\mu_w = \mathbb{E}[R_{1}] = n_1 \times \dfrac{N+1}{2}= 8 \times \dfrac{16+1}{2} = 68$$$

$$$\sigma_w = \sqrt{\dfrac{n_1 n_2 (N+1)}{12}} = \sqrt{\dfrac{8\times 8 (16+1)}{12}} = 9.52$$$

$$$W_1 = \sum\limits_{i=1}^{n_1}R_i = 9 + 11 + 13 + 15 + 8 + 12 + 16 + 3  = 87$$$

$$$Z = \dfrac{W_1-\mu_w}{\sigma_w} = \dfrac{87-68}{9.52} = 1.99$$$


3-6. 기각 여부

  - Significance level $$$\alpha=0.05$$$ 로 양측검정을 했을때, Z (파랑)이 기각역 (빨강)을 벗어나므로 귀무가설을 기각한다.



https://www.youtube.com/watch?v=AM87jjnNt8U

https://3months.tistory.com/128




+ 이나스AI에는 인공지능 관련 다양한 강의가 있습니다.

- Object detection, Text To Speech, Reinforcement learning, OCR, Chatbot, Time series prediction,

- Meta learning, eXplainable AI, Transformer/BERT/GPT, Graph-based ML, etc

- 소스코드, 다이어그램 및 중간데이터에 기반하여 인공지능 알고리즘들의 작동원리와 구조를 이해하기 쉽고 정확하게 설명합니다.


+ 작업할 때 켜놓는 라이브 스트리밍 study with me 채널도 운영하고 있습니다.

댓글

이 블로그의 인기 게시물

[논문 full 번역 + 이해를 위한 추가설명] CRNN, An End-to-End Trainable Neural Network for Image-based Sequence Recognition and Its Application to Scene Text Recognition

[논문 full 번역 + 이해를 위한 추가설명] DQN, Playing Atari with Deep Reinforcement Learning

CUDA 와 CuDNN 의 설치, 삭제 및 버전 변경