런 검정 (Run test)

+ 이나스AI에는 인공지능 관련 다양한 강의가 있습니다.

- Object detection, Text To Speech, Reinforcement learning, OCR, Chatbot, Time series prediction,

- Meta learning, eXplainable AI, Transformer/BERT/GPT, Graph-based ML, etc

- 소스코드, 다이어그램 및 중간데이터에 기반하여 인공지능 알고리즘들의 작동원리와 구조를 이해하기 쉽고 정확하게 설명합니다.


+ 작업할 때 켜놓는 라이브 스트리밍 study with me 채널도 운영하고 있습니다.



1. 개념

 - H, T 와 같이 두 종류의 측정값이 연속적으로 생성된다고 하자.

예를 들어, 측정된 데이터는 아래와 같을 수 있다.

T, H, H, T, H, H

- 위와 같은 측정값들이 특정 패턴 없이 나타났는지 검정하는 방법이 런검정이다.

- 동일한 측정값이 이루는 하나의 덩어리를 한 개의 런 이라고 하며, 위의 측정값은 아래와 같이 4개의 런을 갖는 것으로 볼 수 있다.

T / H, H / T / H, H

- 측정값이 이진 데이터가 아니라면, 이진 데이터로 변환해야 한다.

- 런검정을 사용하기 위해서는 데이터가 이진 (binary) 데이터이어야 한다.

- 이진 데이터가 아니라면, 데이터를 이진 데이터로 변환해야 한다.

- 아래의 데이터가 있을 때, 이 데이터의 평균은 3.8이다

2, 4, 2, 5, 6

- 3.8을 기준으로 데이터를 아래와 같이 이진화할 수 있다.

0, 1, 0, 1, 1

- 평균 이외에 중앙값, 최빈값 등의 기준값을 사용할 수 있다.



2. 검정 방법

2-1. 가설 설정

$$$H_0$$$ : 측정값들이 무작위 패턴을 보인다.

$$$H_1$$$ : 측정값들이 무작위 패턴을 보이지 않는다.

2-2. 검정 통계량 계산

- 대표본 및 소표본의 공식이 약간 다르지만, 대표본 기준으로 설명한다.

$$$\mu = \dfrac{2n_1n_2}{n_1+n_2}+1$$$

$$$\sigma^2 = \dfrac{2n_1n_2(2n_1n_2-n_1-n_2)}{(n_1+n_2)^2(n_1+n_2-1)}$$$

$$$z=\dfrac{r-\mu}{\sigma}$$$

$$$n_1, n_2$$$ : 이진화된 측정값에서 각 종류의 개수

r : 런 개수

$$$n = n_1 + n_2$$$ : 측정값의 총개수

2-3. 기각 여부

- 계산된 z 값이 기각역을 벗어나는 경우 $$$H_0$$$ 를 기각한다.

기각역은 significance level $$$\alpha=0.05$$$로 사용하고, 양측검정일 때, 하한 = -1.96, 상한 = 1.96 이다.



3. 예시

- 동전 던지기에서 관측된 측정값

T H H T H T H T T H T H H T H T H T T H

- 런 표시 (16개의 런, r=16)

T / H H / T / H / T / H / T T / H / T / H H / T / H / T / H / T T / H

- 측정값 각 종류 및 데이터 총개수 카운트

H : 10개, T : 10개

- 검정통계량 계산

$$$\mu = \dfrac{2\times 10 \times 10}{10+10}+1=11$$$

$$$\sigma^2 = \dfrac{2\times 10 \times 10\times (2\times 10 \times 10-10-10)}{(10+10)^2(10+10-1)}=4.73$$$

$$$z=\dfrac{16-11}{\sqrt{4.73}}=2.299$$$

- 기각 여부

  - Significance level $$$\alpha=0.05$$$, 양측검정일 때, 검정통계량 (파랑)과 기각역 (빨강)을 표시하면 아래와 같다.

  - 검정통계량이 기각역을 벗어났으므로, 귀무가설 (측정값이 무작위 패턴)을 기각한다.




+ 이나스AI에는 인공지능 관련 다양한 강의가 있습니다.

- Object detection, Text To Speech, Reinforcement learning, OCR, Chatbot, Time series prediction,

- Meta learning, eXplainable AI, Transformer/BERT/GPT, Graph-based ML, etc

- 소스코드, 다이어그램 및 중간데이터에 기반하여 인공지능 알고리즘들의 작동원리와 구조를 이해하기 쉽고 정확하게 설명합니다.


+ 작업할 때 켜놓는 라이브 스트리밍 study with me 채널도 운영하고 있습니다.

댓글

이 블로그의 인기 게시물

[논문 full 번역 + 이해를 위한 추가설명] CRNN, An End-to-End Trainable Neural Network for Image-based Sequence Recognition and Its Application to Scene Text Recognition

[논문 full 번역 + 이해를 위한 추가설명] DQN, Playing Atari with Deep Reinforcement Learning

CUDA 와 CuDNN 의 설치, 삭제 및 버전 변경