[2021]A Gentle Introduction to Conformal Prediction and Distrubition-Free Uncertainty Quantification
짧은 요약(Abstract) :
*ML 자체가 블랙박스여서 불확실성에 대한 정량화가 필요
**특히 의료분야에서 그냥 쓰기에 위험이 큼
**conformal prediction은 예측모델에 통계적으로 엄밀한 불확실성 집합을 제공
**특히 분포를 모를 때 사용 가능
**사전 학습된 뉴럴네트워크에서 ground truth을 포함하는 것으로 보장된 집을 만들어줌
***이 때, 유저가 특정화한 확률 기반으로 함 90%와 같은
**이해가 쉽고 사용이 쉽고 일반화, 여러 분야에 적용이 쉬움, 예를 들어 cv, nlp, deep 강화학습 등
*본 논문의 목적 및 공헌
**conformal prediction과 관련 분포에서 자유로운 불확실성 정량화 기술 소개
**관련 예제 및 이론 서술-머신러닝 태스크 포함, 타임시리즈, 분포 전환, 아웃라이어 포함
**코드도 제공 단어정리
- rigorious: 엄밀한
- quantification: 정량화
- conformal prediction: confidence level 측정, uncertainty 측정
- quantile: 분위수, 전체 분포를 특정 개수로 나눌 때 기준이 되는 수
- remark: 비고
- conformalizing: 일치하는, 부합하는 -> provide valid intervals of prediction
- deviation: 편차, 통계학에서 deviation은 관측값에서 평균 또는 중앙값을 뺀 것으로, 자료값들이 특정값으로부터 떨어진 정도를 나타내는 수치
- reliable: 신뢰할 수 있는, 믿을만한, 신뢰성
- magnitude: 크기의 정도
- residual: 추정된 식과 관측값의 차이, 예측값과 실제 관측값의 차이, 잔차
- perturbations: 변화를 나타내는 작은 변화, 근사값 추정
- sake: 목적, 이익, 원인, 혜택이나 이득
- multiplicative: 곱셈의, 급격하게 증가하는
- pragmatic: 실용적인
- intersperse: 배치하다
- stratified: 층을 이루게 하다, 계층화하다
- discretize: 연속적인 공간이나 물건을 나누다
- benign: 상냥한, 유순한, 자비로운, 친절한, 양성의(악성이 아닌)
- fluctuation: 파동, 이상한 변화, 변동
- stratify: 층화, 데이터를 분리
- progenitors: 특정한 현상이 발생하기 전의 원인을 찾아내는 것
- progeny: 어떤 현상이 발생한 후의 결과
- precocious: 조숙한, 빠른 학습, 빠르고 높은 성능을 보임
기타 정보(수집된)
- gentle introduction to conformal prediction은 conformal prediction이라는 통계적 기법을 쉽게 설명한 문서입니다.
conformal prediction은 입력에 대해 예측 구간이나 클래스 집합을 추정하는데, 이들은 실제 값을 높은 확률로 포함한다는 것이 보장됩니다.
이 문서는 통계학자가 아니더라도 분포-자유 불확실성 정량화를 실제로 구현하는데 관심이 있는 독자를 위한 것입니다.
파이썬과 파이토치를 사용한 많은 그림, 예시, 코드 샘플이 포함되어 있습니다.
- conformal prediction은 예측 알고리즘(보통 머신러닝 시스템)에 대한 가정 없이 데이터의 교환가능성만 가정하여 예측 집합을 생성하는 통계적 기법입니다.
예측 집합은 사용자가 지정한 확률(예: 90%)로 실제 값을 포함한다는 것이 보장됩니다.
conformal prediction은 이전에 레이블된 데이터에 비일치 측정값(점수 함수라고도 함)을 계산하고, 이를 사용하여 새로운 (레이블되지 않은) 테스트 데이터 포인트에 대한 예측 집합을 만듭니다.
conformal prediction은 컴퓨터 비전, 자연어 처리, 강화 학습 등의 분야에서 발생하는 문제에 자연스럽게 적용되는 이해하기 쉽고 사용하기 쉬운 일반적인 기법입니다.
1장에서는 분포-자유 불확실성 정량화의 필요성과 동기를 설명합니다.
2장에서는 conformal prediction의 기본 개념과 원리를 소개하고, 이미지 분류와 회귀 문제에 적용하는 예시를 보여줍니다.
3장에서는 conformal prediction의 변형과 확장 방법들을 소개하고, 각각의 장단점을 비교합니다.
4장에서는 conformal prediction과 관련된 다른 분포-자유 불확실성 정량화 방법들을 소개하고, 각각의 특징과 한계를 설명합니다.
5장에서는 conformal prediction과 관련된 연구 동향과 응용 분야를 소개하고, 앞으로의 연구 방향을 제안합니다.
- 1장에서는 분포-자유 불확실성 정량화의 필요성과 동기를 설명합니다.
먼저, 기계 학습 모델의 불확실성이란 무엇인지와 왜 중요한지에 대해 간단히 소개합니다.
그 다음, 기존의 불확실성 정량화 방법들이 가지는 한계와 문제점들을 살펴봅니다.
예를 들어, 베이지안 방법은 계산 비용이 많이 들고, 데이터의 분포에 대한 사전 지식을 요구하며, 모델의 가정과 일치하지 않을 수 있습니다. 마지막으로, 분포-자유 불확실성 정량화라는 새로운 패러다임을 제시하고, 이것이 어떻게 기존의 방법들보다 우수하고 유연한지를 설명합니다. 분포-자유 불확실성 정량화는 데이터의 분포에 대한 가정 없이 작동하며, 임의의 모델에 적용할 수 있으며, 통계적으로 엄격한 보장을 제공합니다.
1 Conformal Prediction
- Conformal Prediction은 prediction set을 만드는 직관적인 방법
- 크게 두 단계로 구성
** 1. fitted 모델(학습된) f_hat으로 시작
** 2.f_hat 이용해서 prediction set(가능한 레이블들의 집합) 만듬
*** 이 때, 적은 양의 추가적인 calibration(교정용) 데이터 사용 - 보다 상세한 절차 또는 개념
** k개 클래스가 있다고 가정
** 각 클래스마다 분류기의 결과값 확률 추정(소프트맥스 점수, [0.1]값)
** 숫자 하나(N) 정해서 iid(independent.identical.distribution)하게 데이터인풋과 클래스 쌍 N개 뽑음->교정용 데이터 셋(calibration dataset)
* 이 때, 이 데이터/레이블 쌍은 학습 때 사용되지 않은 거여야 함
*** 그리고 이는 (1)번 식을 만족함
** 1-alpha <= P(Ytest (= C(Xtest)) <= 1-alpha+ 1/(n+1)
** (Xtest, Ytest) 는 같은 분포에서 온 사용되지 안하은 데이터/레이블 쌍
** alpha는 유저에게 입력받은 에러율
** prediction set이 올바른 레이블을 가질 확률은 거의 1-alpha 임
** 우리는 이 프로퍼티를 marginal coverage라고 함
** 이는 교정셋과 테스트셋의 어떤 쌍의 확률이 랜덤성보다 평균적으로 얼마나 나은지 나타냄
** f_hat에서 가능한 클래스 레이블 집합(prediction set) 만들 때, 간단한 교정 스텝 수행 *** 코드 수는 단 몇줄에 불과함
*** 상세한 교정 스텝 설명
** 1. conformal score 정의 si = 1 - f_hat(Xi)Yi (1-softmax 실제 클래스일 결과)
** 점수는 소프트맥스 실제 클래스 결과가 낮을 경우 높아짐, 모델이 아주 성능이 안 좋을 때
** 2. 스코어 s1,…,sn을 보고 경험적으로 정한 분위수(quantile) q_hat 을 반올림( (n+1)(1-alpha) ) / n 로 정의
** (원래 q_hat은 1-alpha quantile이지만 맞추는 경우가 적었(small correction)음)
** 3. 새로운 데이터 포인트(Xtest는 알지만 Ytest는 모르는)를 위해 prediction set을 만듬
** prediction set C(Xtest) = {y:f_hat(Xtest)y >= 1-q_hat} 는 softmax값이 충분히 큰 클래스를 모두 가짐
** 이 알고리즘은 (1)을 만족하는 것을 보장하는 prediction set을 줌
** 어떤 모델이 사용되건 어떤 알지못하는 분포의 데이터를 사용하던
Remark
- prediction set C에 대한 해석
** set-valued(대응, 매핑함수)로 데이터 인풋과 매핑되는 클래스들의 셋(집합)을 갖고 있음
** 모델의 소프트맥스 아웃풋을 이용하여 셋 생성함
** 입력에 따라 다른 결과값 생성(당연한 거 아닌가)
** 모델이 불확실하거나 인풋이 어려우면 집합의 크기가 커짐
** 집합의 크기는 모델의 확실성 지표로 볼 수도 있음
** C(Xtest)는 Xtest에 할당될 수 있는 괜찮은 클래스들로 해석할 수도 있음
** C는 valid하고 (1)식 만족시킴
*** 이는 회귀같은 기계학습 문제로 볼 수 있음
- 본 제시 모델 보다 일반화
** 우선 소프트맥스 결과값으로 각 클래스별 조건 확률 측정
** 예를 들어 j번재 결과는 P(Y=j | X=x)로 측정-인풋x일 때 클래스j일 조건부 확률
** 그런데 소프트맥스가 모든 케이스에서 좋으리라는 보장은 없음
** 오버핏되거나 신뢰할 수 없기도 함
** 그래서 소프트맥스 대신에 holdout set을 사용하여 부족한 부분을 매꾸었음
- holdout set이란
** n = 500 언저리의 신선한(학습 때 사용되지 않은) 데이터로 성능 판단용
** 데이터셋 분할은 conformal score 계산을 수반함, 모델이 불확실하면 커짐
** 하지만 커진다고 valid한 고간을 갖는 것은 또 아님
** 본 논문의 경우 conformal score는 1-실제 클래스의 소프트맥스 결과 였음
** 일반적으로 그러나 어떤 x, y관련 함수나 스코어 펑션이 될 수 있음
** q_hat은 1-alpha 분위수(나누는 수)로 사용
*** 만약 alpha를 0.1로 보면, 적어도 90%의 정답분포 소프트맥스 결과가 1-q_hat 수준으로 보장됨(Appendix D에서 증명됨)
** 위 사실 기반으로 소프트맥스 결과값으로 새로운 데이터에서 테스트했을 때 1-q_hat기반 prediction set이 C(Xtest)임
** 결과인 Ytest 클래스는 1-q_hat 분위수 기준 90% 보장되고 식(1) 만족함
1.1 Instructions for Conformal Prediction
- conformal prediction은 소프트맥스 결과값이나 분류 문제에 국한된 것은 아님
** 불확실성 들어간 어느 휴리스틱 개념이나 모델에 사용 가능하고 더 엄밀하게 만들어줌
** 예측이 이산형인지 연속형인지, 분류인지 회귀인지 가리지 않음
- 일반적 입력 x와 출력 y인 상황 인스트럭션
** 1. 사전학습된 모델을 사용하여 불확실성에대한 휴리스틱 개념 식별
** 2. 스코어 함수 s(x, y) 정의(큰 점수는 x와 y 사이의 불일치 뜻함)
** 3. 반올림( (n+1)(1-alpha) )/n로 교정 점수 s1=s(X1, Y1), …, sn=s(Xn, Yn)의 분위수 q_hat 계산
** 4. 이 분위수 사용하여 prediction sets 만듬
*** C(Xtest) = {y: s(Xtest, y) <= q_hat}
** 이 셋은 어떤 스코어함수에 어떠한 분포에서도 (1)식 만족
Theorem 1
- Conformal coverae 보장
** (Xi, yi) i=1,..,n이 있는데 i.i.d(independent, identical distribution)이라 가정
** q_hat은 위 스텝 3처럼, C(Xtest)는 위 스텝 4처럼 정의
** 그럴 경우 아래 식 만족
P(Xtest (= C(Xtest)) >= 1-alpha
** Appendix D의 증명을 볼 것, 이 성립식은 (1)의 상위 바운드임
** 이 성립 이론은 특수한 경우에만 성립되며 split conformal prediction이라 부름
** 이것이 가장 널리 쓰이는 conformal prediction임
** 본 논문은 여기에 초점
** 섹션6과 섹션7에서 더 다룰 예정
Choice of score function
- 통계적으로 유효한 prediction set을 심지어 불확실성 휴리스틱 개념의 나쁜 모델로 구축이 가능하다고? Appendix D의 증명에 대한 직관적 설명
** 만약 스코어 si가 올바르게 입력들을 낮은 에러에서 높은 에러로 랭크매겼다고 가정
** 결과 셋은 쉬운 인풋일 경우 작고, 어려운 인풋일 경우 커짐
** 만약 스코어가 나쁘다면, 랭크를 잘 어림잡지 못하고 셋은 쓸모 없어짐
* 예를 들어, 스코어가 랜덤 노이즈라면, 셋들은 랜덤샘플 레이블을 포함할 것, 셋의 크기 커짐
*** 이것은 conformal prediction의 중요 사실 직시함
** 비록 보장될지라도 prediction sets의 유용성은 스코어 펑션에 의해 결정됨
** 스코어 함수(펑션)이 모든 정보, 문제와 데이터, 모델 다 사용하므로 놀랄일은 아님
** 예를 들어, conformal prediction 적용에 있어서 분류와 회귀의 큰 차이점은 스코어 선택에 있음
** 하나의 모델이어도 많은 가능한 스코어 함수들이 있고 각기 다른 프로퍼티(속성 값)들을 가짐
** 그러므로 올바른 스코어 함수를 만드는 것은 공학적 선택에서 매우 중요
** 다음 파트에서 좋은 스코어 함수의 예들 나열할 것
** 이하 파트는 축약식으로 설명하여 조금 부족할 수 있음 **
2 Examples of Conformal Procedures
- Conformal prediciton의 예시 제시
** 1차원 y
** 작은 conformal score -> confidence 큼
2.1 Classification with Adaptive Prediction Sets
- Adaptive 적응 예측 셋 분류
** 이전 메서드는 작은 평균과 함께 사용
** 작은 subgroup undercover
** easy one over cover
** Adaptive Prediction Sets 개발(APS)
** 위 문제 해결 위해
** softmax 결과 f_hat(Xtest)는 Ytest|Xtest의 perfect 모델
** 높은 정수 class들 greedily 하게 포함, total mass 1-alpha 넘을 때까지
** ㅠ(x)는 {1,…K)의 순열, f_hat(Xtest) 정렬, most likelyhood에서 least비슷까지
** coverage 제공은 실패.. f_hat(xtest)가 완벽하지 않기 때문
** 그래서 conformal prediction 사용
** uncertainty에 좋은 개념이라 판명되서
** score function 다음 처럼 정의 - s(x,y)= Sigma j=1~k f_hat(x)ㅠj(x), where y=ㅠk(x)
** 즉, greedy하게 true label에 갈 때까지 class를 포함시킴
** 소프트맥스 사용(모든 클래스에)
** 다음으로 모든 conformal procedure로써 q_hat set 정의
** 이런걸 prediction set {y:s(x,y) <= q_hat} 만들고 zero size 피하기 위해 일부 modify함
2.2 Conformalized Quantile Regression
- 예제2: Conformalized Quantile Regression
** uncertainty 회귀 예제에 적용
** Quantile regression을 base로 함
** ytest|xtest의 gamma quantile 학습 시도(base알고리즘)
** the quantile: t gamma(x)
** fit model: t_hat gamma (x)
** Ytest|Xtest = x, t0.05(x): 5%확률, above t0.95(x): 5% 확률
** gamma t^0.05(x), t_hat0.95(x) - 90% cover
** fit quantile 부정확
** conformalize 해야함
** 근처 quantile과 y차이점으로 score 계산, talpha/2와 t1-alpha/2에서
** 정돈 set과 세팅 q_hat score 계산바탕 예측식은 C(x)=[t_hat alpha/2(x)-q_hat,t1-alpha/2(x)+q_hat]
** 직관적으로 c(x) 셋(집합) q_hat case하게 증가 또는 감소
** 클라스들 C가 연속형됨 -> good cover임
** quantile regression = L1 norm 회귀 일반화로
** gamma = 0.5, loss func L0.5 = |t_hat r (x) - y| / 2 => t_hat 0.5 (x) 조건부 중간값 커버
** gamma 변경 -> L1 norm 변경
** MSE 대신 quantile loss가능
2.3 Conformalizing Scalar Uncertainty Estimates
*valid classes interval 찾는 스칼라 uncertainty 측정
2.3.1 The Estimated Standard Deviation
- 추정 표준 편차
** 예측셋 만드는 다른 방법: 표준 sigma(x) 미분법
** Ytest|Xtest = x 가정,
*** 분모사용(가우시안 같은)
** Maximum Likelihood of Data E[Ytest|Xtest=x]
** 근데 Ytest|Xtest 는 가우시안 아니어서 data 많아도 sigma_hat(x)가 꼭 reliable은 아님
** 휴리스틱 개념 넣어서 Conformal Prediction으로 사용 가능
2.3.2 Other 1-D Uncertainty Estimates
- 다른 1-D uncertainty 예측
** 더 일반적으로 u(x)는 더 큰 value가 불확실 더 키우는 함수로 일반 미분 넘어서는 다양한 해석이 있음
** 예)하나의 uncertainty 스칼라 수반->user가 만든 모델 residual 크게 모델 f_hat에 fit y 예측하는,
** 단 모델 r_hat에 fit, |y-f_hat(x)| 예측, r_hat 완벽->[f_hat(x)-r_hat(x), f_hat(x)+r_hat(x)] 완벽커버, 그러나 r_hat은 실제로는 poor
** 더 많은 uncertainty 스칼라들 있음
** 1. 앙상블서 f_hat(x) 분산 측정
** 2. 랜덤 드롭아웃 파편노드서 f_hat(x) 분산 측정
** 3. 작은 랜덤 perturbation(근사값 추정)에서 f_hat(x) 분산 측정
** 4. 다른 노이즈 생성 샘플에서 f_hat(x) 분산 측정
** 5. f_hat(x) 크기 적대 근사값 추정에서 변화 측정
** 이 케이스들 다루는 방식은 같음
*** 예측 f_hat(x)와 uncertainty 스칼라 u(x) ** 휴리스틱 반영 스코어식 : s(x,y0 = |y-f_hat(x)| / u(x) - 스코어 펑션 해석-곱셈가능 상호관계 factor of uncertainty scalar
** q_hat = 반올림( (1-alpha)(1+alpha) ) / n
** colibration score 보장
** 위 바탕의 prediction sets는 (5)와 같음
** prediction set 살펴보면 valid, desired함
** 대칭
** 그러나 alpha 스케일 필요 없어
** 측정 sigma_hat이 quantiles q와 레이블 분포의 관계 보장 없음
** quantile 회귀 선호 왜냐? 직접 척도 측정, 더 나은 휴리스틱
** 그럼에도 불확정 스칼라 남음
** 쉽게 사용 가능 -> ML library
2.4 Conformalizing Bayes
- 베이지안서 confidence 올림
** 베이지안 NN처럼 불확실성 정량화해서 많이 연구됨
** 그러나 잘못된 가정 많음
** 그럼에도 이전 정보 활용해서 예측해야하므로 의미가 있음
** 베이시안서 어떻게 예측 set 만들었는지가 핵심, 1-alpha 가 핵심
** 사후 예측 밀도 사용
** 베이시안 최적은 증명됨
** 본 알고리즘 레이블 고르는 데서 줄임
** 해석만 다름, softmax 근사 사용, 카테고리에서
** 베이시안은 f_hat(y|x) 주어지면 사후 확률 분포 Ytest 추정
** optimal prediction set: S(x)={y:f_hat(y|x) > t}, t는 Integral y(=s(x) f_hat(y|x)dy=1-alpha 일 때 goal 가짐
** 모델과 데이터에 가정 x니까 f_hat(y|x) 휴리스틱이라 여김
** score: s(x,y)=-f_hat(y|x)
** 예측 set c는 C(x)={y:f_hat(y|x) > -q_hat}
** 위 set valid 이유: threshold q_hat 골랐기 때문(그 아래 부분)
** 가정 충족, 1-alpha 커버리지
** 디시전 이론과 유사, Neyman-Pearson Lemma와 같음
Discussion
- conformal prediction이 쉽고 실용적인 기술임
** 구현 쉽고
** 위 4가지 예가 로드맵으로 유용함
** 더 다양 응용 가능
*** 이상치 탐지, 이미지 분리 , 시계열 예측에 사용 가능
3 Evaluating Conformal Prediction
- 다음 2섹션-> valid prediction set이 통계적으로 어떻게 만족하는지 다룸
** 평가 먼저
** 2 카테고리로 나눠 평가 -
- 적응력 측정
** set 작다고 best는 아님(easy->작/hard->큼)
** 적응력은 coverage에 포함되지 않으므로 따로 필요
** 공식화함
- 적응력 측정
-
- 올바름 check
** 잘 구현되었나 체크
** coverage가 theorem 1 체크
** 나쁘지 않은 변동 사이즈로 공식 개발
*** 1-alpha 커버리지 초과 있을 시 문제있음 명시
** 그냥 평가시 계산 헤비하고 느려짐
** 트릭 구현하여 제공
- 올바름 check
3.1 Evaluating Adaptivity
** general prediction이 (1) 만족 set 얻지만 중요한 다른 절차 있음
** adaptivity가 중요 예
*** 어렵 input은 큰 set, 쉬운 input은 작은 set, 이것이 잘 되나 체크
Set size.
*셋 사이즈
** 평균 사이즈 크면 conformal procedure 정확하지 않음 의미
** 셋 사이즈 발산은 어려운 예에 잘 예측 의미
** spreading이 바람직함
** 어려운 경우 아닐 수도 있음
** 관련 metric 다음 파트서 소개
Conditional coverage.
- adaptivity formalized : P[Ytest (= C(Xtest) | Xtest] >= 1-alpha
** 모든 input X test에 대해 1-alpha 커버되는 예측 set 찾는 것
** marginal coverage property 보다 강건
** 대부분 case서 조건부 커버는 (7) 달성 못 함
** conformal procedures
** marginal vs conditional coverage:
*** 90% 커버, 평균 90% vs case 중 90% 맞춤(필요 but not 충분)->모든 그룹 90%
Feature-stratified coverage metric.
- 피처로 층(데이터셋) 분리 커버 메트릭
** 커버 하나하나 얼마나 되나 check and average - size-stratified coverage metric:
** 얼마나 conformal 절차가 (7) 만족에 가깝게 되었는지
** 가능 c(x)의 원소 개수
3.2 The Effect of the Size of the Calibration Set
** calibration set 개수 영향
** n=5000 경험적으로 성능 가장 높음
- 키 아이디어:
** conformal 예측 조건부 경의 랜덤 수량
** (1) 1-alpha 평균 커버
3.3 Checking for Correct Coverage
- 올바른 커버리지 체킹
- 새 교정셋 만들어서 계산해서 확인(경험기반)
** nval은 valid set size
** Cj 히스토그램이 1-alpha 중심이동, c_bar도 1-alpha로 근사
** 다 캐시함 conformal score->경제적
** (1) 성립
** 결정 생겼다면 추가하면 됨 n size
4 Extensions of Conformal Prediction
- 확장
** 일반 지도학습에 어떻게 확장?
4.1 Group-Balanced Conformal Prediction
- 그룹 균형 Conformal Prediction
** interval 구하고 싶을 때(error 갖는)
** 그룹 가중 줌
** (8)은 보장하지 않음
** 그룹 기반 prediction set general 방법 있음
4.2 Class-Conditional Conformal Prediction
- 클래스별 조건별 Conformal Prediciton
** 클래스 균형 위해 조치 필요
** 클래스 별로 조정
*** 알고리즘 위와 같음
4.3 Conformal Risk Control
- conformal risk 관리 방법들 있음
4.4 Outlier Detection
- 이상치 탐지에 적용 방법 공식 있음
4.5 Conformal Prediction Under Covariate Shift
- Covariate Shift 상황서 Conformal prediction방법론
** 질병 예측
** 인스턴스 분리
** 위 사용
** 새 pdf 사용하여 weight 정의
** quantile 설정
4.6 Conformal Prediction Under Distribution Drift
- 분포 변환 때 conformal prediction
** time series 같은 경우임
5 Worked Example
- 실제 활용 예
5.1 Multilabel Classification
- 멀티 레이블에서 활용
5.2 Tumor Segmentation
- 종양 분리에서 활용
5.3 Weather Prediction with Time-Series Distribution Shift
- 날씨 예측-시계열 분포 변화에서 활용
5.4 Toxic Online comment Identification via Outlier Detection
- 유해 코멘트 탐지(이상치 탐지)에서 활용
5.5 Selective Classification
- 선택적 분류에서 활용
6 Full conformal prediction
- full conformal prediction
6.1 Full Conformal Prediction
** 데이터 spliting 없게 하여 사용
6.2 Cross-Conformal Prediction, CV+, and Jackknife+
- full과 split conformal prediction 사이 타협접, tradeoff 가운데 지점
7 Historical Notes on Conformal Prediction
- 역사적 변천사
Origins
- 기원은 우크라이나
** 베르누이 시퀀스에 관심에서 비롯됨Enter Conformal Prediction
- 본격적인 Conformal prediction의 진입
** 선조들의 예우 따른 것Current Trends
- 최근동향
** 작지만 가파르게 성장중