[BERT MLM] 실험 리포트 (개념 검증용)

난이도: 실습

태그: LLM,Transformer,언어모델

이 문서는 BERT 아이디어를 단순화한 MLM toy 실험을 다룹니다. 논문 재현 성능 보고서가 아니라, 개념 이해용 검증 실험입니다. 구조/수식 설명은 개념 설명을 먼저 읽는 것을 권장합니다.

1. 이 실험을 왜 했는가

핵심 질문은 하나입니다. "양방향 문맥을 보는 MLM 방식이 단순 빈도 예측보다 실제 복원 성능에 도움이 되는가?"

뉴비 관점에서는 이 실험을 'BERT의 아이디어가 방향성은 맞는지' 확인하는 단계로 이해하면 됩니다.

2. 실험 설정

3. 결과를 읽기 전에 꼭 알아야 할 점

4. 다회 실행 요약 (책임성 강화)

run_at_utctop1_acctop5_accscore해석
2026-03-03T09:04:32Z1.0000001.0000001.000000과대평가 의심 구간
2026-03-03T09:06:06Z0.0000000.0000000.000000과소적합/분할 민감
2026-03-03T09:06:35Z0.0000000.0000000.000000과소적합/분할 민감
2026-03-04T00:37:54Z0.0000000.0000000.000000재실행에서도 변동성 확인

전문가 코멘트: "지표가 높다/낮다"보다 왜 이렇게 흔들리는지를 분석하는 것이 이 단계의 핵심 학습 포인트입니다.

5. 대표 출력 예시

예시 1
입력: richer token [MASK] than one
정답: understanding
Top-k: 1:understanding(1.0000)

예시 2
입력: one directional [MASK]
정답: models
Top-k: 1:models(1.0000)

위 예시는 "잘 된 케이스"입니다. 실패 케이스도 함께 봐야 공정한 평가가 됩니다.

6. 한계와 개선 계획

7. 검증 가능 출처