SoongsilBERT:BEEP!

Hate Speech Classifier

Github repository
...

About

SoongsilBERT:BEEP!은 양기창(카카오) 연구원, 장원준(카카오) 연구원, 조원익(서울대학교) 연구원으로 구성된 연구팀이 한국어 혐오 발화 데이터셋인 BEEP![1] 으로 SoongsilBERT를 학습시킨 혐오 발언 분류 모델입니다. 아래에는 모델의 분류 성능을 실제로 확인해볼 수 있는 데모가 준비돼 있습니다. 입력창에 문장을 입력하면 일반글/공격발언/차별발언 셋 중 하나로 분류한 결과를 받아볼 수 있습니다.
참고로, SoongsilBERT(KcBERTv2)는 KcBERT[2] 학습에 활용된 뉴스 댓글 데이터와 대학교 커뮤니티 및 공지사항 등 웹에서 작성된 각종 텍스트[3] 를 사전학습한 RoBERTa[4] 기반의 언어 모델입니다. 웹에서 빠르게 양산되는 각종 신조어와 구어체 문장 분석에 큰 어려움을 겪는 기존 자연어 처리 기술의 한계를 극복하고자 숭실대학교 동아리인 YourSSU와 SSUML에서 개발했습니다.


문장 입력하기

'예측하기' 버튼을 누르면 입력 텍스트에 대한 결과가 출력됩니다.








[1]
BEEP! : 네이버 정치 뉴스에 달린 댓글에 혐오발언/공격발언 레이블을 단 데이터셋이다. 데이터 수집 방법론에 관한 내용을 정리한 논문은 2019년 ACL 워크샵에 게재 승인된 바 있다.
[2]
KcBERT : 네이버 뉴스에 달린 댓글을 수집한 데이터를 이용한 BERT 기반 사전학습 언어 모델
[3]
RoBERTa : BERT보다 성능을 한 단계 업그레이드한 버전이다. 모델 크기가 클수록 성능을 높일 수 있다는 판단하에, 연구진은 훈련 데이터의 양과 학습 횟수, 배치 크기, 사전 크기 등을 대폭 늘리는 전략을 취했다.
[4]
최종 학습 데이터는 1억 4,000만 개의 문장으로 구성돼 있으며, 크기는 15GB에 달한다.