* 텍스트 임베딩이란? 텍스트를 수치로 변환하는 작업 * 임베딩 모델 BERT : 2018년에 Google에서 공개한 사전 학습 모델, Transformer의 인코더를 활용하여 구축된 모델 Wikipedia(25억 단어)와 BooksCorpus(8억 단어)의 레이블이 없는 텍스트 데이터로 사전 훈련된 모델 (비지도 학습) * 임베딩 모델의 작동 과정 * Sentence-BERT : 문장 임베딩에 특화하여 BERT를 파인튜닝한 모델 단어의 의미, 문장 내 단어 역할, 맥락, 감정 등 다양한 정보 학습 * Open Source VS Closed Source Open Source의 경우 대부분 모델을 HuggingFace에서 로드하여 무료로 사용 가능Closed Source는 API 형태로 모델 제공..