이 게시글은 서울대학교 데이터사이언스대학원 조요한 교수님의거대언어모델과 대화형 인공지능 강의를학습을 위해 재구성하였습니다이 수업을 중간에 청강 신청하는 바람에1강(OT) 내용은 못들었다..그래서 2강인 본격적인 수업부터 차근차근 정리해보려고 한다 오늘 배울 내용은 자연어처리의 기본이 되는word2vec과 seq2seq이다 word2vec의 기본 아이디어는 word를 벡터로 나타내는 것이다한 마디로 단어를 dense vector로 나타내는 것 이 word2vec 이전에 one hot vector라는게 있었는데이건 sparse vector로 단어를 나타내는 것이다우리가 단어를 표현할 때 사전에 5만개의 단어가 있다고 해보자그럼 그 전체 5만개 중에서 그 단어가 있는 인덱스를 찾아서그것만 1로..