5개의 문장이 있다고 하자.이때 5개의 모든 문장을 vocabulary로 만들거다. 대신 중복은 없어야한다. 이를 직접 코드를 짜줄 수도 있지만 이미 구현된 라이브러리가 있다.from tensorflow.keras.preprocessing.text import Tokenizertokenizer = Tokenizer()tokenizer.fit_on_texts(preprocessed_headline)vocab_size = len(tokenizer.word_index) + 1print('단어 집합의 크기 : %d' % vocab_size) 이에 대한 자세한 GPT의 설명!1. 사전(vocabulary) 변수:tokenizer.word_index:이 변수는 텍스트에서 발견된 각 단어와 그 단어에 매핑된 고유한..