Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- boostcourse
- 안드로이드
- kkuber
- 정보처리기사 요약정리
- Kotlin
- 정보처리기사 필기
- 정보처리기사 내용정리
- 정처기 정리
- 코틀린 배우기
- 정처기 필기
- 정보처리기사
- 코틀린
- 한이아지
- 개발자
- 정보처리기사 정리
- 코틀린 기초
- 코틀린 강의
- 코틀린배우기
- 정처기 요약
- 큐버
- IT
- 정처기
- 코틀린기초
- 정보처리기사 요약
- edwith
- 코틀린강의
- 부스트코스
- naver
- 부스트코스 서포터즈
- 백엔드
Archives
- Today
- Total
목록Skip Gram (1)
초보 개발자의 성장기
한이아지와 함께하는 워드 임베딩(Word Embedding)
📕 Word Embedding 🔸 딥러닝에서의 임베딩은 보통 이산적이고 고차원의 연속된 벡터 표현입니다. 🔸 NLP에서 워드 임베딩은 보통 단어를 연속적인 벡터로 매핑하는 것입니다. 가장 유명한 Word Embedding 기법으로는 Word2Vec이 있습니다. 📗 Word2Vec Word2Vec은 단어 간 유사도를 반영할 수 있도록 단어의 의미를 벡터화할 수 있는 방법입니다. 한번 한국어 단어를 벡터 연산 해볼까요? http://w.elnn.kr/search/ ← 여기 사이트의 도움을 받아서 해보겠습니다. 정말 단어가 가지고 있는 어떤 의미들을 가지고 연산을 하고 있는 것 같이 보입니다. 이런 연산이 가능한 이유는 각 단어 벡터가 단어 간 유사도를 반영한 값을 가지고 있기 때문입니다. Word2Vec은 ..
AI 지식
2021. 2. 4. 15:16