Sootudy Repository

Sootudy Repository

  • 분류 전체보기 (18)
    • 추천시스템 (1)
    • 자연어처리 (2)
    • 베이즈통계 (3)
    • 딥러닝 (2)
    • PyTorch (9)
    • 스터디 일지 (0)
  • 홈
  • 태그
  • 방명록
RSS 피드
로그인
로그아웃 글쓰기 관리

Sootudy Repository

컨텐츠 검색

태그

SQUEEZE pytorch .long() ByteTensor .float() unsqueeze LongTensor View

최근글

댓글

공지사항

아카이브

자연어처리(2)

  • [자연어처리 논문리뷰] Attention Is All You Need

    딥러닝 분야를 공부하는 사람이라면 무조건 마스터 해야 할 Attention 매커니즘을 공부한다. 방대한 자료가 있으나, 밑바닥부터 시작하는 딥러닝, 성균관대학교 이지형 교수/고영중 교수의 강의 및 동 대학 이종욱 교수 교안을 참고하여 공부하였고, 해당 이해를 기반으로 논문 리뷰를 진행했다. 논문: https://arxiv.org/abs/1706.03762 Attention Is All You Need The dominant sequence transduction models are based on complex recurrent or convolutional neural networks in an encoder-decoder configuration. The best performing models al..

    2022.08.28
  • 자연어 처리 기법 개요 - 단어를 의미로

    [분포 가설 기반] 1. 통계 기반 기법 1) 시소러스 2) PPMI 행렬로 변환: 단어 등장 횟수 고려 3) SVD: Sparse Matrix to Dense Matrix 2. 추론 기반 기법 : 단어가 출현할 확률을 학습하는 방식 1) Word2Vec CBOW - 맥락이 주어짐 : Continuous bag-of-words. 맥락(주변 단어)으로부터 target(중심 단어)을 추측 : Softmax, CE Loss 사용 : Posterior Priority를 모델링 한다 P(W_t | W_(t-1), W_(t+1)) skip-gram - 맥락을 맞춰야함 : skip-gram이 어려운 문제를 푸는 만큼 CBOW 대비 성능이 좋다(고 설명함) ※ 통계/추론 기법 간 성능에 뚜렷한 우열은 없다

    2022.08.24
이전
1
다음
티스토리
© 2018 TISTORY. All rights reserved.

티스토리툴바