MongTae

  • 홈
  • 태그
  • 방명록

Encoding 1

[Transformer] Sinusoidal Positional Encoding

한 번 할 때 제대로 이해해놓기 위한 정리. 다음에 가물가물할 때 다시 볼 수 있도록.   class PositionalEncoding(nn.Module): def __init__(self, d_model, max_len=5000): super(PositionalEncoding, self).__init__() pe = torch.zeros(max_len, d_model) position = torch.arange(0, max_len, dtype=torch.float).unsqueeze(1) div_term = torch.exp( torch.arange(0, d_model, 2).float() * (-math.log(10000.0) / d_model)..

Deep Learning/Transformer 2025.01.14
이전
1
다음
더보기
프로필사진

MongTae

  • 분류 전체보기 (14)
    • Deep Learning (5)
      • Deep Learning (0)
      • Transformer (4)
      • Model Compression (1)
    • Mathematics (2)
      • Linear Algebra (2)
    • Algorithm (2)
      • 이코테 (2)
    • etc (4)

Tag

multi-head attention, 10718번, 파이썬, 2753번, 10869번, positional encoding, 이코테, 백준, 10818번, 10950번, working tree, transformer, 모델경량화, 10172번, 모험가길드, 10871번, 기울기 소실, 10926번, 2884번, Gradient Vanishing,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/02   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바