MongTae

  • 홈
  • 태그
  • 방명록

quantization 1

[모델 경량화] [1] Quantization 이란?

1. 모델 경량화와 Quantization: 심층 신경망 최적화를 위한 전략  최근 인공지능(AI)과 딥러닝 기술이 폭발적으로 발전하면서, 높은 정확도를 자랑하는 대규모 신경망 모델들이(ChatGPT, DeepSeek 등) 각광받고 있습니다. 그러나 이러한 모델들은 높은 메모리 사용량, 전력 소모 그리고 긴 추론 지연(latency) 등의 문제점을 내포하고 있습니다. 이에 대한 해결책으로 모델 경량화 기술이 연구되고 있으며, 그 중 Quantization(양자화)는 대표적인 기법으로 주목받고 있습니다.  2022년 ChatGPT의 등장은 인공지능 기술이 실제로 상용화되어 사람들에게 널리 알려지게 된 전환점 되었으며, 이후 대중의 일상에도 인공지능 기술이 더욱 가까워지고 있습니다. 하지만 인공지능이 우리 ..

Deep Learning/Model Compression 2025.02.21
이전
1
다음
더보기
프로필사진

MongTae

  • 분류 전체보기 (14)
    • Deep Learning (5)
      • Deep Learning (0)
      • Transformer (4)
      • Model Compression (1)
    • Mathematics (2)
      • Linear Algebra (2)
    • Algorithm (2)
      • 이코테 (2)
    • etc (4)

Tag

Gradient Vanishing, 모델경량화, 10869번, 백준, transformer, 10871번, 10926번, 10718번, 10818번, multi-head attention, 기울기 소실, working tree, positional encoding, 이코테, 10172번, 파이썬, 모험가길드, 10950번, 2884번, 2753번,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/02   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바