AquaplaneMode

  • 홈
  • 태그
  • 방명록

개인 공부/ML 2

[ML] Attention is All You Need

Attention Is All You Need 논문 출처 글 작성에 앞서 : 본 게시글은 개인 학습을 위한 것이므로 모델의 Architecuture에 관해 중점적으로 다루며, 모델의 학습 방법이나 성능에 대해서는 정리하지 않습니다. Model Architecture Encoder Encoder는 6개의 동일한 Layer의 stack으로 구성된다. 또한, 각 레이어는 (1) multi-head self-attention layer, (2) position-wise fully connected feed-forward layer 두 개의 sub-layer로 구성된다. 두 개의 sub-layer는 layer normalization을 거쳐 residual connection된다. 즉, 각 sublayer의 출력..

개인 공부/ML 2022.12.23

[ML] PET (Pattern Exploiting Training)

참조 : Exploiting Cloze Questions for Few Shot Text Classification and Natural Language Inference 1. Introduction 기존의 주류(predominant) 모델은 레이블된(labeled) 데이터를 바탕으로 학습하여, 처음 보는 데이터에 대한 일반성을 확보하기 위해 학습하였다. 그러나 많은 수의 레이블된 데이터를 필요로 하기 때문에 시간적 비용적 문제가 발생하였고, 적은 수의 레이블된 데이터로 학습하는 "few-shot learning"의 중요성이 대두되었다. 그러나 적은 수의 예제로는 풀고자 하는 문제가 무엇인지 쉽게 파악하기 어렵다는 문제가 존재한다. 따라서 본 논문에서는 패턴 추출 학습(PET;Pattern Expoiti..

개인 공부/ML 2022.12.23
이전
1
다음
더보기
프로필사진

  • 기타 (59)
    • 잡담 (0)
    • 알고리즘 (34)
      • 백준 (24)
      • 프로그래머스 (10)
      • 이론 (0)
    • 개인 공부 (15)
      • ML (2)
      • DS (6)
      • 파이썬 (6)
      • Pandas (1)
    • Naver Boost Camp (9)
    • 개발 일기 (1)
    • 후기 (0)

Tag

컨닝, 스택, mount, 파이썬, 생명주기, LifeSpan_Events, 분할정복, 스도쿠, pandas, FastAPI, 인접행렬, 알고리즘, 백준, 비트마스킹, 동적계획법, DP, 구현, 트라이, 많은분기,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바