Skip to content

Latest commit

Β 

History

History
116 lines (106 loc) Β· 6.17 KB

TRANSLATION_GUIDE.md

File metadata and controls

116 lines (106 loc) Β· 6.17 KB

일반 κ·œμΉ™

  • λ²ˆμ—­λœ λ¬Έμ„œλ§ŒμœΌλ‘œλ„ λ‚΄μš©μ„ 이해할 수 μžˆλ„λ‘ λ¬Έμ„œλ₯Ό λ²ˆμ—­ν•΄μ•Ό ν•©λ‹ˆλ‹€.

    • 기계적인 λ²ˆμ—­μ΄λ‚˜ 피상적인 λ¦¬λ·°λŠ” μ§€μ–‘ν•΄μ£Όμ„Έμš”.
    • 일반 λͺ…사와 Class 이름은 κ΅¬λΆ„ν•˜μ—¬ λ²ˆμ—­μ„ ν•˜κ±°λ‚˜ 원문을 ν‘œκΈ°ν•©λ‹ˆλ‹€. (예. 데이터셋과 Dataset)
  • λ°˜λ“œμ‹œ 1:1둜 λ²ˆμ—­ν•˜μ§€ μ•Šμ•„λ„ λ©λ‹ˆλ‹€.

    • 이해λ₯Ό 돕기 μœ„ν•œ (μ•½κ°„μ˜) μ˜μ—­μ΄λ‚˜ μ„€λͺ…을 좔가해도 μ’‹μŠ΅λ‹ˆλ‹€.
      • 단, μ›λ¬Έμ˜ μ˜λ―Έκ°€ λ‹€λ₯΄κ²Œ 해석될 여지가 μžˆλŠ” κ²½μš°μ—λŠ” μžμ œν•΄μ£Όμ„Έμš”.
    • λ¬Έμž₯ λ‹¨μœ„λŠ” μ‰¬μš΄ μœ μ§€λ³΄μˆ˜λ₯Ό μœ„ν•΄ 가급적 μ§€μΌœμ£Όμ‹œκΈ°λ₯Ό μš”μ²­λ“œλ¦½λ‹ˆλ‹€.
      • ν•˜μ§€λ§Œ λ¬Έμž₯이 μ—¬λŸ¬ 쀄에 걸쳐 μ‘°κ°λ‚˜ μžˆλŠ” 경우 λ“±μ—λŠ” ν•œ 쀄에 ν•˜λ‚˜μ˜ λ¬Έμž₯으둜 λͺ¨μ•„주셔도 λ©λ‹ˆλ‹€.
  • μ˜λ―Έμ—†λŠ” μ£Όμ–΄λŠ” μƒλž΅ν•΄μ£Όμ„Έμš”.

    • 예λ₯Ό λ“€μ–΄, weλŠ” κ°•μ‘°μ˜ μ˜λ―Έκ°€ μžˆμ§€ μ•ŠλŠ” 이상 λ²ˆμ—­ν•˜μ§€ μ•Šκ³  μƒλž΅ν•©λ‹ˆλ‹€.
  • 기본적인 reStructuredText 문법은 μˆ™μ§€ν•΄μ£Όμ„Έμš”.

    • Quick reStructredText λ“±μ˜ λ¬Έμ„œλ₯Ό μ°Έκ³ ν•˜μ—¬ 문법을 μ΅ν˜€μ£Όμ„Έμš”.
    • 이미 λ²ˆμ—­λœ λ¬Έμ„œλ“€μ„ μ°Έκ³ ν•˜μ…”λ„ μ’‹μŠ΅λ‹ˆλ‹€. (예. ` 뒀에 ν•œκΈ€ μž‘μ„± μ‹œ 곡백 λ˜λŠ” \이 ν•„μš”ν•©λ‹ˆλ‹€.)
    • λ²ˆμ—­ ν›„μ—λŠ” make html-noplot λ“±μ˜ λͺ…λ Ήμ–΄λ‘œ 문법 였λ₯˜λ₯Ό ν™•μΈν•΄μ£Όμ„Έμš”.
      • λ²ˆμ—­ 결과물에 `, * λ˜λŠ” _ λ“±μ˜ 기호λ₯Ό κ²€μƒ‰ν•˜λ©΄ 자주 μ‹€μˆ˜ν•˜λŠ” 문법 였λ₯˜λ₯Ό μ‰½κ²Œ 찾을 수 μžˆμŠ΅λ‹ˆλ‹€.
  • λ²ˆμ—­λœ λ¬Έμž₯만으둜 의미λ₯Ό μ „λ‹¬ν•˜κΈ° μ–΄λ €μšΈ λ•Œμ—λŠ” ν•œκΈ€(μ˜μ–΄)와 같이 μž‘μ„±ν•©λ‹ˆλ‹€.

    • 제λͺ©κ³Ό 본문에 각각 μ‚¬μš©λ˜λŠ” 경우 첫번째둜 ν•΄λ‹Ή μš©μ–΄κ°€ μΆœν˜„ν•˜μ˜€μ„ λ•Œ 맀번 ν•¨κ»˜ μž‘μ„±ν•©λ‹ˆλ‹€.
      • 예. including transposing, indexing, ... => μ „μΉ˜(transposing), 인덱싱(indexing), ...
    • 가급적 ν•œ λ²ˆμ”©λ§Œ ν•¨κ»˜ μž‘μ„±ν•˜λŠ” 것을 μ›μΉ™μœΌλ‘œ ν•˜μ§€λ§Œ λ²ˆμ—­μžκ°€ μž„μ˜λ‘œ μ—¬λŸ¬λ²ˆ ν•¨κ»˜ μž‘μ„±ν•  수 μžˆμŠ΅λ‹ˆλ‹€.
      • 예. 직렬화(Serialize)
  • μ†ŒμŠ€ μ½”λ“œ, λ…Όλ¬Έ 제λͺ©, 좜λ ₯ κ²°κ³Ό 등은 가급적 λ²ˆμ—­ν•˜μ§€ μ•ŠμŠ΅λ‹ˆλ‹€.

    • 단, μ†ŒμŠ€ μ½”λ“œμ— ν¬ν•¨λœ 주석은 가급적 λ²ˆμ—­ν•©λ‹ˆλ‹€.
    • 원문을 ν•¨κ»˜ μ°Ύμ•„λ³Ό ν•„μš”κ°€ μžˆλŠ” λ…Όλ¬Έ 제λͺ© 등은 λ²ˆμ—­ μ‹œ 전체 원문을 ν•¨κ»˜ μž‘μ„±ν•©λ‹ˆλ‹€.
    • λͺ…λ Ήμ–΄μ˜ 좜λ ₯ κ²°κ³Ό, 둜그(log) 등은 κ²°κ³Ό 비ꡐλ₯Ό μœ„ν•΄ λ²ˆμ—­ν•˜μ§€ μ•ŠμŠ΅λ‹ˆλ‹€.
  • μ€„λ°”κΏˆ 및 곡백은 가급적 원문과 λ™μΌν•˜κ²Œ μœ μ§€ν•©λ‹ˆλ‹€.

    • 이후 원본 λ¬Έμ„œμ— 좔가적인 변경이 λ°œμƒν•  λ•Œ μœ μ§€λ³΄μˆ˜λ₯Ό λ•μŠ΅λ‹ˆλ‹€.
    • λ„ˆλ¬΄ κΈ΄ λ¬Έμž₯은 reStructuredText 문법을 μ§€ν‚€λŠ” μ„ μ—μ„œ μ€„λ°”κΏˆμ„ 좔가해도 μ’‹μŠ΅λ‹ˆλ‹€.

μš©μ–΄ μ‚¬μš© κ·œμΉ™

  1. μ•„λž˜ μš©μ–΄κ°€ μ μ ˆν•˜λ©΄ 가급적 μ•„λž˜ ν‘œμ˜ μš©μ–΄λ₯Ό μ‚¬μš©ν•©λ‹ˆλ‹€.
  2. μ§€μ •λœ μš©μ–΄κ°€ μ—†λ‹€λ©΄ μ•„λž˜ μ‚¬μ΄νŠΈλ₯Ό μ°Έκ³ ν•˜μ—¬ μ‚¬μš©ν•©λ‹ˆλ‹€.
  1. μ μ ˆν•œ μš©μ–΄κ°€ μ—†μœΌλ©΄ μ μ ˆν•œ 단어λ₯Ό μƒˆλ‘œ μ‚¬μš©ν•˜κ³ , μ•„λž˜ λͺ©λ‘μ— λ‚΄μš©μ„ μΆ”κ°€ν•©λ‹ˆλ‹€.
영문 ν•œκΈ€ μž‘μ„±μž μΆ”κ°€ μ„€λͺ…
Acknowledgements κ°μ‚¬μ˜ 말 λ°•μ •ν™˜
activation ν™œμ„±ν™” μ‘°ν˜•μ„œ
API endpoint API μ—”λ“œν¬μΈνŠΈ λ°•μ •ν™˜ 음차 ν‘œκΈ°
argument 인자 λ°•μ •ν™˜
Audio μ˜€λ””μ˜€ λ°•μ •ν™˜ ToC의 λΆ„λ₯˜λͺ…μž…λ‹ˆλ‹€.
augmentation 증강 이재볡
autograd Autograd ν™©μ„±μˆ˜ λ²ˆμ—­μ•ˆν•¨
Batch Normalization 배치 μ •κ·œν™” λ°•μ •ν™˜
bias 편ν–₯ μ΄ν•˜λžŒ
convolution ν•©μ„±κ³± κΉ€ν˜„κΈΈ
Dropout λ“œλ‘­μ•„μ›ƒ κΉ€νƒœν˜• 음차 ν‘œκΈ°
dataset 데이터셋 λ°•μ •ν™˜ 음차 ν‘œκΈ°
deep neural network 심측 신경망 λ°•μ •ν™˜
derivative λ„ν•¨μˆ˜ λ°•μ •ν™˜
Drop-out Drop-out ν™©μ„±μˆ˜ λ²ˆμ—­μ•ˆν•¨
epoch 에폭 λ°•μ •ν™˜ 음차 ν‘œκΈ°
evaluation mode 평가 λͺ¨λ“œ λ°•μ •ν™˜
Fine-tuning λ―Έμ„Έ μ‘°μ • μ˜€μ™•νƒ
feature νŠΉμ§• 백선희
feed data through model 데이터λ₯Ό λͺ¨λΈμ— 제곡
Feed-forward network μˆœμ „νŒŒ 신경망 λ°•μ •ν™˜
freezing 동결 κΉ€μ§€ν˜Έ
Generative 생성 λͺ¨λΈ λ°•μ •ν™˜ ToC의 λΆ„λ₯˜λͺ…μž…λ‹ˆλ‹€.
Getting Started tutorial μ‹œμž‘ν•˜κΈ° νŠœν† λ¦¬μ–Ό λ°•μ •ν™˜ ToC의 Getting Startedλ₯Ό λœ»ν•©λ‹ˆλ‹€.
gradient 변화도 λ°•μ •ν™˜
Hyperparameter ν•˜μ΄νΌνŒŒλΌλ―Έν„° κΉ€νƒœμ˜ 음차 ν‘œκΈ°
Image 이미지 λ°•μ •ν™˜ ToC의 λΆ„λ₯˜λͺ…μž…λ‹ˆλ‹€.
in-place 제자리 ν—ˆλ‚¨κ·œ
initialization μ΄ˆκΈ°ν™” κΉ€μ§€ν˜Έ
instance μΈμŠ€ν„΄μŠ€ λ°•μ •ν™˜ 음차 ν‘œκΈ°
instantiate μƒμ„±ν•˜λ‹€ λ°•μ •ν™˜
interpreter 인터프리터 이쒅법 음차 ν‘œκΈ°
Layer 계측 λ°•μ •ν™˜
learning rate, lr ν•™μŠ΅λ₯  λ°•μ •ν™˜
loss 손싀 λ°•μ •ν™˜
matrix ν–‰λ ¬ λ°•μ •ν™˜
mean-squared error ν‰κ· μ œκ³±μ˜€μ°¨ ν—ˆλ‚¨κ·œ
MelScale MelScale
memory footprint λ©”λͺ¨λ¦¬ 전체 μ‚¬μš©λŸ‰ 졜ν₯μ€€
method λ©”μ†Œλ“œ μž₯효영 음차 ν‘œκΈ°
mini-batch λ―Έλ‹ˆ 배치 λ°•μ •ν™˜ 음차 ν‘œκΈ°
momentum λͺ¨λ©˜ν…€ λ°•μ •ν™˜ 음차 ν‘œκΈ°
normalize μ •κ·œν™” ν—ˆλ‚¨κ·œ
NumPy NumPy λ°•μ •ν™˜ λ²ˆμ—­ν•˜μ§€ μ•ŠμŒ
One-Hot One-Hot ν™©μ„±μˆ˜ λ²ˆμ—­μ•ˆν•¨
Optimizer μ˜΅ν‹°λ§ˆμ΄μ € λ°•μ •ν™˜ 음차 ν‘œκΈ°
output 좜λ ₯ λ°•μ •ν™˜
over-fitting 과적합 ν™©μ„±μˆ˜
parameter λ§€κ°œλ³€μˆ˜ λ°•μ •ν™˜
placeholder ν”Œλ ˆμ΄μŠ€ν™€λ” λ°•μ •ν™˜ 음차 ν‘œκΈ°
plotting 도식화 ν™©μ„±μˆ˜
Production (environment, use) Production ν—ˆλ‚¨κ·œ λ²ˆμ—­ν•˜μ§€ μ•ŠμŒ
pruning κ°€μ§€μΉ˜κΈ° κΉ€μ§€ν˜Έ
rank 0 0-μˆœμœ„ λ°•μ •ν™˜
Read later 더 읽을거리 λ°•μ •ν™˜
recap μš”μ•½ λ°•μ •ν™˜
resample λ¦¬μƒ˜ν”Œ
resizing 크기 λ³€κ²½ λ°•μ •ν™˜
requirements μš”κ΅¬ 사항 μž₯보윀
sampling rate μƒ˜ν”Œλ§ 레이트
scenario μ‹œλ‚˜λ¦¬μ˜€ λ°•μ •ν™˜ 음차 ν‘œκΈ°
shape shape ν—ˆλ‚¨κ·œ λ²ˆμ—­ν•˜μ§€ μ•ŠμŒ
size 크기 λ°•μ •ν™˜
Tensor / Tensors Tensor λ°•μ •ν™˜ λ²ˆμ—­ν•˜μ§€ μ•ŠμŒ
Text ν…μŠ€νŠΈ λ°•μ •ν™˜ ToC의 λΆ„λ₯˜λͺ…μž…λ‹ˆλ‹€.
track (computation) history μ—°μ‚° 기둝을 μΆ”μ ν•˜λ‹€ λ°•μ •ν™˜
training ν•™μŠ΅ μ΄ν•˜λžŒ
warmstart λΉ λ₯΄κ²Œ μ‹œμž‘ν•˜κΈ° λ°•μ •ν™˜ Warmstarting Model = λΉ λ₯΄κ²Œ λͺ¨λΈ μ‹œμž‘ν•˜κΈ°
weight κ°€μ€‘μΉ˜ λ°•μ •ν™˜
wrapper 래퍼 λ°•μ •ν™˜ 음차 ν‘œκΈ°