최신 버전의 PyTorch 튜토리얼을 만나보세요!
PyTorch Tutorials
0.3.1

Beginner Tutorials

  • PyTorch로 딥러닝하기: 60분만에 끝장내기
    • PyTorch가 무엇인가요?
      • 시작하기
        • Tensors
        • 연산(Operations)
      • NumPy 변환(Bridge)
        • Torch Tensor를 NumPy 배열로 변환하기
        • NumPy 배열을 Torch Tensor로 변환하기
      • CUDA Tensors
    • Autograd: 자동 미분
      • 변수(Variable)
      • 변화도(Gradient)
    • 신경망(Neural Networks)
      • 신경망 정의하기
      • 손실 함수 (Loss Function)
      • 역전파(Backprop)
      • 가중치 갱신
    • 분류기(Classifier) 학습하기
      • 데이터는 어떻게 하나요?
      • 이미지 분류기 학습하기
        • 1. CIFAR10를 불러오고 정규화하기
        • 2. 합성곱 신경망(Convolution Neural Network) 정의하기
        • 3. 손실 함수와 Optimizer 정의하기
        • 4. 신경망 학습하기
        • 5. 시험용 데이터로 신경망 검사하기
      • GPU에서 학습하기
      • 여러개의 GPU에서 학습하기
      • 이제 뭘 해볼까요?
    • Optional: Data Parallelism
      • Imports and parameters
      • Dummy DataSet
      • Simple Model
      • Create Model and DataParallel
      • Run the Model
      • Results
        • 2 GPUs
        • 3 GPUs
        • 8 GPUs
      • Summary
  • Torch 사용자를 위한 PyTorch
    • Tensor
      • In-place / Out-of-place
      • 0-인덱스
      • 카멜표기법(Camel Case) 없음
      • NumPy 변환(Bridge)
        • Torch Tensor를 NumPy 배열로 변환하기
        • NumPy 배열을 Torch Tensor로 변환하기
      • CUDA Tensors
    • Autograd
      • 변수(Variable)
      • 변화도(Gradient)
    • nn 패키지
      • 예제1: 합성곱 신경망(ConvNet)
      • 순방향/역방향 함수 훅(Hook)
      • 예제2: 순환 신경망(Recurrent Nets)
    • 멀티-GPU 예제
      • DataParallel
      • 모델의 일부는 CPU, 일부는 GPU에서
  • 예제로 배우는 PyTorch
    • Tensor
      • 준비 운동: NumPy
      • PyTorch: Tensor
    • Autograd
      • PyTorch: Variables과 autograd
      • PyTorch: 새 autograd 함수 정의하기
      • TensorFlow: 정적 그래프(Static Graph)
    • nn 모듈
      • PyTorch: nn
      • PyTorch: optim
      • PyTorch: 사용자 정의 nn 모듈
      • PyTorch: 제어 흐름(Control Flow) + 가중치 공유(Weight Sharing)
    • 예제 코드
      • Tensor
        • 준비 운동: NumPy
        • PyTorch: Tensor
      • Autograd
        • PyTorch: Variable과 autograd
        • PyTorch: 새 autograd 함수 정의하기
        • TensorFlow: 정적 그래프(Static Graph)
      • nn 모듈
        • PyTorch: nn
        • PyTorch: optim
        • PyTorch: 사용자 정의 nn 모듈
        • PyTorch: 제어 흐름(Control Flow) + 가중치 공유(Weight Sharing)
  • 전이학습(Transfer Learning) 튜토리얼
    • 데이터 불러오기
      • 일부 이미지 시각화하기
    • 모델 학습하기
      • 모델 예측값 시각화하기
    • 합성곱 신경망 미세조정(Finetuning)
      • 학습 및 평가하기
    • 고정 특정 추출기로써의 합성곱 신경망
      • 학습 및 평가하기
  • Data Loading and Processing Tutorial
    • Dataset class
    • Transforms
      • Compose transforms
    • Iterating through the dataset
    • Afterword: torchvision
  • Deep Learning for NLP with Pytorch
    • Introduction to PyTorch
      • Introduction to Torch’s tensor library
        • Creating Tensors
        • Operations with Tensors
        • Reshaping Tensors
      • Computation Graphs and Automatic Differentiation
    • Deep Learning with PyTorch
      • Deep Learning Building Blocks: Affine maps, non-linearities and objectives
        • Affine Maps
        • Non-Linearities
        • Softmax and Probabilities
        • Objective Functions
      • Optimization and Training
      • Creating Network Components in Pytorch
        • Example: Logistic Regression Bag-of-Words classifier
    • Word Embeddings: Encoding Lexical Semantics
      • Getting Dense Word Embeddings
      • Word Embeddings in Pytorch
      • An Example: N-Gram Language Modeling
      • Exercise: Computing Word Embeddings: Continuous Bag-of-Words
    • Sequence Models and Long-Short Term Memory Networks
      • LSTM’s in Pytorch
      • Example: An LSTM for Part-of-Speech Tagging
      • Exercise: Augmenting the LSTM part-of-speech tagger with character-level features
    • Advanced: Making Dynamic Decisions and the Bi-LSTM CRF
      • Dynamic versus Static Deep Learning Toolkits
      • Bi-LSTM Conditional Random Field Discussion
      • Implementation Notes
      • Exercise: A new loss function for discriminative tagging

Intermediate Tutorials

  • 문자 단위 RNN으로 이름 분류하기
    • 데이터 준비하기
      • 이름을 Tensor 로 변경
    • 네트워크 생성
    • 학습
      • 학습 준비
      • 네트워크 학습
      • 결과 도식화
    • 결과 평가
      • 사용자 입력으로 실행
    • 연습
  • 문자 단위 RNN으로 이름 생성하기
    • 데이터 준비하기
    • 네트워크 생성
    • 학습
      • 학습 준비
      • 네트워크 학습
      • 손실 도식화
    • 네트워크 샘플링
    • Exercises
  • Sequence to Sequence 네트워크와 Attention을 이용한 번역
    • 데이터 파일 로딩
    • Seq2Seq 모델
      • 인코더
      • 디코더
        • 간단한 디코더
        • 어텐션 디코더
    • 학습
      • 학습 데이터 준비
      • 모델 학습
      • 결과 도식화
    • 평가
    • 학습과 평가
      • 어텐션 시각화
    • Exercises
  • Reinforcement Learning (DQN) tutorial
    • Replay Memory
    • DQN algorithm
      • Q-network
      • Input extraction
    • Training
      • Hyperparameters and utilities
      • Training loop
  • Pytorch로 분산 어플리케이션 개발하기
    • Setup
    • 지점간 통신(Point-to-Point Communication)
    • 집단 통신 (Collective Communication)
    • 분산 학습(Distributed Training)
      • Our Own Ring-Allreduce
    • Advanced Topics
      • 통신 백엔드
      • 초기화 방법
  • Spatial Transformer Networks Tutorial
    • Loading the data
    • Depicting spatial transformer networks
    • Training the model
    • Visualizing the STN results

Advanced Tutorials

  • Neural Transfer with PyTorch
    • Introduction
      • Neural what?
      • How does it work?
        • OK. How does it work?
    • PyTorch implementation
      • Packages
      • Cuda
      • Load images
      • Display images
      • Content loss
      • Style loss
      • Load the neural network
      • Input image
      • Gradient descent
  • Creating extensions using numpy and scipy
    • Parameter-less example
    • Parametrized example
  • Transfering a model from PyTorch to Caffe2 and Mobile using ONNX
    • Transfering SRResNet using ONNX
    • Running the model on mobile devices
  • C 언어로 PyTorch 확장 기능(custom extension) 만들기
    • 1단계. C 코드 준비하기
    • 2단계. Python에서 불러오기
PyTorch Tutorials
  • Docs »
  • Search


© Copyright 2018, PyTorch (& Korean translation is for its contributors).

Built with Sphinx using a theme provided by Read the Docs.