PyTorch와 같은 딥러닝 프레임워크를 공부하다 보면, 자주 등장하지만 처음에는 헷갈릴 수 있는 개념 중 하나가 바로 "In-place 연산"입니다. 이는 새로운 값을 담을 공간을 만들지 않고, 기존 메모리 공간에서 직접 값을 수정하는 연산을 뜻합니다. 개념을 이해하고 나면 optimizer.zero_grad()나 optimizer.step()과 같은 연산에서 왜 = 할당 없이도 값이 바뀌는지 자연스럽게 이해할 수 있습니다.예제로 보는 In-place 연산import torch# 일반 연산x = torch.tensor([1.0, 2.0, 3.0])y = x + 1print(x) # tensor([1., 2., 3.])print(y) # tensor([2., 3., 4.])# In-place 연산x...
머신러닝&딥러닝
2025. 5. 28. 22:55
반응형
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 오블완
- chat gpt api 비용 계산
- 주식투자
- 퀀트투자
- 로또 ai
- 기술적분석
- chat gpt 한국어 가격
- 주린이탈출
- 클래스형 뷰
- 토치비전
- 장고 orm sql문 비교
- chat gpt 모델 api 가격 예측
- chat gpt 4o 예산
- 1165회 로또
- 골든크로스
- 티스토리챌린지
- 자동매매로직
- 1164회 로또
- Python
- 자동매매
- 주식공부
- 로또 1164회 당첨
- 인공지능 로또 예측
- chat gpt 가격 예상
- 재테크
- 차트분석
- Numpy
- chat gpt 모델별 예산
- chat gpt 모델 별 가격
- 케라스
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
글 보관함
250x250