일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- 손실함수
- GUI
- Batch
- propagation
- Plot
- pytorch
- 파일 열기
- MSE
- channel
- 객체인식
- 딥러닝
- 파이썬
- 그래프
- numpy
- 라벨
- 배치
- matplotlib
- 머신러닝
- dl
- TXT
- tensor
- 데이터셋
- 대학생
- perceptron
- PySide6
- 컴퓨터비전
- loss function
- 컴공
- 파이썬프레임워크
- 프레임워크
- Today
- Total
목록전체 글 (10)
Welcome to Jiyuniverse
해서 글 올릴 틈도 없다 . . . 그냥 바쁘게 공부 중.

하하하하하.labels 폴더가 다 날아갔었다. 처음 데이터셋에서 다시 같은 코드를 돌리는 게 내키지 않아서,images 내부 폴더 각각의 파일명과 비교해서 같으면 labels 내부 폴더에 저장하는 코드를 작성했다. def collect_same_file(origin_list, labels) : # origin_list = images_test origin_list_set = {os.path.splitext(os.path.basename(img))[0] for img in origin_list} dest_list = [label for label in labels if os.path.splitext(os.path.basename(label))[0] in origin_list_set] return de..
squeeze() 크기가 1인 차원을 자동으로 제거하는 함수이다.x = torch.rand(1, 1, 20, 128)x = x.squeeze() # [1, 1, 20, 128] -> [20, 128]x2 = x.squeeze(dim=1) # [1, 1, 20, 128] -> [1, 20, 128] batch_size = 1 일 경우 위의 코드에서 x와 같이 제거될 수 있기 때문에 dimension을 지정해주어야 한다. unsqueeze() 주어진 차원(dim)에 길이가 1인 차원을 추가해주는 함수이다. 차원을 하나 늘려서 텐서의 형태를 바꾼다고 생각하자. import torchx = torch.tensor([10, 20, 30])print(x.shape) # torch.Size([3])# dim=0에 ..
torch.rand(), torch.randint() PyTorch에서 0과 1 사이의 랜덤한 숫자로 이루어진 텐서를 생성하는 함수 import torchx = torch.rand(3, 4)print(x)#출력tensor([[0.7451, 0.2853, 0.5768, 0.9132], [0.1235, 0.6674, 0.8315, 0.4291], [0.3927, 0.8241, 0.1483, 0.9138]]) torch.rand(행, 열) -> (3x4) 크기의 랜덤 텐서를 생성한 코드이다. 모든 값이 0 이상 1 미만인 실수형(float32)이다. torch.randint(low, high, size)를 사용하면 low 이상 high 미만의 정수형 랜덤 텐서를 생성한다. torch...

KAIST 주재걸 교수님의 딥러닝 강의를 듣고 필기한 내용입니다. 추후 정리 예정 One kind of neural networksInput node, Weights → Output nodeSingle Layer Perceptron활성함수 : Hard thresholding function내적 + bias 값이 0 이상이면 1, 음수이면 0AND, OR, XOR Gate로 표현 가능Decision Boundary in Perception하나의 직선만으로 양수, 음수 구분 가능 (AND, OR) But, It is not possible to solve a XOR problem using a single layer perceptron→ Single layer perceptron can only solve ..