[Youtube] Gradient descent, how neural networks learn | 딥러닝(2)
·
Learning-Log/Computer Science
[Youtube] But what is a neural network? | 딥러닝(1)
·
Learning-Log/Computer Science
영상 리뷰 예정
[Do it ! 정직하게 코딩하며 배우는 딥러닝 입문] 3장 머신러닝의 기초를 다집니다 - 수치예측(2)
·
Learning-Log/Computer Science
03 머신러닝의 기초를 다집니다 - 수치예측(2) 03-2 경사 하강법으로 학습하는 방법을 알아봅니다 선형 회귀의 목표는 입력 데이터(x)와 타깃 데이터(y)를 통해 기울기(a)와 절편(b)를 찾는 것이었습니다. 즉, 산점도 그래프를 잘 표현하는 직선의 방정식을 찾는 것이 회귀 알고리즘의 목표였습니다. ··· 경사 하강법(gradient descent)이 바로 그 방법 중 하나입니다. 경사 하강법 : 기울기를 사용하여 모델을 조금씩 조정하는 최적화 알고리즘 y' = wx+b w는 기울기이므로, ceteris paribus 하에서 w와 y'의 관계는 아래와 같다. w가 양수일때, (w, y')평면에서 우상향 w가 음수일때, (w, y')평면에서 우하향 따라서, 어떤 경우라하여도 w에 w_rate를 더해준다..
[Do it ! 정직하게 코딩하며 배우는 딥러닝 입문] 3장 머신러닝의 기초를 다집니다 - 수치예측(1)
·
Learning-Log/Computer Science
03 머신러닝의 기초를 다집니다 - 수치예측(1) 03-1 선형 회귀에 대해 알아보고 데이터를 준비합니다 선형 회귀(Linear Regression) : Linear 함수의 기울기와 절편을 찾아준다 > 이는 곧 선형(Linear) 함수 그 자체를 찾아준다는 뜻과 같다. 회귀(Regression) : 두 변수 x와 y의 관계(함수) 추론 따라서 선형 회귀란, 입력(x)-타겟(y)으로 이루어진 데이터셋을 통해 그 관계(함수)를 선형으로 도출하는 것이라고 볼 수 있다. from sklearn.datasets import load_diabetes diabetes = load_diabetes() print(diabetes.data.shape, diabetes.target.shape) #(442, 10) (442,..
[Do it ! 정직하게 코딩하며 배우는 딥러닝 입문] 2장 최소한의 도구로 딥러닝을 시작합니다
·
Learning-Log/Computer Science
02 최소한의 도구로 딥러닝을 시작합니다 02-1 구글 코랩을 소개합니다 colab : 구글이 제공하는 주피터 노트북 Ctrl + M,D : 셀 삭제 Shift + Enter : 실행 후 다음 셀 이동 Ctrl + Enter : 실행 Alt + Enter : 실행 후 아래에 새로운 셀 삽입 및 새로운 셀로 이동 Ctrl + M,H : 단축키 설정 Ctrl + Shift + P : 명령 팔레트 02-2 딥러닝을 위한 도구들을 알아봅시다 NumPy NumPy : 파이썬 패키지 2차원 배열 : 행렬 넘파이 array : 아래처럼 numpy.ndarray 타입은 print시 별다른 설정 없이도 행렬을 보기좋게 구현해준다. import numpy as np my_arr = np.array([[10, 20, 30]..
[Do it ! 정직하게 코딩하며 배우는 딥러닝 입문] 1장 딥러닝을 소개합니다
·
Learning-Log/Computer Science
01 딥러닝을 소개합니다 01-1 인공지능을 소개합니다 Artificial Intelligence Strong AI Weak AI 01-2 머신러닝을 소개합니다 기계학습(Machine Learning) 학습(훈련) : 데이터의 규칙을 컴퓨터 스스로 찾아내고 수정하는 과정 규칙 : 수식(모델)에서의 가중치와 절편 모델 : 학습을 통해 만들어진 프로그램(수식) 그 자체. 머신러닝의 수학적 표현. 모델은 새로운 입력에 대한 예측(타겟)을 만들어 낸다. 손실함수 : 타겟값과 예측값의 차이를 계산하는 함수. 최적화 알고리즘 : 손실 함수의 최솟값을 효율적으로 찾는 방법론. 지도학습(supervised learning) : 훈련데이터(입력과 타겟)를 통해 모델을 훈련시키는 과정 > 정형 데이터에 유효 비지도학습(u..
행복, 후회, 걱정
·
Thinking-Log/인간에 관한 생각
과거를 떠올리면 뿌듯하면서도 또 후회되고 미래를 상상하면 기대되면서도 동시에 걱정스럽다. 이것은 '완벽'이라는 속성과는 거리가 먼, 인간으로서의 '완벽한 모습'이다. 행복하려면, 현재에 충실해야 한다. 살음. 삶. 그리고 행복. 뿌듯함도 후회도 기대도 걱정도 행복도 모두 현재 느끼는 감정이다. 하지만 저들 중에서 오직 행복만이 '현재에 대한' 감정이다. 과거의 행복했던 추억이나 미래에 대한 행복한 상상이 불러일으키는 감정은 엄밀히 말해 행복이 아닌 다른 감정상태로 불러야한다. 과거를 되짚지 말고, 미래를 그리지 말라는 것이 아니다. 과거와 미래 속에서는 행복을 찾을 수 없다는 뜻이다. 슬프지만 우리는 완벽하게 인간이므로... 살음. 삶. 그리고 행복. 사랑합니다. 행복하세요.