본문 바로가기

반응형

Study/AI

(21)
[부스트코스 코칭스터디 AI Basic 1기] #1-3. 파이썬 기초 문법Ⅱ 보호되어 있는 글입니다.
[모두의 딥러닝](Pytorch) #4. XOR 문제에서 발견한 퍼셉트론의 한계 + 다층 퍼셉트론(신경망)을 통한 해결 '모두의 딥러닝' 개정 2판 + 세종대학교 최유경 교수님의 인공지능(2021)으로 공부한 글입니다. # 신경망의 이해 # 6장: 퍼셉트론(perceptron) 입력 값이 일정한 수준을 넘으면 참을, 그렇지 않으면 거짓을 내보내는 회로는 뇌의 뉴런과 비슷한 매커니즘을 갖고 있습니다. 뉴런 또한 신경 말단에서 자극을 받아 생기는 전위가 임계 값을 넘으면 다음 뉴런으로 신호를 전달하고, 그렇지 않으면 아무것도 하지 않기 때문입니다. 뉴런은 서로 긴밀히 연결되어서 인간이 '생각'할 수 있게 합니다. 그렇다면 컴퓨터에도 뉴런과 비슷한 매커니즘을 도입하면 인공적으로 '생각'하게 만들 수도 있을 것 같습니다. 이런 아이디어를 바탕으로 출발한 연구가 바로 인공 신경망(Artificial Neural Network, 신..
[모두의 딥러닝] #3. 로지스틱 회귀(logistic regression) '모두의 딥러닝' 개정 2판 + 세종대학교 최유경 교수님의 머신러닝(2021) + alpha 로 공부한 글입니다. # 딥러닝의 동작 원리 # 5장: 로지스틱 회귀(logistic regression) 로지스틱 회귀(logistic regression)는 참과 거짓 중에 하나를 내놓는 과정입니다. 그리고 이 과정이 바로 딥러닝의 토대를 이룹니다. # 5.1.1 로지스틱 회귀(logistic regression)의 정의 독립변수와 종속변수의 관계를 좌표에 나타냈을 때, 직선으로 그래프가 표시되는 경우에는 선형 회귀를 사용하는 것이 적절했습니다. 그러나 독립변수에 따라 0 아니면 1, O 아니면 X 등 두 개의 종속변수 값으로만 나타나는 경우도 있습니다. 예를 들어 다음과 같은 경우가 있을 것입니다. 공부한 ..
[부스트코스 코칭스터디 AI Basic 1기] #1-1. 파이썬/AI 개발환경 준비하기 본 포스트는 '부스트코스 코칭스터디 AI Basic 1기'로 활동하고 '인공지능 기초 다지기' 강의를 들으며 공부한 것을 정리한 글입니다. # 1-1-1. 기본적인 컴퓨터 시스템(파일 시스템&터미널 환경) 컴퓨터 OS Operating System, 즉 운영체제를 말한다. 프로그램이 동작할 수 있는 구동 환경이다. application은 모두 OS에 의존적이기 때문에 프로그램을 설치할 때 사용하는 OS에 맞추어서 설치해야 한다. 그러나 Python은 운영체제에 독립적인 프로그래밍 언어이다. 파일 시스템(File system) OS에서 파일을 저장하는 트리구조 저장 체계 파일의 기본 체계는 파일과 디렉토리로 나누어지며 디렉토리(Directory)는 폴더로, 파일과 다른 디렉토리를 포함할 수 있다. 윈도우를..
[모두의 딥러닝](Pytorch) #2-3. 선형 회귀(Linear regression) 코딩으로 구현하기 세종대학교 최유경 교수님의 인공지능 강의(2021) + alpha 로 공부한 후 작성한 포스트이며, 작성한 코드는 모두 강의 코드의 사본입니다. Pytorch란? Torch라는 딥러닝과 머신러닝 용 라이브러리가 있는데, 이것을 Python 언어로 사용할 수 있게끔 한 언어입니다. Pytorch를 사용하면 Torch라는 언어를 사용해서 프로그래밍 할 것을 Python 언어를 사용해서 프로그래밍 할 수 있습니다. # Lab 1: optimizer 사용해서 SGD 구현 GD는 Gradient Descent(경사하강법)의 약어입니다. SGD는 조금 더 개선된 GD로 확률적 경사하강법입니다. https://colab.research.google.com/drive/1vhUu2pHtQnNwnPuQ3ttYRAAG-gP..
[선형대수] 행렬과 벡터의 차이 + 성분곱과 행렬곱, 벡터곱 # 1. 행렬과 벡터의 차이 벡터는 m×1이나 1×m으로 나타납니다. 행렬의 행이나 열 size가 1이면 그 행렬을 vector라고 부릅니다. 행렬은 m×n으로 나타낼 수 있습니다. 이는 m개의 행과 n개의 열로 이루어진 행렬입니다. 벡터를 원소로 가지는 2차원 배열로도 볼 수 있습니다. 의식해서 각 수를 개수라고 생각해야지, 안 그러면 헷갈립니다. 전 고등학교 과정에서 벡터만 배웠기 때문에 실수로 행렬과 벡터를 같은 개념으로 생각했습니다. 그러나 행렬과 벡터는 엄연히 다르게 사용되는 개념이기 때문에 혼동하지 않도록 주의해야 합니다. 행렬의 쓰임에 대한 정보는 링크한 포스트 참조(https://pasus.tistory.com/2) # 2. 성분곱(Hadamard product, 아다마르 곱) 성분곱은 벡..
[모두의 딥러닝](keras) #2-2. 선형 회귀(Linear regression) 코딩으로 구현하기 '모두의 딥러닝' 개정 2판의 예제 코드를 이용하여 공부한 글입니다. 앞서서 선형 회귀의 이론에 대해 자세히 공부해보았습니다. 해당 글은 바로 아래에 링크해두었습니다. 2021.12.31 - [개인 공부/AI] - [모두의 딥러닝] #2. 선형 회귀(Linear regression) - 평균 제곱 오차(MSE), 경사 하강법(Gradient descent algorithm) [모두의 딥러닝] #2. 선형 회귀(Linear regression) 이론 - 평균 제곱 오차(MSE), 경사 하강법(Gradient descent '모두의 딥러닝' 개정 2판 + 세종대학교 최유경 교수님의 인공지능 강의(2021) + alpha 로 공부한 글입니다. # 딥러닝의 동작 원리 # 3장: 선형 회귀(Linear regre..
[모두의 딥러닝] #2-1. 선형 회귀(Linear regression) 이론 - 평균 제곱 오차(MSE), 경사 하강법(Gradient descent algorithm) '모두의 딥러닝' 개정 2판 + 세종대학교 최유경 교수님의 인공지능 강의(2021) + alpha 로 공부한 글입니다. # 딥러닝의 동작 원리 # 3장: 선형 회귀(Linear regression) 딥러닝의 가장 기본적인 계산 원리 두 가지는 선형 회귀와 로지스틱 회귀입니다. 그럼 우선 선형 회귀에 대해 공부해봅시다. # 3.1 선형 회귀(linear regression)의 정의 'y는 x에 따라 달라진다.'고 할 때, x를 독립 변수라 하고 y를 종속 변수라고 합니다. 독립 변수는 독립적으로 변할 수 있는 값이고 종속 변수는 독립 변수에 따라 종속적으로 변하는 값입니다. ex. x시간을 공부하면 y점이 나온다. 선형 회귀는 독립 변수인 x를 사용해 종속 변수 y의 움직임을 예측하는 작업입니다. 특히 선..

반응형