일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- 추천시스템
- TEAM EDA
- 코딩테스트
- 알고리즘
- 나는 리뷰어다
- DilatedNet
- Segmentation
- MySQL
- Object Detection
- 3줄 논문
- TEAM-EDA
- Python
- 협업필터링
- 튜토리얼
- pytorch
- 나는리뷰어다
- 프로그래머스
- hackerrank
- 큐
- 스택
- Machine Learning Advanced
- 입문
- Semantic Segmentation
- DFS
- 파이썬
- eda
- 한빛미디어
- Image Segmentation
- 엘리스
- Recsys-KR
- Today
- Total
목록EDA Study/선형대수학 (2)
TEAM EDA
아래의 내용은 edwith에서 강의하는 주재걸 교수님의 [인공지능을 위한 선형대수] 강의 필기를 정리한 자료입니다. 핵심 키워드 스칼라(Scalar), 벡터(Vector) 그리고 행렬(Matrix) 열 벡터와 행 벡터(Row Vector, Column Vector) 벡터와 행렬의 연산 스칼라, 벡터 그리고 행렬은 선형대수의 값들을 표현하는 방식입니다. 스칼라의 경우 하나의 숫자로 표현하고, 벡터의 경우는 숫자들의 순서가 있는 리스트로 표현하고 행렬의 경우 배열이 모여서 값을 표현합니다.(하나의 배열로 이루어진 경우도 행렬이라고 할 수 있습니다.) 선형대수에서 중요한 점은 Vector의 표현은 기본적으로 Column vector을 기준으로 하는 점입니다. Column vector의 경우 헷갈리기 쉬운데, ..
참고: 아래의 포스터 내용은 Sheldon_Ross - Introduction to Probability 교재의 ch9 : Regression을 정리한 자료입니다. 9.1 Introduction 많은 분야에서 사람들은 *변수들간의 관계*를 알고 싶어 했습니다. 고민 끝에 그들은 단순하면서도 강력한 방법을 고안해내게 되고 이것이 바로 선형회귀(linear regression)입니다. 선형 회귀의 공식은 아래와 같습니다. dependent variable(독립변수) X를 가지고 reponse variable(반응변수) Y를 예측해 내는 방법입니다. 이를 통해서 베타값을 구해내게 되고 베타가 변수들간의 관계를 표현해내는 값이 됩니다. 추가로, random하게 발생하는 error를 보정하기 위해서 평균값 0을 ..