일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- Semantic Segmentation
- Object Detection
- 추천시스템
- TEAM-EDA
- 스택
- 큐
- DFS
- pytorch
- 나는 리뷰어다
- 3줄 논문
- 튜토리얼
- Machine Learning Advanced
- 엘리스
- 파이썬
- 입문
- MySQL
- 한빛미디어
- Python
- Segmentation
- 알고리즘
- eda
- DilatedNet
- 협업필터링
- TEAM EDA
- Recsys-KR
- Image Segmentation
- 나는리뷰어다
- 코딩테스트
- hackerrank
- 프로그래머스
- Today
- Total
목록책 내용 정리 (3)
TEAM EDA
Note : 이 포스터는 (주)느린생각의 지원을 받아 딥러닝 쿡북이라는 교재로 스터디를 하고 작성하는 포스터입니다. 코드는 아래의 저자 링크(https://github.com/Dosinga/deep_learning_cookbook)를 활용하였습니다. 목차 4.1 데이터 수집하기 4.2 영화 임베딩 학습하기 4.3 영화 추천 시스템 만들기 4.4 단순 영화 평점 예측 이번 챕터에서는 위키피디아의 외부 링크를 기반으로 데이터를 수집할 것 입니다. 그리고 이를 바탕으로 임베딩 훈련을 시킨 후 SVM 모델로 간단한 추천시스템을 구현해보도록 하는 작업을 하겠습니다. 4.1 데이터 수집하기. 먼저 위키피디아의 덤프 페이지에서 최신 덤프 데이터를 수집합니다. # https://dumps.wikimedia.org/en..
Note : 이 포스터는 (주)느린생각의 지원을 받아 딥러닝 쿡북이라는 교재로 스터디를 하고 작성하는 포스터입니다. 이론은 딥러닝을 이용한 자연여 처리 입문(https://wikidocs.net/22660) 교재를 사용하였고 코드는 딥러닝 쿡북이라는 교재를 사용하였습니다. 단어 임베딩이란? 이 장에서는 단어 임베딩을 사용해 텍스트 간 유사도를 계산하는 방법을 설명합니다. 단어 임베딩은 원-핫 인코딩과는 다른방식으로 단어를 공간상의 벡터로 표현하는 기술 입니다. 단어 임베딩을 사용할 경우 비슷한 의미가 있는 단어들이 서로 가까운 곳에 나타나게 됨으로써 벡터 상에 단어의 의미를 포함시킬 수 있습니다. 이번 챕터에서는 단어 임베딩의 방법으로 구글의 Word2Vec을 사용할 것입니다. Word2Vec은 '비슷한..
Note : 이 포스터는 (주)느린생각의 지원을 받아 딥러닝 쿡북이라는 교재로 스터디를 하고 작성하는 포스터입니다. 동일한 교재로 공부하는 사람들에게 도움이 되었으면 좋겠습니다. 포스터 자체는 처음하는 사람들을 위한게 아니라 사전지식을 알고 있다는 전제하에서 코드구현과 하면서 생긴 의문점 등을 위주로 정리하도록 하겠습니다. 요약 : Chapter 01의 대략적인 내용은 신경망을 학습하면서 배우게 될 용어와 데이터를 구하는 사이트들 기본적인 테크닉들에 대해서 설명하고 있습니다. 하지만 중급자들을 위한 책답게 자세한 설명은 나와 있지 않고 간단한 용어정리 위주로 되어 있습니다. 개인적으로 이 부분은 뻈어도 크게 무방하지 않았나 싶은 마음은 있습니다. 그래도 책에 나왔으니 가볍게 정리하고 넘어가도록 하겠습니다..