[업데이트 2018.11.02 17:42] Caffe에서 Layer관련 C++코드에 대해 디버깅 메세지를 확인해야 할 때가 있는데, 기존 코드를 살펴보면 Google Logging Library(GLog)를 사용하도록 되어 있습니다. 특정 위치에 로그가 생성되게 하기 위해서는 Ubuntu home directory로 이동후, .bashrc 파일을 열어 아래와 같이 GLog Path를 추가합니다. (/tmp path에 생성 되도록 추가) 다음과 같이 원하는 위치에 로그 파일이 생성됩니다. * 참고[1] https://codeyarns.com/2017/10/26/how-to-install-and-use-glog/
[업데이트 208.11.02 17:49] Caffe에서 로그를 확인하기 위한 방법입니다. Caffe C++ 코드내에 GLog의 경우는 별도로 생성되는 GLog를 통해 확인 할 수 있습니다. (GLog post) ./build/tools/caffe train --solver=/path/to/my_solver.prototxt 2>&1 | tee your_name.log subprocess.call(".build/tools/caffe train You/solver/path 2>&1 | tee You/log/path", shell=True) * 참고 : https://groups.google.com/forum/#!topic/caffe-users/0x8h97Si-Lk
[업데이트 2018.10.25 16:32] Caffe에서 model 정의 등을 위해 사용되는 prototxt파일에 대해 visualization을 해볼 수 있는 웹사이트입니다. https://dgschwend.github.io/netscope/quickstart.html network 구조에 대해서 보여주며, 각 레이어별로 파라메터 사이즈 등 상세한 정보를 테이블로 보여줍니다.아래의 스크린샷은 Caffe에서 제공하는 AlexNet에 대한 caffe/models/bvlc_alexnet/deplay.prototxt 파일을 visualization한 결과입니다. 추가로 찾은 사이트 : http://yanglei.me/gen_proto/ * 참고[1] https://dgschwend.github.io/netsc..
[업데이트 2018.09.28 11:40] Deep learning 학습을 위해 개발환경 구축에 대해 고민하던 중, AWS에 deep learning 환경을 구축해보기로 하였습니다. 최근에는 EC2 인스턴스를 생성시 제공되는AMI(Amazon Machine Images)를 사용하면, deep learning 라이브러리, CUDA 등 필요한 환경 구축을 할 필요없이 바로 사용할 수 있습니다. 먼저 EC2 인스턴스를 On-Demand 형태로 구축해보는 것을 포스팅 하려고 합니다. 1. Gmail 계정 생성 먼저 AWS에서 사용될 root 계정을 위해 Gmail 이메일을 생성합니다. (생성 절차는 본 포스팅에서 생략합니다.) 2. AWS 계정 생성 이제 이전에 만들었던 Gmail로 AWS 계정을 생성합니다. ..
[업데이트 2018.08.31 10:45] 구글에서 무료로 제공하는 deep learning을 수행할 수 있는 Colab이라는 개발환경입니다. GPU NVidia K80, iPython, Jupyter Notebook 기반으로 동작합니다. 또한 구글 드라이브와 연동하여 편리하게 사용할 수 있습니다.아래의 참고 링크를 보시면 상세한 개발 환경 설정 방법을 확인하실 수 있습니다. 저의 경우 구글 드라이브에 deep_learning이란 폴더를 생성후 그 하위 폴더에 각 프로젝트별로 폴더 생성 및 ipynb Jupyter Notebook 파일 및 Python 파일을 관리 및 실행 하였습니다. 구글 드라이브 마운트를 아래의 링크를 보면 drive로 지정하는데, 다음과 같이 바로 python 파일을 실행하도록 하였..
[업데이트 2017.11.28 14:49] 기존에 사용하였던 logistic regression에서 성능 향상을 위해 간단한 Neural Network 및 Convolutional Neural Network를 사용하여 Kaggle submission 결과를 비교 하였고, NN의 경우 hyper parameter 조정을 통해 약 78%, CNN을 사용함으로써 accuracy를 약 80%까지 올릴수 있었습니다. NN의 경우 Layer를 3개, 각 Layer당 activation unit 16개를 사용 하였고, ReLU 및 Xavier initializer를 사용하였고, dropout(0.5)을 설정하였습니다. activation unit, layer 개수를 무작정 늘린다고..
[업데이트 2018.03.18 14:11] Tensorflow 예제 중에 MNIST data에 대해 classification하는 예제가 있습니다. 해당 예제의 경우 MNIST data를 다운로드를 하는데, 만약 다음과 같은 오류가 발생할 경우 proxy server 설정이 되어 있지 않은 경우입니다. C:\Python36\python.exe C:/dev/ai/NeuralNetwork03.py Traceback (most recent call last): File "C:\Python36\lib\urllib\request.py", line 1318, in do_open encode_chunked=req.has_header('Transfer-encoding')) File "C:\Python36\lib\htt..
[업데이트 2017.10.31 13:13] 최종 소스 코드는 아래와 같으며, 코드 로직은 다음과 같이 수행됩니다. Logistic Regression을 사용하여 training을 진행하였고, feature scaling을 사용하였습니다. Training data는 크게 training data, cross-validation data, test data로 나누어 evaluation을 하도록 하였습니다. 그 외에 hyper parameter를 통해 튜닝 할 수 있도록 구현 하였습니다. 1. Run Pre-Processing. 2. Load the CSV Files to Tensorflow. 3. Training the training data. 4. Run cross-validation data from ..
- Total
- Today
- Yesterday
- Game Engine
- Badge
- Sea Bottom
- 도커
- Mask R-CNN
- #REST API
- Meow
- #ELK Stack
- Library
- SSM
- aws #cloudfront
- Worry
- ate
- sentence test
- Jekyll and Hyde
- 2D Game
- some time ago
- OST
- ILoop Engine
- #ApacheSpark
- docker
- Ragdoll
- GOD
- project
- #ApacheZeppelin
- Memorize
- English
- Physical Simulation
- #TensorFlow
- belief
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |