원래 맥북 에어2012를 사용하여

Tensorflow를 구동했었다.


데스크탑에 리눅스를 설치하기가 너무 귀찮아서


only CPU만 써도 그렇게 속도 차이 많이 안나겠지 했다.



게이트가 하나일때는 속도차이가 있는지 몰랐다.


하지만 밑과 같이


사진에는 안나와있지만


 첫번째 레이어에는 784개의 게이트가 있고

두번째 레이어에서는 500개의 게이트를 넣고

세번째 레이어에 256개

네번쨰 레이어는 128개가 있다.....


1개일때와는 부하가 확실히 많이 걸릴수밖에 없다.



그래서 일단 맥에서 돌려봤다. only CPU


Xavier에다가 dropout 까지 적용시켜 

Mnist 의 정확도가 98%까지 나왔지만

실행시간이 265초나 걸렸다......


진짜 답답해 죽는줄...





그런데 이것들


윈도우 Use GPU 환경(GTX 960/cuda8.0/cudnn5.1)에서 실행시켜봤다.

(출력 포맷이 차이나는건 파이썬 버전차이다)


역시나 정확도는 98% 나왔다.

그.런.데. 실행속도가 40초.


거의 6배가 넘는 속도차이다.


 역시 괜히 머신러닝에서 병렬 컴퓨팅을 이용하는게 아닌거같다.






여러분 저렴한 Nvidia 그래픽카드라도 달아보세요











+ Recent posts