하드웨어

제온 파이는 GPU보다 빠르다는 주장에 엔비디아 정면 반박


  • 우예진 기자
    • 기사
    • 프린트하기
    • 크게
    • 작게

    입력 : 2016-08-19 21:18:00

    엔비디아는 8월 16일 인텔이 공개한 딥 러닝 관련 제온 파이(XEON Phi)와 엔비디아 GPU를 비교한 벤치마크 결과에 오류가 있다는 주장을 블로그를 통해서 공개했다. 인텔은 제온 파이가 GPU보다 2.3배 빠르며 38% 뛰어난 스케일링을 실현해 GPU에서는 실현이 불가능한 128개의 노드를 실현할 수 있다고 주장했다.

     

    이에 대해서, 엔비디아는 인텔이 이용한 벤치마크가 매우 오래된 것임을 지적했다. 인텔이 이용한 것은 18개월 전 공개된 카페 알렉스넷(Caffe AlexNet) 데이터로 최근 도입된 카페 알렉스넷을 사용한다면 맥스웰(Maxwell) GPU 4개를 탑재한 시스템 쪽이 제온 파이 4개를 탑재한 시스템보다 30% 더 빠르다고 주장했다. 또한 파스칼(Pascal) 4개를 탑재된 타이탄 엑스(TITAN X)를 이용할 경우 90% 더 빨리 트레이닝이 가능하다고 밝혔다. 

     

    스케일링에 대해서도 인텔이 인용한 것은 낡은 인터 커넥트를 채용한 4년 전 데이터라고 반박했다. 엔비디아는 더욱 신형의 맥스웰 GPU와 인터 커넥트를 채용한 시스템으로 바이두가 GPU을 128개까지 확장해 발표한 점을 들어 GPU로도 제온 파이 수준의 확장성을 제공하는 것이 가능하다고 밝혔다. 

     

    엔비디아는 인텔이 현재 딥 러닝 연구를 진행하는 것에 대해서 근 시일 내에 실현될 것으로 전망되는 AI 시대에 가장 중요한 컴퓨팅 혁명인 것은 분명하지만, 사실을 제대로 확인할 필요가 있다고 덧붙였다.

     

    한편, 인텔의 이그제큐티브 바이스 프레지던트 다이앤 브라이언트(Diane Bryant)는 8월 17일 제온 파이 프로세서의 차세대 모델에 대해 언급하고 딥러닝 모델용으로 더욱 뛰어난 성능과 효율을 갖췄다고 밝혔다.

     

    2017년 등장할 예정인 이 프로세서는 현재 나이트 밀(Knights Mill)이라는 코드명으로 불린다. 새로운 칩은 인텔의 단일 밀도 연산 성능을 더욱 향상시키고 딥 러닝의 워크 로드에 최적화되었다고 한다.

     

    인텔은 자사의 프로세서가 딥 러닝의 워크 로드를 지원하기 위해 전개된 서버의 97%에 탑재되고 있다고 전했다. 다만 2015년 전개된 서버에서 딥 러닝에 사용되는 것은 전체의 7%에 지나지 않는다고 브라이언트는 말했다. 당연히, 인텔은 이 비율이 향후 급속히 확대할 것이라고 전망했다.

     

    또 브라이언트는 이날 대규모 딥 러닝 프런티어를 더욱 가속화할 목적으로 인텔이 미국 에너지과학부의 국립 에너지 연구 과학 계산 센터(NERSC)와 제휴했음을 밝혔다.




    베타뉴스 우예진 기자 (w9502@betanews.net)
    Copyrights ⓒ BetaNews.net





    http://m.betanews.net/640553?rebuild=on