모빌리티

자율주행차에는 눈뿐만 아니라 귀도 필요하다?


  • 우예진 기자
    • 기사
    • 프린트하기
    • 크게
    • 작게

    입력 : 2017-09-26 16:12:58

    사람이 자동차를 운전할 때 필요한 기관은 눈과 귀다. 눈과 귀를 통해 운전자는 운전에 필요한 모든 정보를 얻고 이를 뇌에 제공한다. 예를 들어 소방차가 뒤에서 빠른 속도로 접근할 대는 길을 비켜주는 등의 판단이 가능하다.

    하지만 자율주행차가 이 상황을 이해하려면 더욱 많은 정보가 필요해진다. 주위에 있는 모든 물체와 상황에 대해 판단하려면 다수의 카메라를 운용해야 하며, 여러 대의 라이더(LiDAR)를 통해 레이저 스캔도 진행된다. 하지만 이것만으로는 부족하다. 사람은 소방차가 뒤에서 다가온다는 것을 귀로 알 수 있다. 스테레오로 소리를 들으면 소방차가 어디에 있고, 어느 쪽으로 향하는지, 속도는 얼마인지 판단할 수 있다.

    하지만 현재 대부분의 자율주행차는 소리를 들을 수 없다. 개발자들은 듣는 기능을 자동차에게 학습시키려 연구 중이다. 구글의 자율주행차 개발 부문 웨이모(Waymo)는 현재 애리조나주 피닉스에서 자율주행용 미니 밴을 주행 시험하고 있다.

    웨이모는 기존 센서보다 2배 이상 멀리 떨어진 곳의 소리를 들을 수 있으면서 음원의 방향을 판단할 수 있는 시스템을 개발했다. 웨이모는 얼마 전 미니 벤과 경찰차와 소방차가 동시에 주행하는 실험을 실시했다. 경찰차와 구급차, 소방차가 웨이모의 미니 밴을 쫓고 추월하는 상황을 연출하고, 미니 밴에 탑재된 다수의 센서가 다량의 데이터를 확보했다. 

    이 데이터를 이용해 긴급 차량이 내는 온갖 소리에 관한 데이터베이스를 구축함으로써, 향후 웨이모의 무인 차량은 이에 대한 대처법을 알게 된다. 예를 들어 뒤에서 소방차가 다가오면 자동차는 갓길에 정지한다. 왼쪽에서 구급차가 다가오면 자동차는 길을 터준다.

    이런 정보는 자율주행 기술의 진보를 위한 데이터가 확대되었음을 의미한다. 인공지능 시스템의 정보와 경험이 증가할수록 길에서의 판단력은 향상될 것이다.

    자율주행차는 이제 청력 외에도 사람에게는 당연한 소통 능력을 갖추려 한다. 전체 방향에서 주행하는 차량이 모두 일시 정지하는 교차로 상황을 예로 들면, 사람이라면 고개를 끄덕이거나 웃거나 혹은 손가락을 세워서 자신의 의사를 표현할 것이다.

    자율주행차의 경우 이런 커뮤니케이션이 불가능하다. 따라서 차량과 차량(V2V) 또는 차량과 사회 간접 자본(V2I) 간 무선통신을 이용해 다른 차량과 커뮤니케이션을 실시하고 있다. 이를 위해 몇몇 기업이 움직이고 있다. 애플은 V2V 무선 통신 특허를 신청한 상황이다. 또 캐딜락의 최신형 세단 CTS는 V2V, V2I 시스템을 표준으로 장비하고 있다.

    미국 도로교통안전국(NHTSA)에서는 이같은 시스템을 2020년까지 모든 차량에 의무 탑재하기로 했다.

    고속으로 주행하는 차량을 사람이 최소한의 조작으로 안전하게 제어할 수 있다는 사실은 사람의 뇌가 가공할만한 능력이 있음을 입증한다. 그래도 운전 실수는 일어난다. 인위적 실수는 세계에서 연간 125만 건으로 기록되는 교통 사망 사고 원인의 90%를 차지한다.

    컴퓨터에는 사람보다 훨씬 뛰어난 잠재능력이 있다. 어느 날 교통사고에 의한 사망이 제로에 가까운 수준으로 줄지 모른다. 다만 그것은 컴퓨터가 세계를 완전히 인식 및 이해할 수 있을 때나 가능한 얘기다.


    베타뉴스 우예진 기자 (
    w9502@betanews.net)
    Copyrights ⓒ BetaNews.net





    http://m.betanews.net/746871?rebuild=on