과학

터치스크린에 닿는 손끝을 통해 사람의 감정을 읽는 인공지능 등장


  • 우예진 기자
    • 기사
    • 프린트하기
    • 크게
    • 작게

    입력 : 2018-09-07 14:41:09

    ▲ © 아마존 인공지능 알렉사 로고

    인공지능을 활용한 차세대 이노베이션으로 기대가 모아지는 분야가 바로 감정 인식 분야다. 아마존은 이미 사람의 음성에서 감정을 읽기 위한 연구를 진행하고 있다. 그렇다면 음성이 아닌 터치스크린에 닿는 손끝의 움직임에서 감정을 읽을 수도 있을까?

    캐나다의 브라이언 마이닝 랩(Brain Mining Lab) 소속 연구자, 알리샤 헤라즈(Alicia Heraz)는 터치스크린에 닿는 손끝의 움직임을 통해 감성을 읽는 알고리즘을 개발 중이다. 헤라즈는 디지털 헬스 영역의 의료 저널 JMIR에 해당 논문을 발표했다.

    헤라즈는 “사람은 동영상 속 다른 사람의 행동을 통해서 감정을 읽을 수 있다. 기계 학습을 통해서 기계도 사람의 감정을 파악할 수 있고 그 정확도는 사람보다 앞설 것”이라고 밝혔다. 이 기술은 헬스 케어 분야에 큰 발전을 가져올 것으로 기대를 모으는 가운데, 감정을 읽을 수 있는 터치보드 개발이 헤라즈의 목표다. 

    향후 트위터나 페이스북 유저가 게시글을 올릴 때의 심리 상태를 파악할 수 있게 되어 마케팅이나 헬스 케어, 기업 매니지먼트 분야에 큰 진보가 기대된다. 다만 감정 데이터 수집은 새로운 사생활 침해 우려의 대상이다.  

    헤라즈의 연구팀은 117명의 자원 봉사자를 대상으로 수십만 회의 터치스크린 입력 데이터를 수집했고, 기계 학습에 의한 감정 분석을 실시했다. 그 결과 91% 정도의 감정을 읽을 수 있는 시스템을 구축할 수 있었다. 이는 사람의 인식 정도인 84%를 웃도는 결과다.

    헤라즈는 터치스크린에서 감정을 읽을 수 있는 API를 개발 중이다. 손끝의 진폭과 힘의 세기, 움직임의 속도, 매끄러움과 같은 상세한 데이터를 수집함으로써 다양한 감정을 인식할 수 있게 되는 것. 연구팀은 곧 이 API을 제품 리뷰 사이트인 프로덕트헌트(ProductHunt)에서 공개할 예정이다.

    헤라즈는 “우리가 만든 API를 통해서 앱 개발자와 웹 사이트 운영자들은 유저의 손끝 움직임에서  감정 데이터를 수집할 수 있게 될 것”이라고 말했다.


    베타뉴스 우예진 기자 (w9502@betanews.net)
    Copyrights ⓒ BetaNews.net





    http://m.betanews.net/905526?rebuild=on