기업 비즈니스, 일상생활에 빠르게 적용… 연구결과, 오픈소스 개방하고 클라우드 서비스 제공

한양대 마케팅혁신 CEO아카데미 - 한상기 테크프론티어 대표(공학박사/전 카이스트 교수)

인공지능은 4차산업혁명의 핵심기술이다. 기업 뿐만 아니라 우리 사회 모든 영역에 적용되고 있다. 특히 앞으로 기업에선 인공지능을 빼면 비즈니스를 하기 어려운 것으로 보인다. 지난 11월7일 <한양대 마케팅혁신 CEO아카데미>에서 이 분야 최고 전문가인 한상기 박사의 강연이 있었다. 한상기 박사의 강연 내용을 요약 게재한다. <편집자 주>

 
지금은 대부분 기업이 인공지능을 더 이상 선택의 영역으로 두는 시대가 아니다. 구글은 “모바일 퍼스트 시대가 아니라 AI 퍼스트 시대로 간다”고 이야기 했다. 모든 영역에 인공지능이 있다.

인공지능은 어떤 곳에서 특수하게 적용하는 게 아니라, IT기술을 이용하는 모든 사업에 활용해야한다. 앞으로 모든 소프트웨어, IT기술이 인공지능이 될 거고 모든 디바이스가 인공지능을 활용할 수 있다. 마이크로소프트도 AI퍼스트 전략을 제시했다. 마이크로소프트 오피스에도 AI기술이 들어간다.

인공지능과 딥러닝
AI라는 말이 처음 나온건 1956년. 다트머스 대학에서 교수들이 “컴퓨터라는게 나왔으니까 이걸로 인간 지능에 한 번 도전해보자”고 했다. 그리고 10년 안에 그 문제를 풀 수 있을 거라고 생각했다. 그러나 다들 손들었다.

그런데 1980년대 들어와서 “지식을 많이 집어넣고 거기에 추론엔진을 붙여서 어떤 특정한 영역에서 문제를 풀 수 있는 게 효과적일 수 있고 혁신적”이라는걸 알아냈다. 그래서 많은 문제를 풀었다. 하지만 그 때 못 푼 문제들이 ‘이미지를 인식한다든가, 음성을 알아 듣는’ 등 인식이었다. 이해가 아니라 인지, 번역 등은 안풀렸다.

그 문제를 풀기 시작한 게 1990년대이다. 90년대 들어오면서부터 우리가 기계학습이라고 하는 머신러닝, 그 중에 특화된 딥러닝이라고 하는 기술들을 개발하면서 그 문제에 접근하기 시작했다.

딥러닝은 굉장히 다양한 영역에서 사용하고 있다. 딥러닝은 인간이 갖고 있는 지각 뉴런 구조에서, 시신경을 통한 인지, 소리를 듣는 방법을 컴퓨테이션 모델로 만든 것이다. 이건 굉장히 많은 이미지를 가지고 학습을 시켜야 한다. 고양이, 자동차, 원숭이, 강아지 등 이미지를 동원해 학습을 시켜서 최적화되는 과정을 거쳐 튜닝이 되면 이미지를 알아낸다.

예전에는 이런 데이터를 구하는 게 굉장히 어려웠는데, 지금은 어마어마한 사진데이터가 있다. 인스타그램, 페이스북, 구글에 올라오기 때문에 그런 걸 통해서 데이터를 확보할 수 있고, 데이터를 몇 백만 장, 몇 천만 장을 동원해 학습을 시킨다. 음성도 마찬가지이고 언어 번역도 마찬가지이다. 이런 것들이 가능한 몇 가지 요인이 있다. 일단 컴퓨테이션하는 하드웨어가 굉장히 빨라졌다. 또 데이터가 많아지고 딥 러닝을 하기 위한 알고리즘들이 발전했다.

그런데 왜 딥러닝인가? 원래 머신러닝이라는 것이 기계학습인데, 이 네트웍이 레이어가 많아졌을 때, “이 뉴럴 네트워크를 딥 뉴럴 네트워크라고 하자”라고 이름을 붙인 것이다. “딥 뉴럴 네트워크를 이용해서 학습하는 거를 딥 러닝이라고 하자”라고 이름을 붙인 것이다. 이 이름이 굉장히 좋은 마케팅 효과를 나타냈다.

그전에는 지식을 기반으로 했는데 딥 러닝은 데이터를, 학습을 기반으로 지능을 접근해보자고 패러다임을 전환한 것이다. 그런데 추상적인 개념, 추론, 기억, 이런 문제는 아직 못푼다. 그래서 용어를 혼란스럽게 생각하지 말아야 한다.

딥러닝이 해결한 문제
그럼 뭘 풀었는가? 이미지 인식을 풀어냈다. 많은 데이터가 갖고 있는 패턴을 찾아냈다. 데이터는 이미지, 음성도 있지만 보안의 침투데이터, 은행 보험 데이터라든가 헬스케어에 있는 영상의학적 데이터도 많다. 여기서 패턴을 찾아내는데 굉장히 뛰어나다.

구글에서는 사진을 보고 “시장에 사람들이 있고 야채가 있고 과일이 있다” 는 정도 알아낸다. 얼굴인식은 페이스북이나 구글에서, 주어진 세트에서는 사람을 능가하기 시작했다.
번역도 딥러닝을 이용하고 있기 때문에 점점 더 구글 번역이 좋아지고 있다. 많이 사용하면 할수록 학습의 영향에 의해서 훨씬 더 성능이 좋아진다. 음성재생합성이라는 것도 알파고로 유명한 딥마인드가 만들어낸 것이다.

마이크로소프트에는 ‘스카이프 트랜스레이터’가 있다. 음성, 화상, 문자도 보낼 수 있다. 한쪽은 아랍어로 하고, 한쪽은 영어로 하는데 동시통역이 이루어진다. 영어, 이태리어, 스페인어, 프랑스어, 독일어, 러시아어, 중국어, 일본어, 아랍어까지 동시통역이 가능하다. 한국어는 아직 안된다. 그래서 이제 외국사람하고 말을 못해서 비즈니스 못한다는 얘기는 할 수 없다. 마이크로소프트는 “음성 인식 문제는 인간 수준을 넘어섰다”라고 선언했다.

많은 지식 베이스를 저장하고 질문을 처리하고 문장을 처리하면서 가장 적합한 결과를 알려주는 ‘마케팅, 비즈니스 분석’ 기술은 많이 사용하고 있다. 대표적인 게 IBM의 왓슨. IBM의 왓슨은 딥러닝과 관련있는 기계는 아니고 지식베이스를 기반으로 해서 질의응답을 굉장히 빨리 처리해주는 시스템이다.

지금까지 나온 많은 인공지능 연구결과들은 오픈소스로 개방하고 클라우드 서비스로 제공한다. 그래서 구글의 클라우드나 마이크로소프트의 애저 클라우드, IBM이나 아마존의 클라우드엔 대한민국 웬만한 대학교 교수들이 만든 거보다 훨씬 더 뛰어난 알고리즘들이 다 공개돼 있다. 이젠 AI를 쓰려고 알고리즘을 개발하거나 네트워크를 구축하려고 노력할 필요가 없다.

 
인공지능과 생활
그러면 어디에다 쓸까? 제일 필요한 데가 돈 시장. 크게 4가지, 사람들에 대한 신용평가, 고객들과 관계관리, 사기성거래 감지, 자산관리 등이다.

골드만삭스 회장은 “우리는 더 이상 금융회사가 아니다. 우리는 테크컴퍼니다”라고 선언했다. 골드만삭스의 직원이 전 세계에 3만5천명이 있는데, 그 중 3분의1이 엔지니어다. 과거 뉴욕 본사에 주식 트레이더들이 600명이 있었는데 지금은 딱 2명이 일한다. 나머지는 다 소프트 알고리즘으로 한다.

그러면 우리 일상생활에는 어떤 게 들어오는가? 일상생활에서 처음 등장한 건 ‘시리’다. 아이폰 ‘가상 비서’이다. 구글은 ‘어시스턴트’, 삼성은 ‘빅스비’이다.

2015년 아마존은 ‘에코’라는 스피커를 발표한다. 스피컨데 음성을 인식하고 대답을 해주기 시작한다. 이름이 알렉사인데 ‘알렉사’라고 부르면 불이 들어오고, 질문을 하면 대답을 해준다. 우버 호출하면 우버를 연결해주고, 음식 주문하면 음식 주문 해주고, 물건 주문시키면 아마존에서 물건을 주문해준다. 작년에 미국에서만 천만 대 팔렸다.

이 알렉사엔 다른 회사들의 서비스들을 연결할 수 있다. 이걸 ‘스킬’이라고 하는데 이 스킬이 벌써 2만개를 넘었다. 2만개 이상 애플리케이션들이 이 알렉사와 연동해 쓸 수 있다.

구글이 ‘홈’, 네이버가 ‘웨이브’, 카카오가 ‘카카오 미니’ 내놨고 삼성이 또 내놓았다. 그리고 스피커 업체들도 내놨다. 아마존의 알렉사는 이런 모든 디바이스와 다 연동한다. 기업이 만드는 기계가 있거나 서비스가 있다면 빨리 알렉사와 연동하는 게 좋다.

마이크로소프트는 ‘코르타나’라는 걸 갖고 있다. 마이크로소프트는 피씨 환경에 좋다. 코르타나는 파워포인트, 엑셀을 열 수 있다. 그래서 아마존과 마이크로소프트가 협력했다. 이 두 회사가 서로 손잡고 코르타나와 알렉사가 협력하게 만든 것이다.

이제  인공지능이 자기들끼리 협력해서 “우리 주인님이 원하는 건 이것 같은데 이건 네가 제일 잘하니 네가 해” 하는 시대로 간다. 이것을 컨버세이셔널 컴퓨팅(conversational computing)이라고 한다. 로봇 청소기, GE에서 나온 램프, 스마트 워치, 자동차 등에 다 들어간다.

자율주행자동차는 생각보다 어려운 문제이다. 기술로는 80% 와 있다. 그럼에도 불구하고 아직까지 어렵다. 하지만 갈 것이다. 일년에 교통사고 사망자가 대한민국 4500명 정도,  전세계에서 120만명이다. 전쟁보다 더 많이 죽는다.  교통사고를 없애면, 일년에 수천명 수백만명이 살 수 있다. 그래서 공학자들이 이 문제를 풀려고 한다. 그런데 자율주행자동차가 풀리면 우리가 사회가 큰 변화를 일으킵니다.

AI를 마케팅에 활용하는 것은 페이스북 등에서 굉장히 열심히 하고 있다. 그리고 페이스북에선 광고의 형식이 자기들의 가이드라인에 맞는지 아닌지 판단하는 걸 소프트웨어로 하고 있다. AI로 웹사이트 디자인을 자동으로 하고, 보고서 작성, 신문기사도 소프트웨어가 담당하고 있다. 국내기업 중에선 네이버가 제일 잘한다. 그 다음 삼성전자, 카카오 브레인이 있다.

인공지능과 사람의 문제
기계가 언제쯤 인간의 지능을 넘어설 것인가?
가장 최근 AI학자들은 120년이라 했다. 인간의 지능은 굉장히 다양하다. 여기서 지능이란 세상을 모델링하고, 우리가 파악한 세상에서 내게 주어진 문제를 해결하고 실행할 수 있는 능력을 말한다.

언어 번역은 2024년, 고등학생 에세이 쓰는 수준은 2026년, 2049년 쯤엔 베스트셀러 책을 쓸 수 있고 외과의사는 2053년 쯤에 가능하다. 우리 아래 세대들, 지금 20대들은 이들과 경쟁해야 한다. 그런데 몇 가지 해결해야 할 사회적 문제가 등장하기 시작했다.

첫 번째, 이 알고리즘의 공정성이다. 입사지원 서류 면접을 소프트웨어로 하면 공정하다고 할 수 있는가? 구글에서 이미지 인식을 잘못해 여자사진에 고릴라라고 자동태깅했다. 구글에서 바로 사과하고 이 문제 해결했다. 작은 기술적인 오류가 사람에게 어마어마한 모욕을 준것이다. AI기술에 오류가 생기면 나타나는 사회적문제를 어떻게 대응할 것인가 생각하지 않으면 굉장히 큰 실수를 할 수 있다. 이런 문제를 다룬 책이 『대량살상수학무기』이다.

다음은 도덕적 판단을 할 수 있는가하는 것이다. 자율주행 자동차가 굉장히 위급한 상황에서 “차안에 있는 사람과 10명의 보행자 중 누구를 선택하는 게 옳을까?”라고 할 때 76%가 “10명의 보행자를 구하고 차안에 있는 사람을 포기하라”고 대답했다. 그 후, “그런 논리를 장착한 자율주행차가 나오면 사시겠습니까?” 라고 물어봤더니 50%가 “안산다” 했다. 왜? 나를 포기할 수 있기 때문에.

윤리에 대한 연구를 많이 하고 있는데, 아직은 시작이다. 인간의 가치와 정합되는 그러한 윤리를 갖게 만들어야한다고 주장하지만, 그게 뭔지, 우리들 인간의 가치가 과연 뭔지를 잘 모른다. 우리의 가치관이 통일되지 않았다. 그렇지만 최소한 지켜야할 것은 지키는 노력을 개발자들이 하자는 것이다.

아시모프가 1950년 소설에서 로봇 3원칙을 내놓는다. 유럽에서는 이 3원칙을 기본으로 지키자고 하지만, 상당히 어렵다.

첫번째가 “인간을 해치거나 인간에 해가 되는 상황을 그냥 좌시하면 안된다” 이다. 그런데 상대방을 인간이라 확인하는 것이 로봇의 입장에서는 쉬운 문제가 아니다. 문제는 우리의 의도를 인공지능 로봇이 어떻게 정확히 알아듣게 하는 거냐는 것이다. 이걸 마이다스 프로블럼이라고 한다.

이렇게 인공기술은 이제 시작하지만 기술이 확장 되고 파급되면 사회 전체를 변화시킨다. 만약 우리 사회에서 인공지능 로봇이 모든 생산을 담당하고, 여러 가지를 대응해준다면 인간의 삶은 행복할까, 아니면 불행해질까?

정리 = 이새몬 기자

저작권자 © 넥스트미디어 무단전재 및 재배포 금지