석사 학위를 받고 회사에 들어와서 인공지능 기술을 연구했다.
연구를 시작하며, 인공지능에 크게 관심이 없었던 당시 최적화(Optimization)이라는 단어에 깊은 관심을 가지고 있었다. 교수님의 추천으로 빅데이터라는 단어를 접하면서 본격적으로 빅데이터와 데이터 분석이란 무엇인가에 대해 알게 되었다. 처음 신경망 네트워크를 배웠을 때는 최적화에 관심이 있었던 나로써는 눈을 반짝반짝 빛내며 금새 흥미에 빠져들었다다. 그렇게 인공지능 기술 연구의 발을 들인지 시간이 지난 지금, AI 기술을 연구하면서 느낀 문제점에 대해서 서술해본다.
1. 인공지능은 학습한 것 만을 기억한다.
인공지능의 메커니즘은 기본적으로 데이터를 기반으로한다. 데이터를 우리가 정해놓은 함수의 형식에 맞게 최적화하여 최적의 함수를 찾아내는 것이 인공지능이다. 신경망 네트워크와 같은 복잡한 모델은 우리가 생각한 것보다 훨씬 복잡한 정확성을 가지고 있으며, 놀라운 결과를 낸다. 그러나 아무리 복잡한 네트워크 모델일지라도 학습하지 못한 것들은 재구성해낼 수 없다. 사람의 능력은 연상과 추론이 가능하지만, 인공지능은 추론에 대한 성질과는 거리가 멀다.
아래 그림을 살펴보자. 인공지능에게 빨간점들을 위치를 알려주고, 파란색 박스의 위치를 찾아내보라고 하면, 사람이고 인공지능이고 이건 맞추지 못한다.
이러한 인공지능의 특성이 치명적으로 작용하는 경우가 있는데, 바로 안전성과 직결된다는 점이다. 나는 Mobility의 솔루션을 연구하는 쪽에서 일하면서 이러한 예외처리가 항상 문제로 다가왔다. 새로운 상황에 대한 터무니없는 결과를 내놓으며, "이거 이렇게 만들어도 되는건가...?" 하는 윤리적인 의구심이 들었다. (예외에 대한 기술을 만들기 위해서 많은 사람이 노력한다. 경계 하지 않으면 정말 위험하다.)
2. 인공지능은 책임을 지지 않는다.
두 번째는 인공 지능의 책임론이다. 사실 신경망 네트워크고 다른 여타 기계 학습 알고리즘이더라도, 수식을 기반으로 만들기 때문에 이론적으로는 역추론이 가능하다. 이러한 점들을 활용하여 일부 연구진들은 XAI(eXplainable Artificial Intelligence, 설명가능한 인공지능)을 만들어가기도한다. 그러나, 실상 인공지능에 대한 솔루션을 제공할 때, 인공지능이 학습되지 않은 특별한 상황에 대해서 대처하지 못하는 만큼, 잘못된 결과를 도출할 경우 인공지능을 제공해준 솔루션 업체에 책임론을 제기할 수 있는가?
2021년 11월 GPS 기술로 탑재된 스마트 워치의 잘못된 결과 도출로 인하여, 범죄에 노출된 사례가 발생하였다. 피해자는 평소 스마트 워치가 본인의 신변을 지켜줄 것이라고 생각하며 안심했다고 한다. 그러나 피해자가 경보를 울렸던 스마트 워치의 결과는 GPS의 오차로 인한 잘못된 위치였고, 경찰이 엉뚱한 곳으로 출동했다고 한다.
그럼 여기서 이 사건에서 스마트 워치 개발자는 오차를 줄이지 못한 것에 대한 책임이 있는가?
인공지능과 센싱 기술은 데이터로 묶여 있어, 뗄레야 뗄 수 없는 사이 있다. 그러나 잘못된 계측으로부터 발생한 오탐지의 경우, 터무니 없는 결과를 불러일킬 수 있는 여지는 여전히 남아 있으며, 이러한 문제는 센서를 중복(Redundancy)으로 달아 해결하고자한다. 그러나, 이외의 새로운 상황에서 대처할 경우 인공지능은 책임지지 않는다. 그리고 그 범위도 명확하지않다.
3. 인공지능은 라벨링된 고품질 대량의 데이터를 요구한다.
세 번쨰는 인공지능의 원천(Source) 데이터에 관한 이야기이다. 인공지능은 문제를 알려주고, 정답도 알려준 후 새로운 문제에 대해서 답을 맞추는 형식으로 개발된다. 이러한 방법론은 지도학습(Supervised Learning)이라고 불리우며, 이외의 다른 방법은 정답을 알려주지 않은 채 학습하는 방식을 비지도학습(Unsupervised leanring)이라고 불리운다. 물론 지도학습이 항상 우세한 것은 아니나, 아무래도 정답 데이터가 요구되는 만큼 지도학습은 인공지능 기술에서 중요한 부분을 차지하고 있다. 문제는 여기서 학습의 뼈대를 열심히 만들어도, 곳곳에 데이터를 넣어 건물을 세워야하는데 건물을 세울 데이터가 없다는 것이다. 또 인공지능은 대부분의 솔루션에서 일반화(Generalization)이라고 불리우는 능력을 갖도록 광범위한 곳에 사용되길 원하기 때문에 고품질의 정답을 가진 대량의 데이터를 요구하게된다. 한마디로 대형 빌딩이라는 것이다. 이러한 인공지능은 연구의 수익화, 연구의 사업화 관점에서는 가히 데이터에 대한 대규모 투자가 이루어져야하는 한계를 가지고 있다.
여기까지 비판적으로 바로본 인공지능의 문제점들이다. 물론 문제점들을 해결하기 위하여 많은 연구진들이 노력을 기하고 있는 것으로 안다. 인공지능이 급격하게 줄어들었던 AI 겨울 이후에, 폭발적으로 증가한 인공지능 시장에서 비슷한 문제들을 갖고, 확산하기 위하여 노력하고 있는 것으로 한다.
정부에서는 초등학생들도 코딩교육, 취업자에게도 인공지능 기술에 대한 많은 교육을 하고 있는 것으로 보이지만, 정작 처음 배울때는 이러한 한계점을 알려주는 사람은 많지 않아 보인다. 이러한 점들을 경계해두고 개발에 참여하면 시행착오를 줄이고 더욱 좋은 솔루션로 개발할 수 있는 길이 되지 않을까 생각해본다.
'ComputerScience > 데이터인공지능' 카테고리의 다른 글
[데이터분석사례] 리튬이온 배터리의 SoC 예측하기 [1] (3) | 2025.06.09 |
---|---|
[AI활용] Naptune AI로 커리어로드맵 시각화하기 (0) | 2024.12.13 |
[빅데이터분석기사] 실기 작업 3유형 t-test 연습문제 풀이 (0) | 2024.06.16 |
[키워드] XAI(eXplainable Artificial Intelligence, 설명가능한 인공지능) (0) | 2022.03.02 |
[키워드] 정량적 데이터 vs 정성적 데이터 (0) | 2022.01.24 |