지금까지 총 3개의 글을 통해 인공지능을 시작으로 간단히 머신러닝, 딥러닝의 개념을 배웠고 그 이후의 4개의 글에서는 딥러닝을 조금 더 자세히 다루었다. 오늘은 그 마지막 편. 블랙박스에 대한 내용이다.
처음에 블랙박스(Black box)라는 단어를 딥러닝에서 들었을 때 필자의 머리에서는 '뭐지?'라며 자동차 블랙박스와 딥러닝을 연관 지으려고 했다. 하지만 이 블랙박스는 그런 뜻이 아니었다.
위키에서는 아래와 같이 설명되어 있다.
과학, 기술, 공학 등의 분야에서 블랙박스는 내부 작업의 어떤 이해없이 입력과 결과의 측면으로 볼 수 있는 시스템을 뜻한다.
그대로 해석해서 이해가 어렵지만 아래 그림과 같이 입, 출력만 나올 뿐 그 내부 작업은 명확하지 않은 것을 뜻한다.
그러면 딥러닝에서 블랙박스라는 단어가 등장했다는 것은 다음과 같이 이해할 수 있다.
기계가 강아지 사진을 스캔한 후 강아지라고 판단했다. 하지만 왜 강아지라고 판단했는지 알 수 없다.
그러면 왜 블랙박스 현상이 생길까?
그 이유는 딥러닝에서의 히든레이어(Hidden layer)를 분석하는 것이 너무 어렵기 때문이다.
위의 그림처럼 실제로 각 레이어의 노드들은 간단히 표현하면 모두 f(x) = w*x+b 라는 수식으로만 정의되어 있다. 그리고 한 노드는 이전 레이어에서 올라온 입력 값들을 무수히 많이 계산하고 합하게 되어 ΣF(x) = Σw*x+b 라는 수식으로 표현할 수 있다. (이해가 안된다면 퍼셉트론에 대한 글을 읽고 오면 좋다.)
저런 노드가 한 레이어에 수십 개씩 존재한다고 생각해보자. 여러분은 그 인과 관계를 쉽게 파악할 수 있다고 생각하는가?
'왜 w, b 값이 특정지어 졌는가?', '그 값이 의미하는 것이 무엇인가?' 그리고 '각 노드의 출력 값이 왜 그렇게 나왔는가?' 의문 투성이다.
강아지 사진을 학습한 기계로 생각해보자. 이 모델의 히든 레이어 내의 한 노드 N의 w(가중치) = 2, b(편향) = 3 이라고 해보자.
그러면 왜 노드 N의 가중치와 편향이 2와 3인가?
그리고 하필 왜 2와 3일까?
그리고 ΣF(x) = Σ2*x+3 의 출력 값이 0.66 이라면 왜 0.66일까?
독자 여러분들은 대답할 수 있는가?
그러면 이렇게 '왜?' 라는 것을 밝히는 것이 왜 중요할까?
예시 1)
과학자들은 다음 날에 지진이 일어난다고 예측했지만 관측 AI는 지진이 일어나지 않는다고 판단했다.
그런데 이 관측 AI가 왜 그런 판단을 했는지 알 수 없다고 하자.
그러면 여러분은 지진이라고 믿을 것인가 관측 AI를 믿을 것인가?
예시 2)
어떤 환자의 MRI를 보고 의사가 암이 아니라고 판단했다. 하지만 의료 AI가 암이라고 판단했다.
그런데 의료 AI가 왜 암이라고 판단했는지 알 수 없다.
여러분은 의사를 믿을 것인가 AI를 믿을 것인가?
위와 같은 예시는 수없이 많다. 그렇기 때문에 꼭 인과 관계를 밝히는 것이 중요하다. 당연히 먼 미래에는 이런 인과 관계가 완벽히 밝혀지겠지만 지금 실제 사용할 수 없는 이유로 블랙박스가 큰 이유가 되기도 한다.
블랙박스에 대한 다른 견해를 보여주는 글이 하나 있어 가져왔는데 꼭! 읽어보길 바란다.
이렇게 총 8편에 나눠서 인공지능(AI)에 관해 짧게 다루어 보았고 이 인공지능이 앞으로 어떤 세상을 열 수 있는지 다음 편에 알아보자.
'IT 트렌드' 카테고리의 다른 글
DT(Digital Transformation) 1부. - 디지털 전환 그게 뭔데? (0) | 2021.06.13 |
---|---|
인공지능 활용 - 인공지능(AI), 머신(ML), 딥러닝(DL) 파헤치기 - 9부 (0) | 2021.06.11 |
역전파(Backpropagation) - 인공지능(AI), 머신(ML), 딥러닝(DL) 파헤치기 - 7부 (0) | 2021.06.04 |
활성화 함수(Activation Function) - 인공지능(AI), 머신(ML), 딥러닝(DL) 파헤치기 - 6부 (0) | 2021.06.01 |
퍼셉트론(Perceptron) - 인공지능(AI), 머신(ML), 딥러닝(DL) 파헤치기 - 5부 (0) | 2021.05.28 |