cat tag


편견/차별/가치 문제의 인공지능 내맘대로 뉴스논평

http://news.zum.com/articles/55877618
<마우스 우클릭후 새탭에서 열기를 해주세요>
<인공지능이 편견과 차별을 부른다는 기사>

우리는 인공지능의 과대망상적 기대감에 빠져 있는 시기에 살고 있어요. 그런데 최근에는 제대로 된 기사들도 좀 나오고 있어요. 인공지능에 대해서는 기대감보다 단점을 언급하는 기사들이 그나마 진실에 가까워요^^.

인공지능이 편견과 차별을 부른다는 기사인데, 여기에서 변수에 개발자가 마음대로 가중치를 주었다는 것과 빅데이터 수집에 대해서 기만하여 수집했다는 것을 의미합니다.

우리는 인공지능이라고 해도 그것이 프로그래머나 코더의 작품이라는 것을 잊어서는 안됩니다. 그들이 어떤 변수가 결과에 영향을 미치는지에 대해서 결정한다는 것이지요.

살기 좋은 동네 찾기 같은 방식을 빅데이터로 학습하는 인공지능으로 과거에 미국에서 만든적이 있는데, 피부색을 변수로 걸었더니 인종에 따른 주거지역을 제한하여 인종차별이 일어나기도 하는 등의 실제로 일어났던 문제이지요. 또한 이 기사에서는 법률에 대해서 특정 피부색 변수에 가중치를 적용해서 차별이 일어난 것을 언급하는 것이고요.

이러한 부분에 대해서 데이터가 많아진다고 해결되는 것은 아니에요. 과거의 데이터를 아무리 모아도 미래의 환경 변화에 적용이 제대로 안될 뿐 아니라 그 데이터의 값들은 개발자 데이터를 보고 정해주거든요. 그리고, 개발자가 정한 변수와 그것을 일정한 관계식으로 연결하는 과정을 학습이라고 인공지능에서는 이야기하는데, 관계식이 만들어지면 빅데이터에 없는 값에 대해서 변수들을 입력해서 연산한 값으로 해결책을 제시하는 것입니다. 그 과정에서 빅데이터가 많다고 정확한 관계식이 만들어지는 것도 아니라는 것이지요. (관계식 자체도 문제가 있지만^^) 여러가지 문제가 있는데, 가치 문제를 다뤄 보려 합니다.

이 기사에서 철학이라는 가치를 수학으로 바꾸는 것에서 미묘한 문제가 발생한다고 말하는데, 바로 가치의 경우에 처리하기가 쉽지가 않아요. 특히나 그 가치가 여러가지 있을 때 무엇을 선택해야 하는가? 하는 문제는 쉽지 않지요.

또한 어떤 가치를 설정하는가? 하는 것에서 변수 설정에도 영향을 미치게 됩니다. 단순히 효율성문제라면 경제적 부분을 적용해야 하겠지만, 행정이라면 자유,정의,형평성,공익들을 따지게 되는데, 이것이 진보와 보수라는 이념에 따라서도 다르게 해석되고, 이러한 것을 어떻게 관계식으로 정의해야 지의 문제이지요.

<마우스 우클릭후 새탭에서 열기를 해주세요>
<인공지능 가치 문제에 대해서 고민한 기사>

이 기사에도 있듯이 자율주행차가 왼쪽으로 꺾으면 차량 탑승자가 다치고 오른쪽으로 꺾으면 유치원생 다수가 다치는 상황이라면...어떤 판단을 해야 할까요?

답은 직진한다. 브레이크를 밟는다 등이 있을 수도 있겠지만^^...원칙적인 문제는 가치문제에요.

빅데이터로 학습하는 인공지능은 이러한 가치 문제에 대해서 개발자가 어떤 상황에 어떤 변수를 사용하고 어떻게 빅데이터를 사용했는냐에 따라서 나오는 결과가 바뀌며, 그것으로 인해서 개발자가 정한 방식에서 벗어난 사람들의 차별의 가능성이 있습니다.

과거에 차별을 한 것에 대한 데이터이고 그 차별에 대한 변수가 설정되어 있다면 나오는 결과로써의 관계식도 그 차별을 설정하고 있는 것이지요.

개발자가 개입해도 안되고, 개입안해도 안되는 상황이 도래한 것이지요. 즉, 어떻게 해도 안되는 문제에 도달하게 됩니다.

우리는 다양한 가치를 가지고 어떤 결정을 하지만, 개발자가 그 다양한 가치를 변수로 설정하지 않는다면 다양한 가치는 적용되지 않으며, 다양한 가치에서 어떤 가치를 더 중요성을 두느냐에 따라서도 결과는 달라지게 되며, 그 결과에 따라서 차별받는 사람들이 존재할 수 밖에 업습니다.

예를 정치 뉴스를 보게 되는 데, 진보와 보수로만 나눠 놓는다면 다른 사상을 가진 사람들에게 추천하는 정보등은 문제가 많지요.

이것이 단순히 추천이 아니라, 기업 오너, 판사, 변호사, 채용관리자등의 결정을 하는 역활이라면, 그것이 차별없이 정확히 할 수 있을까요?

이 기사에서 말하는 여러가지 가치를 인공지능에 적용하는 것은 빅데이터로 학습하는 인공지능으로서는 힘든 것이고, 과거의 차별을 제거할 어떠한 방법도 존재하지 않는 문제가 있어요. 개발자가 변수에 대한 가중치나 특정 차별 빅데이터를 뺀다면 그것은 개발자가 정한 조건일 뿐이라는 것이지요. 즉, 빅데이터로 학습하는 인공지능에게 사회를 맡긴다는 것은 그것을 만든 개발자가 생각하는 이상적인 사회가 구현될 뿐, 유토피아가 생성되는 것이 아니라는 것이지요.

여러분의 과거 빅데이터는 이러한 부분에 들어가는 변수값이 될 수 있습니다. 그것으로 차별이 이루어진다는 것이지요. 이러한 부분에서 사상에 대한 변수가 있다면 특정 사상을 가진 사람들을 차별해 버릴 수도 있어요. 사상의 자유가 헌법에 보장되어 있다고 하더라도 말이지요.

데이터 3법이 이렇게 무서운 것이에요. 인공지능에 대한 과대망상이 데이터 3법 같은 악법을 통과시키려고 하는데, 그러한 사생활 정보를 모아서 우리를 차별하게 될 것이 당연하기 때문이지요.

여러가지 가치가 공존하지 못하고, 개발자가 정한 가치만 추구하는 세계...인공지능에 의한 과대망상적 낙관적 예측으로 인해서 사회의 다양성이 해쳐지는 사회와 불공정하고 차별이 난무하는 세계가 되는 것을 찬성할 수는 없는 것이지요.

인공지능이 다양한 가치보다는 개발자가 추구하는 가치가 설정될 가능성이 높은 것이 바로 빅데이터로 학습하는 인공지능입니다.