과학

[무자비한 알고리즘], 카타리나 츠바이크, 유영미, 니케북스, 2021, (211219)

바람과 술 2021. 12. 19. 01:46

들어가는 말

 

우리는 매수당할 가능성이 없는 기계가 더 객관적인 결정을 내려줄 수 있기를, 기계가 가진 '비법'으로 인간행동의 패턴과 규칙을 찾아내고, 그로써 더 확실한 예측을 해주기를 바란다. 많은 사람들은 이를 통해 더 객관적인 결정을 내릴 수 있을 거라고 믿는다. 이 책은 알고리즘에 기반한 의사결정 시스템이 어떤 부분에서 믿을 수 없는지 구체적으로 제시하고, 알고리즘에게 결정을 위임하는 것이 가능한 경우 그 시스템을 어떻게 감시해야 하는지를 제안하고자 한다. 또한 이를 위해 시스템을 어떻게 개발하고 통제하고 감독해야 최상의 결정을 내리는 데 뒷받침을 받을 수 있을지를 모색해보고자 한다. 알고리즘이 무조건 객관적이고 확실하다는 이미지에 호도되어서는 안 되기 때문이다.

1부 도구상자 : 인공지능 시스템은 어떻게 만들어지는가

 

1장 판단력이 떨어지는 로봇 재판관

 

인간의 삶에 대해 결정하는 시스템인 경우 기계를 통한 결정의 질은 다음 요소들에 달려 있다. ○ 투입되는 데이터의 질과 양. ○ 사안의 특성에 대한 기본적인 가정. ○ 사회가 '좋은' 결정이라고 여기는 것. 세 번째 좋은 결정에 대한 물음은 정보학의 시각으로 말하자면 '좋은 결정을 내리는 모델'을 구축하는 것이다. 알고리즘이 철학에서 '도덕'이라 부르는 것을 추구할 수 있으려면 어떤 결정이 이런 도덕에 얼마나 부응할 지를 기계가 '측정할 수' 있어야 한다. 그래야만 컴퓨터는 결정을 최적화할 수 있다. 그러나 그것은 그리 간단하지 않다. 알고리즘이 구현한 모델이 정말 좋은 모델인지 판단할 수 있도록 추상적, 이론적 특성을 관찰 및 가능하도록 만드는 과정을 '운영화'라고 부른다. 데이터처리 결과가 미리 정해놓은 도덕을 따르기 위해서는 측정가능하게 하는 운영화(Operationalization), 문제 모델(Model of the problem), 알고리즘(Algorithm)이 조화를 이루어야 한다. 이것이 바로 OMA 원칙이다.   

 

2장 자연과학의 팩트 공장

2부 정보학의 작은 ABC : 알고리즘, 빅데이터, 컴퓨터지능은 서로 어떻게 연결되는가

 

3장 알고리즘, 컴퓨터를 위한 행동지침

 

알고리즘이 그저 수학 문제를 풀기 위해 정해진 행동지침이라는 말을 들으면 많은 사람들은 약간 실망한다. 여기서 수학 문제는 문제풀이자가 어떤 정보를 받게 되는지, 그리고 문제풀이 결과가 해답으로 여겨지기 위해 어떤 특성을 가져야 하는지를 규정한다. 따라서 문제가 인풋(입력된 정보)과 아웃풋(원하는 해답) 사이의 관계를 정하는 것이다. 그리하여 정보학에서는 '주어진 것'이 무엇이고 '찾는 것'이 무엇인지에 대해 늘 이야기한다. 물론 진짜 알고리즘 대접을 받기 위해서는 행동지침이 명확해서 프로그램언어로 번역될 있어야 한다. 이런 과정을 구현이라 한다. 

 

알고리즘은 모든 경험 있는 프로그래머들에겐 수학 문제를 해결할 충분히 상세하고 체계적인 행동지침이므로 정확히 구현(코드로 번역)되는 경우 모든 정확한 인풋에 대해 정확한 아웃풋을 계산해낸다. 

 

정렬 문제, 인풋으로 놓는 것 : 일련의 특성을 가진 분류대상 중에 어떤 것이 더 앞이고, 어떤 것이 더 뒤인지를 정확히 규정하는 규칙에 따라 정렬. 해답으로 찾는 것 : 정렬 기준을 충족시키게끔 대상들을 정확히 정렬.  


4장 빅데이터와 데이터마이닝

 

'빅데이터'는 방대한 데이터 안에서 패턴을 찾는데 활용된다. 물론 이런 데이터는 패턴을 찾을 목적으로 수집된 것은 아니며 오류가 없지는 않다. 하지만 아무튼 방대한 양의 데이터를 얻을 수 있다. 이런 빅데이터를 의미 있게 사용할 수 있는 것은 개개인들에게는 그다지 중요하지 않은 정보들을 많이 확보하고, 그 안에서 상관성만 찾기 때문이다. 그런 패턴을 기초로 소프트웨어가 미래의 행동을 얼마나 잘 예측할 수 있는지를 평가하기 위해서는 실측자료가 필요하다. 실측자료는 우리가 예측을 무엇과 비교할지를 규정한다. 이를 위해서는 품질 척도도 정해야 한다. 품질 척도는 전체적으로 알고리즘을 어떻게 평가할지를 보여준다. 따라서 빅데이터에 대한 접근은 그 자체로는 별로 신통치 않은 많은 정보를 활용해 최소한 통계적인 패턴을 알아내는 것이다. 통계적 패턴은 커다란 무리의 사람들에게만 적용될 뿐 개개인의 행동에 꼭 적용되는 것은 아니다. 

 

5장 컴퓨터지능

 

컴퓨터가 발견한 패턴들을 결정규칙 혹은 공식의 형태로 적절한 구조로 저장된다. 이런 구조를 통계 모델이라고도 부른다. 이것은 우리가 현실의 한 단면만을 추상적인 형식으로 표현하고, 이런 표현이 통계적 특성을 띤다는 말이다. 즉 인과관계나 100% 정확성을 요구하지는 않는다는 이야기다. 

 

기계학습이란, 사례를 통한 자동학습을 말한다. 여기서는 결정규칙을 탐색해 통계 모델로 저장한다. 

 

① 알고리즘이 X라는 사람이 살아남았다고 말하고 이 말이 맞으면, 이 것은 진양성 예측이다.

② 알고리즘이 X라는 사람이 살아났았다고 말하는데 이 말이 맞지 않으면, 이것은 위양성 예측이다.

③ 알고리즘이 X라는 사람이 살아남지 못했다고 말하고 정말로 그가 살아남지 못했으면, 이것은 진음성 예측이다. 

④ 알고리즘이 X라는 사람이 살아남지 못했다고 말하는데 그 사람이 실제로는 살아남았다면, 이것은 위음성 예측이다.

 

우리가 특히 중요하게 생각해야 할 것은 어느 사람을 의심인물로 만드는 문턱값을 얼마로 정하느냐는 다시금 윤리적 결정이라는 것이다. 이것은 알고리즘이 혼자 알아서 내릴 수 있는 결정이 아니다.  


6장 머신러닝 vs 인간(2:0)

 

머신러닝은 다음 조건이 충족될 때 기본적으로 성공적일 수 있다.

① 양질의 방대한 트레이닝 데이터가(인풋) 있을 때.

② 측정가능한 실측자료, 즉 예측할 수 있는 것이(아웃풋) 있을 때.

③ 인풋과 예측할 수 있는 아웃풋 사이에 인관관계가 있을 때.

 

머신러닝 알고리즘이 인간을 능가하는 면은 다음과 같다. 

① 임의의 데이터에서 상관관계를 찾을 수 있다는 점.

② 다양한 상관관계를 찾을 수 있다는 점. 

약한 상관관계도 통계 모델에 집어넣어 유익을 이끌어낼 수 있다는 점.

 

추가적으로 다음에 해당될 때 머신러닝의 결과는 믿을 만한다.

① 인풋과 예측되는 아웃풋 사이에 인과관계가 알려져 있어 관계자들이 쉽게 합의할 수 있는 명확한 인풋 데이터가 존재할 때.

② 두 가지 오류 유형(위양성/위음성 결정)에 대해 가급적 많은 피드백이 있을 때, 그로써 지속적으로 품질을 측정해 통계 모델을 역동적으로 개선할 수 있다.

모든 관계자들이 쉽게 동의할 수 있는 명확한 품질 척도가 있을 때.

 

7장 기계실에서 본 것들

 

우선 고전적인 문제제기에서 가장 중요한 조형화 능력은 바로 일상상황을 모델링하는 것임을 강조했다. 즉 상황을 단순화해서, 많은 고전적 알고리즘 중 하나가 머신러닝 없이 최적의 해답을 계산하게 할 수 있다고 했다. '분류 문제'라 '최단경로 문제'는 각각 굉장히 많은 일상의 문제들을 이 두 고전 알고리즘으로 환원시킬 수 있음을 보여주었다. 이는 모든 알고리즘에 해당된다. 알고리즘의 경우에는 이미 OMA 원칙이 중요했다. 즉 알고리즘의 결과를 해석하는 것은 늘 모델링과 그것을 위해 필요한 운영화의 틀 안에서만 의미를 갖는다.

 

머신러닝은 인풋 데이터와 관찰되는 결과(아웃풋) 사이의 연관을 확인하고자 한다. 이를 위해 트레이닝 데이터세트에서 찾아낸 상관관계를 결정규칙의 형태로 여러 구조(가령 의사결정 나무, 수학 공식, 서포트 벡터 머신, 인공신경망) 중 하나에 저장하는 알고리즘이 활용된다. 여기서 조절가능한 하이퍼파라미터(설계변수, 직접 세팅하는 값)들이 많다. 그 밖에도 인풋 데이터를 변화시킴으로써(피처 엔지니어링) 예측의 품질을 변화시킬 수도 있다. 

 

품질은 품질 척도를 도구로 테스트 데이터세트에서 측정된다. 품질 척도는 많은 하이퍼파라미터를 어떤 방향으로 조절할 것인지를 결정한다. 따라서 품질 척도는 알고리즘 기반의 의사결정 시스템이 투입되어야 하는 사회적 상황과 조화를 이루어야 한다. 여기서 기본적인 윤리적 결정이 내려진다. 

 

구조가 구축되면 우리는 그것을 훈련된 통계적 모델이라고 부른다. 그러면 새로운 데이터는 이제 두 번째, 아주 단순한 알고리즘을 도구로 통계 모델을 통과하고 결정으로 하나의 수치가 도출된다. 이것이 바로 분류 혹은 위험값이다.  

3부 기계와 더불어 더 나은 미래로 가는 길 : 왜, 인공지능 윤리인가


8장 알고리즘과 차별, 그리고 이데올로기

 

9장 어떻게 감독할 수 있을까

 

10장 기계가 인간을 판단하는 걸 누가 원할까

 

11장 강한 인공지능은 필요할까

맺음말

 

알고리즘 기반 의사결정 시스템의 개발과 활용에서의 윤리적 문제들

○ 데이터 : 어떤 사회적 개념을 어떻게 운영화했는가? 전체적으로 어떤 데이터를 활용했는가? 이런 데이터의 질은 얼마나 높은가? 누가 실측자료를 정의하는가?

○ 방법 : 어떤 유형의 알고리즘을 사용했는가? 데이터의 양이 적합한가, 아니면 데이터에 굶주리는가? 알고리즘에 오류에서 안전한가? 거기서 나온 통계 모델이 인간이 이해할 수 있는 것인가?

○ 품질 척도와 공평성 척도 : 어떤 품질 척도와 공평성 척도를 사용했는가? 그것을 각각 누가 결정했는가?

○ 데이터 입력 : 데이터 입력에서 어떤 오류 가능성이 있는가?

○ 해석 : 결과가 정확히 어떻게 제시되는가? 누가 그것을 해석하는가? 사람들이 관련 교육을 받았는가? 품질 척도의 값이 알려져 있는가? 이런 척도의 의미를 명확히 의사소통했는가?

○ 행동 : 누가 최종결정을 내리는가(행동하는가)? 기계가 자율적으로 결정을 내리는가? 아니면 그 뒤에 추가로 인간 결정자가 존재하는가?

○ 피드백 : 피드백이 쌍방인가, 일방인가? 피드백을 측정할 수 있는가? 어떻게 측정하는가? 시스템이 어떻게 개선되는가? 더 중요한 목표에 대해, 기계의 활용으로 개선하고자 하는 사회적 목표를 누가 정했는가? 목표 도달을 어떻게 측정하는가? 

 

감사의 말