[글로벌 테크&사이언스] 알고리즘은 중립적인가
보이지 않는 데이터의 선택이 편향을 만든다
[월드투데이 문이동 기자] 유튜브가 대세다 보니 유튜브를 시청하지 않는 날이 없을 정도로 하루는 유튜브로 이루어진다고 봐도 될 듯하다. 그런데 간혹은 이런 의문이 들기도 한다. 한 쪽 방향의, 비슷한 내용의 동영상을 추천해주는 걸 보면서 한편으로는 이러다 사고의 방향이 한 쪽으로 굳어지는 것은 아닐까 하는 생각을 하게 된다. 유튜브 알고리즘이 편향된 것은 아닐까?
알고리즘은 흔히 ‘객관적’이고 ‘중립적’인 판단 도구로 여겨진다. 숫자와 통계, 확률에 기반해 작동하기 때문이다. 하지만 현실에서 알고리즘은 사람보다 덜 편향적일까. 최근 글로벌 테크 산업과 정책 현장에서 반복적으로 제기되는 질문은 오히려 그 반대다. 알고리즘의 편향은 코드에서가 아니라, 그 이전 단계에서 이미 시작된다는 지적이 힘을 얻고 있다.
데이터는 누구의 세계를 담고 있는가
알고리즘의 첫 출발점은 데이터다. 문제는 이 데이터가 ‘세상의 평균’을 담고 있지 않다는 점이다. 데이터는 언제나 수집된 세계를 반영한다.
실제 사례는 일상에 가깝다. 미국의 한 대형 채용 플랫폼이 도입한 AI 서류 심사 시스템은 과거 10년간의 채용 이력을 학습했다. 결과는 예상과 달랐다. 남성 지원자의 이력서를 더 높은 점수로 평가했고, 여성 지원자가 주로 사용하는 표현이나 경력 패턴에는 낮은 점수를 매겼다. 알고리즘이 성차별을 ‘의도’한 것은 아니었다. 다만 과거 채용 데이터 자체가 남성 중심이었고, 알고리즘은 그 패턴을 충실히 재현했을 뿐이다.
이와 유사하게 일부 안면 인식 시스템은 백인 남성의 얼굴을 기준으로 학습돼, 유색인종이나 여성의 얼굴 인식 정확도가 현저히 낮은 것으로 드러났다. 한 연구에서는 흑인 여성의 얼굴 오인식률이 백인 남성보다 수십 배 높게 나타났다. 이는 기술의 실패라기보다 데이터 대표성의 실패에 가깝다.
설계자의 선택, 코드에 스며드는 가치
데이터만큼 중요한 것은 알고리즘을 설계하는 과정에서의 선택이다. 어떤 변수를 넣고, 무엇을 제외할 것인가. 정확도를 어디까지 허용할 것인가. 이 모든 판단은 사람의 결정이다.
예를 들어 추천 알고리즘을 생각해보자. 유튜브나 틱톡의 알고리즘은 이용자의 ‘체류 시간’을 핵심 지표로 삼는다. 이 기준 자체는 중립적으로 보이지만, 결과적으로는 자극적이거나 극단적인 콘텐츠가 더 많이 노출되는 구조를 만든다. 사회적 갈등을 부추기는 영상이 빠르게 확산되는 이유도 여기에 있다.
금융 분야에서도 비슷한 문제가 나타난다. 신용평가 알고리즘이 소득, 거주 지역, 소비 패턴을 종합해 대출 가능성을 판단할 때, 특정 지역이나 직군이 구조적으로 불리해질 수 있다. '차별은 하지 않는다'는 원칙 아래에서도, 과거의 불평등이 데이터로 굳어져 미래 판단에 반영되는 것이다.
이런 사례는 알고리즘이 가치 판단에서 자유롭지 않다는 사실을 보여준다. 중립적으로 보이는 수식 뒤에는 설계자의 문제 정의 방식과 사회적 맥락이 스며 있다.
기술의 문제인가, 사회의 거울인가
그렇다면 알고리즘 편향은 기술로 해결할 수 있는 문제일까. 일부는 그렇다. 데이터 균형을 맞추고, 결과를 지속적으로 검증하며, 설명 가능한 AI를 도입하는 방식은 분명 개선 효과를 낳는다. 실제로 구글과 마이크로소프트는 AI 개발 과정에서 윤리 가이드라인과 편향 점검 절차를 강화하고 있다.
하지만 한계도 분명하다. 알고리즘은 사회를 바꾸기보다 사회를 비추는 거울에 가깝다. 노동시장, 교육 기회, 소득 구조가 불평등한 상태라면, 그 데이터를 학습한 알고리즘 역시 불균형을 반복할 가능성이 크다. 기술만으로 해결하려 할 경우, 문제의 원인을 가리는 효과만 낳을 수 있다.
그래서 최근 정책 논의는 알고리즘을 '통제해야 할 대상'이 아니라 '감시와 설명이 필요한 의사결정 주체'로 바라본다. 알고리즘이 어떤 기준으로 작동하는지 공개하고, 오류나 편향이 발견될 경우 수정할 책임을 명확히 하자는 흐름이다.
알고리즘은 중립적이지 않다. 그러나 그것이 곧 위험하다는 뜻은 아니다. 중요한 것은 알고리즘이 중립적이라는 환상을 버리는 일이다. 데이터의 출처를 묻고, 설계의 선택을 점검하며, 결과가 사회에 미치는 영향을 지속적으로 검토할 때 비로소 기술은 도구로 남을 수 있다. 알고리즘의 편향을 이해하는 일은 결국, 우리가 어떤 사회를 만들고 있는지를 되돌아보는 과정이기도 하다.