인공지능은 인간이 처리할 수 없는 방대한 양의 데이터를 기반으로 객관적인 결론을 도출한다고 알려져 있습니다. 의사 결정 과정에 있어 감정에 치우치거나 피로를 느끼는 인간의 약점을 완벽하게 보완해 주는 셈입니다. 실제로 금융권의 대출 심사, 기업의 채용 과정, 심지어 법원의 판결 형량 예측에 이르기까지 인공지능은 빠르고 효율적인 시스템 구축에 기여하며 사회적 비용을 줄여주는 거대한 이익을 가져다주었습니다.
하지만 문제는 이 객관적일 것만 같은 알고리즘 내부에 감춰진 블랙박스 현상입니다. 우리는 인공지능이 A라는 결과값을 내놓았을 때, 도대체 어떤 근거와 가중치를 두고 수많은 연산 과정을 거쳤는지 투명하게 들여다볼 수 없습니다. 개발자조차 그 복잡한 딥러닝의 연결 고리를 모두 설명하지 못하는 경우가 다반사입니다. 만약 그 결과값이 사람의 생계나 자유, 권리에 막대한 영향을 미치는 사안이라면, 설명할 수 없는 판단만큼 위험한 것은 없습니다.
나아가 인공지능이 학습하는 데이터 자체에 이미 인간 사회의 편견과 차별이 내재되어 있다는 사실도 간과해서는 안 됩니다. 특정 성별이나 인종에게 불리하게 작용했던 과거의 데이터가 알고리즘에 그대로 반영된다면, 인공지능은 기계적인 공정함이라는 가면을 쓰고 차별을 재생산하고 고착화하는 가장 위험한 도구가 됩니다.
이러한 위기를 관리하기 위해 최근 글로벌 규제 동향은 설명 가능한 인공지능을 강력하게 요구하는 추세입니다. 기술의 발전 속도만큼 중요한 것은 알고리즘에 대한 철저한 감사와 견제 장치를 마련하는 일입니다. 완벽한 도구라는 환상을 버리고 끊임없이 그 판단의 근거를 묻는 인간의 날카로운 질문이 인공지능 시대를 안전하게 지켜줄 최후의 방패막입니다.
와이에스엠경영컨설팅 윤수만 (AI리스크관리/AI규제관리 컨설턴트)

