병원에 가서 진료를 받고 엑스레이를 찍는 순간, 우리의 몸은 데이터가 됩니다. 과거에는 이 기록들이 병원 서류 창고에 종이로 쌓여 있었지만, 지금은 디지털 데이터가 되어 AI라는 거대한 두뇌를 학습시키는 데 사용됩니다. AI가 암을 조기에 발견하고 환자 맞춤형 치료법을 제시할 수 있는 것도 수만, 수천 명의 환자 데이터가 있었기에 가능한 일입니다. 그런데 여기서 문득 불안한 마음이 듭니다. 나의 가장 은밀한 질병 정보가 AI 개발이라는 명목하에 누군가에게 읽히고 있는 것은 아닐까요?
물론 의료 데이터를 AI 학습에 사용할 때는 엄격한 규칙이 따릅니다. 바로 비식별화 혹은 가명 처리라는 과정입니다. 이름, 주민등록번호, 전화번호 같은 개인을 특정할 수 있는 정보를 삭제하거나 암호화하여, 이 데이터가 누구의 것인지 알 수 없게 만드는 작업입니다. 덕분에 연구자들은 이 엑스레이 사진이 30대 남성의 폐라는 것만 알 뿐, 그가 서울에 사는 김 철수 씨라는 사실은 알 수 없게 됩니다.
하지만 리스크 관리 관점에서 보면 100퍼센트 안전이란 존재하지 않습니다. 전문가들이 우려하는 것은 재식별의 위험성입니다. 의료 데이터 자체에는 이름이 없더라도, 다른 공개된 정보들과 결합했을 때 주인을 찾아낼 가능성이 희박하게나마 존재하기 때문입니다. 예를 들어 희귀 질환을 앓고 있는 환자의 경우, 데이터의 특이성 때문에 지역이나 나이 정보만으로도 누군지 유추될 위험이 일반인보다 높을 수 있습니다.
그렇기에 의료 AI의 발전은 기술의 문제인 동시에 규제의 영역입니다. 데이터의 활용 폭을 넓혀 의학 기술을 발전시켜야 한다는 주장과, 개인정보 보호를 위해 빗장을 더 걸어 잠가야 한다는 주장이 팽팽하게 맞서고 있습니다. 환자인 우리에게 필요한 것은 막연한 공포보다는 내 데이터가 어떻게 쓰이는지 알고 동의할 권리, 그리고 그 과정이 투명하게 관리되고 있는지 감시하는 눈입니다.
나의 아픔이 누군가를 살리는 기술의 씨앗이 되는 것은 숭고한 일이지만, 그 과정에서 나의 프라이버시가 침해받지 않도록 지키는 것 또한 타협할 수 없는 중요한 가치입니다.
와이에스엠경영컨설팅 윤수만

