AI 윤리

AI 사고 피해자를 위한 법적 보호 체계

dailyonenews 2025. 7. 22. 02:21

기술은 중립적이지 않다. 피해는 언제나 사람에게 남는다

AI 기술이 우리의 일상 속으로 깊숙이 파고들면서, ‘편리함’과 ‘효율성’의 이면에 있는 예측할 수 없는 사고와 피해가 점차 현실로 다가오고 있다. 예를 들어, 자율주행차가 사람을 치었을 때, 의료 AI가 잘못된 진단을 내렸을 때, 알고리즘이 특정인을 차별하거나 배제했을 때, 그 피해는 명백히 인간에게 돌아간다. 하지만 이러한 피해를 입은 사람들은 종종 어디에, 누구에게 책임을 물어야 하는지조차 알 수 없는 상황에 놓인다. AI는 스스로 학습하고 판단하지만, 법적으로는 ‘주체’가 아니며, 개발자·운영자·데이터 제공자·플랫폼 사업자 사이에 책임 소재가 분산되기 때문이다. 지금까지의 법체계는 명확한 인과관계를 전제로 만들어졌지만, AI 사고는 불확실성, 복합성, 비의도성이 얽혀 있어 기존 책임법으로는 설명하거나 보상하기 어려운 구조다. 이 글에서는 AI로 인해 피해를 입은 개인이 어떻게 법적으로 보호받을 수 있는지, 현재 한국의 법제 현황과 한계는 무엇인지, 그리고 실질적인 보호 체계를 마련하기 위한 제도적 방향을 제안한다.

 

AI 사고 피해자를 위한 법적 보호 체계

  AI 사고 피해 유형과 법적 책임의 모호성

AI 사고는 단순한 물리적 사고를 넘어서 정신적, 사회적, 경제적 피해를 포함한다. 예컨대, AI 채용 시스템이 특정 집단을 반복적으로 탈락시켜 구직 기회를 차단하거나, 추천 알고리즘이 혐오 콘텐츠를 강화시켜 사회적 낙인을 유발하는 경우, 피해자는 명백하지만 그에 대한 법적 책임 주체는 불분명하다. 자율주행차의 사고처럼 눈에 띄는 사고조차도 ‘차량 제조사, 센서 개발사, 소프트웨어 프로그래머, 도로 관리 주체’ 등 여러 개입자가 얽혀 있다. 이처럼 AI는 다양한 기술 요소와 주체들이 연동되어 발생하는 복합적 시스템 사고이기 때문에, 기존의 민법상 과실책임 구조나 제조물 책임법만으로는 정확한 책임 귀속이 어렵고 입증 책임도 피해자에게 과도하게 전가된다. 또 다른 문제는 AI가 학습하는 데이터 자체가 이미 편향되었거나 차별을 내포하고 있는 경우다. 피해는 예측 가능성이 낮고, 개발자 역시 그 결과를 사전에 알 수 없다는 이유로 면책을 주장할 수 있다. 이처럼 기술의 자율성이 높아질수록 법의 개입 여지가 줄어드는 아이러니한 상황이 나타나고 있다.

 

  한국의 법제도 대응 현황과 구조적 한계

 

한국에서는 AI 사고와 관련된 피해를 직접적으로 다루는 독립 법률은 아직 마련되지 않은 상태다. 현재는 개인정보 보호법, 민법, 제조물 책임법, 전자상거래법, 형법 등의 일반법을 통해 우회적으로 다루고 있으며, 일부 개별법에서 AI 관련 조항이 도입되었지만 실효성은 낮다. 예를 들어, 자율주행차 사고는 도로교통법과 자동차손해배상보장법으로 처리되지만, AI의 판단 오류에 대한 본질적인 책임 규명 구조는 빠져 있다. 또한, 알고리즘에 의한 차별을 다룰 수 있는 법적 장치는 거의 전무하고, 소송 절차는 비용, 시간, 전문성 부족 등의 이유로 피해자가 감당하기 어려운 구조다. 피해자가 AI 작동 원리를 이해하거나, 기업이 보유한 비공개 알고리즘의 내부 작동 과정을 입증하기는 현실적으로 불가능에 가깝다. 결국 피해자가 존재하지만 가해 주체를 특정할 수 없고, 배상도 받을 수 없는 무책임의 구조가 반복되고 있다. 현재 법제는 AI가 인간을 보조할 때 전제된 것이지, 인간 대신 결정하는 시대에는 준비되지 않았다.

 

  실질적인 피해자 보호를 위한 법제도 정비 방향

 

AI 사고 피해자를 실질적으로 보호하기 위해서는 기존의 책임 법리를 확장하고, AI 기술 특유의 불확실성과 다중 책임 구조를 반영한 입법적 장치가 필요하다. 첫째, AI 시스템에 의한 피해 발생 시 사전 책임 주체를 명확히 설정하는 등록제 또는 위험 분류제를 도입해야 한다. 고위험 AI 시스템의 경우 운영자에게 특별한 주의의무와 감시의무를 부과하고, 피해 발생 시 무과실 책임을 지도록 해야 한다. 둘째, 피해자가 자신의 권리를 행사할 수 있도록 AI 시스템 투명성 강화, 설명 가능성 확보, 알고리즘 접근권 보장이 필수적이다. 기업은 알고리즘에 대한 정보 공개 의무를 지고, 피해자는 전문가 또는 공공기관의 조력을 받아 증거를 수집할 수 있도록 법적 지원 체계가 마련되어야 한다. 셋째, AI 사고 피해자를 위한 집단소송제, 공익소송제, 피해자 지원 기금 조성 등 구조적 장치도 필요하다. 넷째, AI 사고 유형별로 표준화된 조사 및 판정 절차를 구축하고, 이를 담당할 전문 조사 기구 또는 독립 피해구제 기관을 설립해야 한다. 마지막으로, 법제도만이 아니라 보험·보상체계, 기술 표준, 윤리 기준과 함께 통합적으로 피해자 보호 체계를 설계해야 한다. 이는 단지 사고의 보상 문제가 아니라, AI 시대의 신뢰를 구축하는 핵심 요소다.

 

  AI 사고 시대, 피해자는 있어도 책임자는 없다는 구조를 끝내야 한다

 

AI는 오류를 일으킬 수 있고, 그 오류는 사람의 삶에 직접적인 피해로 이어진다. 그러나 지금까지의 법과 제도는 이러한 피해를 충분히 구제하지 못했으며, 기술을 만든 자보다 기술에 노출된 사람이 더 큰 부담을 지고 있는 현실이 반복되어 왔다. AI 기술의 자율성과 불확실성은 피해자를 더욱 고립시키고 있으며, 그 책임의 사각지대를 방치하는 것은 곧 사회적 신뢰의 붕괴로 이어진다. 이제는 기술의 안전성과 윤리성뿐 아니라, 사고 이후의 대응 체계까지 포함한 ‘완전한 AI 규범’이 필요하다. 피해자가 실질적으로 구제받을 수 있도록 제도적 장치를 마련하는 일은, 기술의 자유를 보장하는 것만큼이나 중요하다. AI가 인간의 결정을 대신하는 시대, 그 결정에 대한 책임과 보호도 함께 재설계되어야 한다.