기술이 우리 삶을 바꿀 때, 우리는 그 기술을 얼마나 알고 있을까?
AI 기술은 이제 공공서비스, 금융, 의료, 교육, 교통 등 거의 모든 영역에서 우리의 삶에 영향을 주고 있다. 더 이상 AI는 전문가만의 영역이 아니라, 일반 시민이 직접 영향을 받고, 그 결정에 따라 일상에서 혜택을 받거나 피해를 입는 시대에 접어들었다. 예를 들어, 대출 신청이 거절되거나, 지원한 공공서비스에서 제외되거나, 범죄 감시 대상에 올랐을 때, 그 결정에 AI 알고리즘이 개입되어 있다면, 우리는 반드시 그 이유를 알아야 할 권리가 있다. 이것이 바로 ‘알 권리(Right to Know)’와 ‘설명 받을 권리(Right to Explanation)’다. 그러나 현실은 이 권리가 충분히 보장되고 있지 않다. 기업이나 행정기관은 알고리즘을 ‘영업비밀’ 또는 ‘기술적 한계’를 이유로 공개하지 않고 있으며, 시민은 자신에게 영향을 준 결정이 어떻게 내려졌는지 알 수 있는 방법조차 없는 경우가 많다. 특히 디지털 리터러시가 낮은 계층이나 사회적 약자는 기술 구조에 접근하기조차 어려워 정보 격차와 권리 격차가 동시에 발생하고 있다. 본 글에서는 AI 기술이 사회 결정 과정에 개입할 때, 시민에게 보장되어야 할 알 권리와 설명 받을 권리의 개념, 필요성, 국내외 법제도 상황, 그리고 실효적인 보장을 위한 정책 방향을 분석한다.
AI 시대의 ‘알 권리’와 ‘설명 받을 권리’의 개념과 중요성
‘알 권리’는 기본적으로 시민이 자신에게 영향을 미치는 정보와 의사결정 구조를 파악할 수 있는 권리다. AI 시대의 알 권리는, 단지 정보를 제공받는 수준을 넘어서 AI가 어디에서, 어떤 방식으로 사용되고 있으며, 나에게 어떤 영향을 미치는지를 알 수 있어야 한다는 요구로 확장된다. 반면 ‘설명 받을 권리’는 특히 AI가 내린 결정에 대한 이유와 과정, 판단 기준에 대해 설명을 요구할 수 있는 권리다. 예를 들어 로보어드바이저가 특정 투자 전략을 제시했다면, 그 판단의 근거가 무엇이었는지, 어떤 데이터와 알고리즘이 사용되었는지를 소비자가 요청할 수 있어야 한다. 이는 단순히 기술 정보를 넘어서 자신의 권리와 이익에 영향을 주는 결정에 대해 정당성과 투명성을 확보하는 과정이다. 또한 이 권리는 사후적 권리이기도 하다. AI로 인해 차별을 당하거나 손해를 입은 경우, 피해자가 대응하고 구제받기 위해 반드시 필요한 조건이기도 하다. 설명 없는 결정은 책임 없는 결정이 되고, 이는 사회적 신뢰를 무너뜨리는 주요 요인이다. 따라서 알 권리와 설명 받을 권리는 AI 시대의 새로운 시민권이자 디지털 민주주의의 핵심 기반이라 할 수 있다.
국내외 제도 현황과 한국 사회의 법적 공백
EU는 GDPR(일반개인정보보호법)을 통해 ‘자동화된 의사결정에 대한 설명 받을 권리’를 명시하고 있다. 즉, 알고리즘이 자동으로 중요한 결정을 내릴 경우, 당사자는 그 이유에 대해 설명을 받을 수 있는 권리와 거부권, 이의제기권을 가진다. 미국, 캐나다, 영국, 호주 등도 ‘AI 윤리 가이드라인’ 수준에서 설명 책임과 알고리즘 투명성을 강조하고 있으며, 일부 주에서는 공공 알고리즘 등록제, 설명 의무화 법안 등이 추진되고 있다. 반면 한국에서는 이러한 권리가 아직 제도화되어 있지 않다. 개인정보 보호법에서는 일부 자동화 처리에 대한 제한이 있으나, AI 기술에 대한 설명 의무나 시민의 권리로서 명확하게 규정된 법적 조항은 부재하다. 특히 민간기업의 알고리즘은 대부분 ‘영업비밀’로 분류되어 정보 공개가 제한되며, 행정기관조차도 공공 알고리즘이 어떻게 설계되고 판단하는지를 시민에게 설명할 의무가 없다. 이는 곧 기술을 사용하는 자와 기술에 영향을 받는 자 사이에 정보의 비대칭과 권력의 불균형을 발생시키며, 궁극적으로 사회적 불신과 디지털 불평등을 심화시킨다. 지금 한국은 AI 기술의 활용 속도에 비해, 기술 통제와 시민 권리 보장의 법제화는 지나치게 느린 상태다.
시민의 알 권리와 설명 받을 권리를 제도화하기 위한 정책 방향
AI 기술의 확산 속도에 맞춰 시민의 알 권리와 설명 받을 권리를 실질적으로 보장하기 위해서는 다음과 같은 제도적 대응이 필요하다. 첫째, ‘AI 설명권 보장법’ 또는 ‘알고리즘 책임법’과 같은 독립적인 입법이 필요하다. 이 법은 AI가 특정 기준 이상으로 인간의 삶에 영향을 미치는 판단을 할 경우, 사용자에게 설명 제공 의무를 부과하고, 이에 대한 절차와 범위를 명확히 규정해야 한다. 둘째, 공공기관은 AI를 활용할 경우 알고리즘 등록제 및 공개 의무를 지고, 민간 부문도 일정 규모 이상의 자동화 판단 시스템에 대해 설명서 또는 투명성 보고서 제출을 의무화해야 한다. 셋째, 시민의 AI 정보 접근권을 실질적으로 보장하는 법률구조와 기술 인프라가 필요하다. 이해하기 쉬운 방식으로 설명을 제공하고, 취약계층에게는 전문가의 조력, 디지털 리터러시 교육, 법률 지원 서비스를 연계해야 한다. 넷째, 설명 요구권이 실질적으로 작동할 수 있도록 이의제기, 행정심판, 손해배상 절차를 포함한 사법 체계도 함께 구축해야 한다. 마지막으로, 이러한 모든 정책이 국가 주도뿐 아니라, 시민 사회와의 협력을 통해 설계되고 운영되어야 한다. 기술은 공공재가 되어야 하며, 모든 시민은 그 기술로부터 설명받을 권리를 가진다.
설명 없는 기술은 권위가 될 수 없고, 시민 없는 AI는 민주주의가 아니다
AI가 시민의 삶에 영향을 미치는 결정에 개입하는 시대, 우리는 ‘정확성’만큼이나 ‘정당성’을 요구해야 한다. 어떤 기술도 그 결과가 설명되지 않는다면, 그것은 책임을 피하기 위한 도구일 뿐이다. AI의 결정에 설명을 요구할 수 있는 권리는 기술의 작동 방식보다 앞서야 하며, 시민이 자신의 삶에 영향을 미치는 기술을 통제할 수 있을 때, 비로소 기술은 인간을 위한 도구가 될 수 있다. 지금 필요한 것은 ‘더 많은 기술’이 아니라, 그 기술이 어떻게 우리에게 작동하고 있는지를 묻는 사회적 감시와 제도적 장치다. 설명 받을 권리는 단지 정보가 아니라, 존엄과 신뢰의 문제다. 기술은 복잡해도 권리는 단순해야 한다. 모든 시민은 묻고 설명받을 권리가 있다.
'AI 윤리' 카테고리의 다른 글
AI 알고리즘에 의한 차별 판단을 어떻게 제도화할 것인가 (0) | 2025.07.23 |
---|---|
공공정책 결정에 AI를 활용할 때 필요한 윤리적 통제 (0) | 2025.07.22 |
금융 AI의 판단 오류에 대한 책임 분배 방식 (0) | 2025.07.22 |
AI 사고 피해자를 위한 법적 보호 체계 (0) | 2025.07.22 |
AI 윤리 위원회의 실질적 역할과 한계 (0) | 2025.07.21 |