AI 윤리

공공기관의 AI 윤리 기준 설정과 적용 과정

dailyonenews 2025. 7. 8. 13:12

  공공부문에서의 AI 활용은 기술보다 윤리가 먼저여야 한다

인공지능(AI)이 공공기관에 도입되면서, 시민의 삶에 미치는 영향은 점차 커지고 있다. 민원 상담, 행정 처리, 교통 제어, 복지 심사, 범죄 예측 등 다양한 분야에서 AI 기술이 적용되며 업무 효율성은 증가하고 있지만, 동시에 시민의 권리와 신뢰를 위협할 수 있는 윤리적 위험도 함께 확대되고 있다. 공공기관은 민간기업과 달리 국민의 세금과 정보로 운영되는 조직인 만큼, AI 기술을 도입할 때 투명성, 공정성, 설명 가능성, 책임성 등 윤리적 기준을 보다 엄격하게 설정하고 이를 철저히 준수할 의무가 있다. 한국 정부는 이러한 흐름을 반영해 공공부문 AI 윤리 기준을 제시하고, 행정 현장에 적용하기 위한 다각도의 노력을 진행하고 있다. 이 글에서는 한국 공공기관이 AI 윤리 기준을 어떻게 수립하고 있으며, 실제 현장에서는 어떻게 적용되고 있는지, 그리고 앞으로 보완되어야 할 제도적 방향까지 구체적으로 살펴본다.

공공기관의 AI 윤리 기준 설정과 적용

  공공기관 AI 윤리 기준의 수립 배경과 핵심 원칙

한국 정부는 2020년대 초부터 디지털 뉴딜 정책의 일환으로 공공부문에 AI를 적극 도입하고 있으며, 이에 따라 AI 활용에 따른 사회적 책임을 강조하는 움직임도 병행해 왔다. 특히 2021년 과학기술정보통신부와 한국지능정보사회진흥원(NIA)은 「공공부문 인공지능 윤리 기준」을 발표하며, 공공기관이 AI를 도입할 때 반드시 지켜야 할 10가지 원칙을 제시했다. 이 기준은 ▲인간 중심 ▲책임성 ▲투명성 ▲비차별성 ▲신뢰성 ▲안전성 ▲프라이버시 보호 ▲데이터 관리 ▲지속 가능성 ▲참여 및 포용 등으로 구성되어 있으며, 유엔·OECD·EU의 AI 윤리 권고안을 바탕으로 한국적 맥락에 맞게 정리된 것이다. 이 기준은 단순한 선언적 문구가 아니라, AI 사업 발주 단계부터 검수 및 평가 단계까지 전 주기에 걸쳐 윤리 기준을 반영할 수 있도록 설계되어 있다. 즉, 공공기관은 AI 기술을 단순히 ‘업무 자동화 도구’로 보지 않고, 국민의 신뢰와 권리를 지키는 윤리적 도구로 받아들이기 시작한 것이다.

 

  실제 행정 현장에서의 적용 방식과 도전 과제

정부는 각 부처와 지자체, 산하기관에 AI 윤리 기준 적용을 장려하며, 다양한 시범사업과 가이드라인을 보급해 왔다. 예를 들어, 고용노동부는 AI 기반 채용 서비스에 대한 윤리 검토 매뉴얼을 적용했고, 보건복지부는 AI 기반 복지심사 알고리즘에 대해 편향 검증 절차를 도입했다. 서울시와 부산시 등 일부 지자체도 교통 제어, 도시계획 시스템에 AI를 도입하며 윤리성 검토 회의체를 사전에 구성해 운영 중이다. 그러나 이러한 적용이 실질적인 윤리 검토로 이어지기까지는 여전히 한계가 존재한다. 첫째, 대부분의 기관이 기술 검토에는 익숙하지만 윤리 검토에는 구조적 역량이 부족하다. 둘째, 윤리 기준이 형식적 체크리스트에 머무르거나, 사업자 책임으로 전가되는 경우도 많다. 셋째, 윤리 위반 발생 시 제재나 사후 감시 체계가 부재해, 실제 문제 발생 시에도 제대로 된 책임 규명이 어려운 실정이다. 요약하자면, 현장에서는 AI 윤리 기준을 ‘반드시 따라야 하는 강제 기준’이 아닌, ‘선택적 가이드라인’으로 인식하는 경향이 강하다.

 

  공공 AI 윤리 기준의 실효성을 높이기 위한 개선 방향

공공기관에서 AI 윤리 기준이 실제로 작동하기 위해서는 선언 수준을 넘어서는 구조적 장치와 제도적 실행력이 필요하다. 첫째, 모든 AI 기반 행정 시스템에 대해 사전 윤리영향평가(Algorithmic Impact Assessment, AIA)를 도입하고, 해당 결과를 공개하는 제도가 마련되어야 한다. 이는 시민이 해당 시스템이 얼마나 공정하고 투명하게 작동하는지를 사전에 알 수 있도록 돕는 장치가 된다. 둘째, 윤리 기준을 실무에 반영할 수 있도록 각 기관에 AI 윤리 전담 부서나 실무자를 지정하고, 정기적인 교육과 평가를 수행해야 한다. 셋째, 민간 사업자와 공동으로 개발하는 AI 시스템의 경우, 계약서 단계에서 윤리 기준 준수 의무를 명시하고, 이행 여부를 평가에 반영해야 한다. 넷째, AI 시스템 운영 후에는 시민 참여형 평가 및 피드백 시스템을 통해 사용자의 경험과 관점을 제도 개선에 반영하는 구조도 마련되어야 한다. 마지막으로, 위반 시 제재가 가능한 법적 근거를 마련해, 윤리 기준을 ‘의무’로 인식하게 만드는 강제력 있는 법제도 기반이 필요하다. 공공의 AI는 효율이 아니라 책임과 신뢰 위에서 작동해야 한다.

 

  공공 AI는 효율보다 윤리에서 출발해야 한다

 

공공기관이 AI를 활용하는 것은 행정 효율성과 정책 대응력을 높이는 데 큰 도움이 되지만, 그 이면에는 국민의 정보, 권리, 삶이 AI 판단에 의해 영향을 받을 수 있다는 중대한 책임이 따라온다. 단순히 기술을 도입하는 것을 넘어서, 그 기술이 어떻게 판단하고, 누구에게 영향을 미치며, 어떤 가치를 지향하는지를 묻는 일이 AI 윤리의 핵심이다. 지금까지의 AI 윤리 기준은 선언적으로는 잘 정리되어 있지만, 실제 적용 단계에서 체계성, 전문성, 강제력 측면에서 아직 갈 길이 멀다. 앞으로의 공공 AI 정책은 ‘얼마나 빠르게 도입했는가’가 아니라, ‘얼마나 책임 있게 설계되었는가’, ‘얼마나 시민의 신뢰를 얻고 있는가’로 평가받아야 한다. 기술의 공공성을 지키는 첫걸음은 윤리에서 시작되며, 이는 공공기관이 반드시 우선순위로 삼아야 할 가치다.