OECD, Governing with Artificial Intelligence (2025)
OECD에서 발간한 'Governing with Artificial Intelligence(2025)' 보고서는 전 세계 정부가 AI를 정책 및 행정 전반에 어떻게 통합하고 있는지, 그리고 신뢰 중심의 거버넌스를 어떻게 설계해야 하는지를 200여개의 사례를 통해 분석하고 있다.
이번 보고서 리뷰에서는 보고서의 관련 내용을 발췌하여, 특히 사기 방지와 이상 징후 탐지, 공공조달(Procurement) 과정의 위험관리·감독에서 AI가 구체적으로 어떤 방식으로 활용되는지 살펴보고, 책임 있는 기술 도입을 위한 핵심 요건을 정리하고자 한다.
보고서에 따르면 OECD가 정부의 11개 핵심 기능을 대상으로 총 200개의 AI 활용 사례를 분석한 결과, AI 활용은 공공 서비스, 시민 참여, 사법 행정 분야에서 상대적으로 활발하게 나타났다. 반면 정책 평가, 세무 행정, 공무원 관리 분야에서는 AI 활용 사례가 초기 단계에 머물러 있는 것으로 분석됐다. 공공 조달, 재정 관리, 부패 방지 및 공공 청렴성 분야는 이들 사이의 중간 수준 활용도를 보이는 영역으로 분류된다.
활용 목적을 기준으로 보면, 전체 사례 중 57%는 행정 프로세스와 공공서비스의 자동화·간소화·맞춤형 서비스 제공에 집중적으로 활용되고 있다. 그 다음으로 44%는 의사결정 개선, 정보 해석(sense-making), 예측 기능 강화를 목적으로 하고 있으며, 29%는 책임성 강화 및 이상 징후 탐지를 주요 목적으로 한다.
반면, 정부가 개발·운영하는 AI 시스템을 외부 이해관계자(시민·기업 등)가 직접 활용할 수 있도록 개방한 사례는 전체의 6%에 불과한 것으로 나타나, AI 활용은 정부 내부의 효율성 제고를 위한 도구로 주로 활용되고 있는 것으로 나타났다.
기술 수준 측면에서는 정부의 AI 활용이 여전히 규칙 기반 시스템이나 기존 머신러닝(ML) 기법에 주로 의존하고 있는 것으로 나타났다. 대규모 언어모델(LLM)을 포함한 생성형 AI의 활용은 최근 관심이 급증하고 있으나 데이터 보안과 환각 현상에 대한 우려로 인해 여전히 실험적인 단계에 머물러 있다고 보고서는 평가한다. 이는 정부 부문에서 AI가 비교적 통제 가능하고 위험이 낮은 영역을 중심으로 점진적으로 도입되고 있음을 시사한다.
OECD 보고서는 이러한 분석 결과를 뒷받침하는 구체적인 AI 활용 사례도 함께 제시한다. 대표적으로 공공조달과 사기 방지 분야의 사례는 아래와 같다.
Alice는 브라질 연방감사원이 운영 중인 AI 기반 공공조달 감시 시스템을 말한다.
Alice는 연방정부의 입찰·계약 데이터를 상시 분석해 반복 낙찰, 경쟁 부족 입찰, 비정상적 계약 변경 등 사기나 비효율 가능성이 있는 패턴을 조기에 탐지한다.
위험 신호가 포착되면 자동 경고되며, 감사관은 이를 토대로 계약 체결 이전 단계에서 추가 점검이나 개입을 검토할 수 있다.
ChatTCU는 브라질 연방회계법원이 내부 감사관을 지원하기 위해 도입한 생성형 AI 도구이다. ChatTCU는 대규모 언어모델을 활용해 감사관이 자연어로 질의할 경우 관련 법령, 과거 감사 보고서, 유사 사례 등을 요약·정리해 제공한다.
이 도구는 감사 판단을 대신하지 않으며, 모든 결과는 감사관의 검증을 거쳐 활용된다.
OECD는 이 사례들을 통해 생성형 AI가 청렴·감사 영역에서 AI가 공공부문에서 사전 예방, 위험 탐지, 정보 정리, 업무 효율화 역할을 함으로써 지식 접근성과 업무 효율성을 높이는 보조 수단으로 활용될 수 있음을 보여준다. 다만, 보고서는 이 시스템들이 위법 여부나 제재를 판단하지 않고, 감사 대상 선별과 우선순위를 설정을 보조하는 도구로서 활용되는 등 판단과 책임은 인간에게 귀속돼야 한다는 원칙을 다시 한번 명확히 한다.
OECD는 이를 통해 신뢰할 수 있는 AI 도입의 핵심은 기술의 고도화뿐만 아니라, 활용 범위의 명확화와 책임 구조의 확립에 있음을 강조하며 다음의 6대 원칙을 제시한다.
| 책임성 (Accountability) |
AI가 개입된 결정의 결과에 대해 누가 책임을 지는지 명확해야 합니다. AI는 판단을 보조할 수는 있지만, 최종 결정과 책임은 인간과 조직에 귀속돼야 합니다. |
|---|---|
| 투명성 (Transparency) |
AI가 어떤 목적으로, 어떤 데이터와 방식을 통해 작동하는지 설명 가능해야 합니다. 특히 권리·의무에 영향을 미치는 영역에서는 AI 사용 사실 자체가 공개돼야 합니다. |
| 설명 가능성 (Explainability) |
AI의 분석 결과나 권고가 왜 그렇게 도출됐는지 이해·설명할 수 있어야 합니다. 설명 불가능한 알고리즘은 공공 신뢰를 저해하고 책임 소재를 흐릴 수 있습니다. |
| 인간 중심·인간 개입 (Human-in-the-loop) |
AI는 판단자나 결정권자가 아니라 위험 탐지·정보 정리 등 보조 수단으로 활용돼야 합니다. 필요 시 인간이 개입·중단·수정할 수 있는 구조가 전제돼야 합니다. |
| 공정성 및 비차별 (Fairness) |
편향된 데이터나 설계로 인해 특정 집단에 불리한 결과가 발생하지 않도록 관리해야 합니다. 특히 사기 탐지·감사·조달 분야에서는 과도한 오탐·차별 위험을 경계해야 합니다. |
| 개인정보 보호 및 데이터 거버넌스 (Data Protection & Governance) |
AI 학습·분석에 활용되는 데이터는 적법성·목적 적합성·보안성이 확보돼야 합니다. 민감정보를 다루는 경우 데이터 결합과 활용 범위에 대한 엄격한 통제가 필요합니다. |
| 비례성 및 위험 기반 접근 (Proportionality & Risk-based approach) |
모든 영역에 동일한 수준의 AI를 적용하기보다, 위험이 낮고 효과가 큰 영역부터 단계적으로 도입해야 합니다. |
보고서는 AI 도입 시 데이터 파편화, 전문 인력 부족, 노후화된 시스템과 같은 현실적 장벽을 직시할 것을 언급한다. 공공 부문에서 AI가 의미 있는 도구로 기능하기 위해서는 기술 도입에 앞서 리스크 기반의 유연한 안전장치(Guardrails)를 마련하고, 정부가 기술에 종속되지 않도록 자체적인 디지털 역량 강화가 요구된다.
이러한 보고서의 분석은 AI를 활용한 내부 통제 시스템 구축을 고민하는 조직에 이정표를 제시할 것으로 보인다. 단순한 기술 도입에 앞서, OECD가 제시한 '책임 있는 AI 거버넌스' 원칙과 실제 사례를 이정표 삼아 조직 내 의사결정 기준과 책임 구조를 선제적으로 점검하는 데 해당 보고서 가이드라인으로 활용해 볼 수 있다.