전문가 코칭
AI 규제 동향 및 기업의 대응
이건웅 교수
고려대학교 경영대학

이번 호에서는 고려대학교 경영대학 이건웅 교수님과의 인터뷰를 통해 AI와 관련된 규제 동향과 기업의 대응에 대한 고견을 들어보고자 한다.

Q1. AI의 글로벌 규제 동향에서 주로 다뤄지는 내용은 무엇이며, 기업에 어떤 영향을 미칠까요?

인공지능(Artificial Intelligence, AI) 기술 확산에 따라 AI의 잠재적인 위험을 최소화하고, AI 기술이 공정하고 투명하며 안전하게 활용될 수 있도록 하고자 각국 정부와 국제 기구에서 활발히 논의되고 있습니다. 규제에서 주로 다뤄지는 내용은 AI 기술의 공정성, 투명성, 책임성, 그리고 개인정보 보호입니다. 주요 내용과 그에 따른 기업에 미치는 영향은 다음과 같습니다.

AI의 공정성 및 편향성 방지: AI 시스템이 사용하는 데이터는 종종 편향된 결과를 낳을 수 있으며, 이는 인종, 성별, 경제적 지위와 같은 민감한 요소들에 대한 차별을 유발할 수 있습니다. 2024년 5월에 발효된 유럽연합의 인공지능법(EU AI Act)은 AI 시스템이 공정하게 작동하고, 사회적/경제적 소수 집단이나 특정 집단에 불리하게 작용하지 않도록 설계되어야 한다고 명시합니다. 따라서, 기업은 민감한 개인정보를 포함한 데이터 수집과 처리 과정에서 보다 신중하게 편향성을 검토하고, 이를 교정 및 조율하는 관리시스템과 제도적 장치를 구축해야 합니다.

투명성과 설명 가능성: AI의 복잡한 알고리즘과 의사 결정 과정은 종종 '블랙박스(Blackbox Model)'로 비유되곤 합니다. 이는 AI 시스템이 왜 특정 결정을 내렸는지에 대해 사용자나 규제 당국이 이해하기 어려운 문제를 야기시킵니다. 이에 따라, AI 규제에서는 투명성 확보와 설명 가능성을 중요하게 다룹니다. 예를 들어, 미국의 알고리즘 책임법(The US Algorithmic Accountability Act)과 유럽연합의 AI 규제안에서는 AI가 내리는 결정에 대한 설명을 제공할 수 있어야 하며, 이를 통해 AI 시스템의 결과가 사용자나 규제 기관에 쉽게 이해될 수 있도록 해야 한다고 요구하고 있습니다. 기업은 설명 가능한 AI 시스템(eXplainable AI, XAI)을 도입하기 위해서 추가적인 개발 노력과 기술적 접근이 필요할 수 있습니다. 또한, AI의 의사 결정이 규제 요구에 부합하는지를 증명하는 절차를 마련해야 하므로 기업의 내부 프로세스와 컴플라이언스(Compliance) 시스템에도 대대적인 변화가 필요합니다.

책임성과 안전성: AI 시스템이 실패하거나 오작동할 경우 발생하는 피해에 대한 책임 소재를 명확히 하는 것은 AI 규제의 중요한 부분입니다. 특히, 자율주행차, 의료 AI 등 인명에 직접적인 영향을 미칠 수 있는 AI 기술에 대한 규제가 엄격해지고 있습니다. 예를 들어, 유럽연합은 AI 시스템이 인간의 생명과 안전에 위협이 되는 경우, 그 책임을 명확히 규명하고 이를 예방하기 위한 강력한 안전성 검사를 요구하고 있습니다. 기업들은 이러한 규제에 따라 제품 출시 전 AI 시스템의 안전성을 철저히 검토 및 검증해야 하며, 이는 기존의 품질 관리 시스템에 AI 특화된 검증 절차를 추가로 도입해야 함을 강조합니다. 또한, AI 기술의 오작동이나 실패에 따른 법적 책임을 감수해야 하므로, AI 관련 법률 리스크 관리가 필수적입니다.

개인정보 보호와 데이터 보안: AI 시스템은 다양하고 방대한 양의 데이터를 사용하여 학습하고 의사 결정을 내립니다. 이 과정에서 개인정보와 민감한 데이터를 다룰 가능성이 높기 때문에, 개인정보 보호는 AI 규제에서 중요한 이슈 중 하나로 다뤄지고 있습니다. 유럽연합의 일반 데이터 보호 규정(GDPR) 등의 규제는 기업이 AI 시스템에서 사용하는 데이터의 출처, 보안, 그리고 사용 방식에 대해 명확히 관리 및 감독을 해야 함을 의미합니다.

AI 규제의 글로벌 불균형과 국제적 대응: 마지막으로, 각국의 AI 규제 수준은 지역마다 다르며, 이는 글로벌 시장에서 활동하는 기업들에게는 복잡한 도전 과제가 될 수 있습니다. 예를 들어, 유럽연합은 매우 엄격한 AI 규제안을 제시하고 있는 반면, 미국과 중국은 비교적 자율적인 규제를 채택하고 있습니다. 이러한 차이는 기업이 각국의 규제 환경에 맞춰 AI 시스템을 설계하고 운영해야 한다는 부담을 안겨줍니다. 따라서, 국내 글로벌 기업은 여러 국가의 규제를 동시에 준수하기 위한 다소 복잡한 컴플라이언스 전략을 수립해야 하며, 이는 운영 효율성에 영향을 미칠 수 있습니다.

Q2. 기업이 관련 규제를 준수하고 AI를 윤리적으로 활용하기 위해 기업의 윤리경영 차원에서는 어떤 노력이 필요할까요?

기업이 AI를 윤리적으로 활용하기 위해서는 윤리경영 차원에서 체계적인 노력이 수반되어야 합니다. 윤리경영은 단순히 규제 준수에 그치지 않고, 사회적 책임을 다하는 기업 활동을 포함합니다. 기업이 AI 규제를 준수하고 윤리적인 AI 활용을 실천하기 위해서는 다음과 같은 노력이 요구됩니다.

첫째, 기업은 AI기술을 윤리적으로 활용하기 위해 내부적으로 명확한 AI 윤리 가이드라인을 마련해야 합니다. 이러한 가이드라인은 AI 기술의 개발 및 운영 과정에서 공정성, 투명성, 안전성을 보장할 수 있는 원칙을 포함해야 합니다. 예를 들어, AI 시스템이 의사결정을 내릴 때 특정 집단에 불리하게 작용하지 않도록 공정성을 확보하고, 그 과정이 설명 가능해야 합니다. 또한, AI 시스템이 사용하는 데이터가 개인정보를 보호하고, 민감한 정보를 부적절하게 사용하지 않도록 철저한 관리가 필요합니다. 이러한 가이드라인은 기업 내에서 AI 기술을 개발하는 모든 부서에 적용되며, 개발 초기 단계부터 윤리적 고려가 이루어져야 할 것입니다.

둘째, 기업은 AI 기술이 윤리적으로 운영될 수 있도록 투명한 거버넌스 체계를 구축해야 합니다. 이를 위해 기업은 AI 윤리 위원회 또는 AI 윤리 전담 부서를 설립할 수 있습니다. 이러한 위원회는 AI 시스템의 개발 및 운영 전반에 걸쳐 윤리적 검토를 수행하고, AI가 공정하고 투명하게 작동하는지를 지속적으로 관리 및 감독을 합니다. 이러한 거버넌스 체계는 AI가 고객 및 이해관계자들에게 미치는 영향에 대한 책임을 분명히 하여, 기업의 신뢰성을 높이는 데 기여할 수 있습니다.

셋째, AI 기술의 윤리적 활용을 보장하기 위해서는 전사적인 AI 윤리 교육이 필수적입니다. AI 개발자뿐만 아니라 경영진, 마케팅 팀, 법무 팀 등 다양한 관련 부서에서 AI 기술을 이해하고 윤리적 문제를 인식할 수 있어야 합니다. 이러한 교육은 정기적으로 이루어져야 하며, 최신 AI 규제와 윤리적 이슈에 대한 개정 및 업데이트도 포함해야 합니다.

넷째, AI 기술의 윤리적 활용에서 가장 중요한 요소는 투명하고 안전한 데이터 관리입니다. AI 시스템은 다양하고 방대한 양의 데이터를 사용하여 학습하고 의사결정을 내리는데, 이 과정에서 데이터의 출처와 처리 방식이 윤리적으로 관리되어야 합니다.

다섯째, AI 응용 기술이 사람들에게 신뢰를 받기 위해서는 그 과정이 투명하고 설명 가능해야 합니다. 즉, AI가 어떻게 의사결정을 내렸는지, 그 과정에서 어떤 데이터를 사용했는지, 결과에 어떤 영향을 미쳤는지를 명확히 설명할 수 있어야 합니다. 이를 위해 기업은 설명 가능한 AI 시스템(XAI)을 도입하는 노력이 필요합니다. 이러한 투명성 확보는 특히 금융, 의료, 법률과 같은 고위험 분야에서 매우 중요한 윤리적 요구사항입니다.

여섯째, AI 기술의 윤리적 활용은 일회성 조치로 끝나는 것이 아니라, 지속적인 모니터링과 감사가 필요합니다. AI 시스템은 시간이 지나면서 새로운 데이터에 따라 학습하고, 그 결과가 바뀔 수 있기 때문에, 정기적으로 윤리적 문제가 발생하지 않는지를 검토하고 점검해야 합니다. 이를 위해 기업은 내부 감사 절차(Internal Control for AI)를 마련하여 AI 시스템의 운영 상태를 지속적으로 평가하고, 필요한 경우 수정 조치를 취해야 합니다.

마지막으로, AI 기술의 윤리적 활용은 기업 내부에서만 이루어지는 것이 아니라, 외부의 이해관계자들과의 소통과 협력이 중요합니다. 고객, 파트너, 규제 당국 등 다양한 이해관계자들의 의견을 수렴하여, 기업이 제공하는 AI 기술이 사회 전반에 미치는 영향을 고려하여 적극적인 소통을 이어가야 합니다. 이를 통해 기업은 AI 기술 활용에 대한 사회적 수용성을 높이고, 잠재적인 윤리적 문제를 사전에 예방할 수 있습니다.