이번 호에서는 한양대학교 철학과 이상욱 교수님과의 인터뷰를 통해 AI 규범, 윤리 거버넌스와 기업윤리경영 대한 고견을 들어보고자 한다.
흔히 윤리와 규제는 기술 혁신과 대립적인 것으로 생각하는 경향이 있습니다. 그래서 윤리적 고려도 중요하지만 그러다 보면 규제 때문에 혁신이 저해되는 부작용이 있으니 적당한 수준에서 절충해야 한다는 말을 많이 합니다. 거기에서 더 나아가서 유럽의 AI 규제가 유럽의 기술 혁신을 가로막고 있고 그에 비해 미국은 규제가 하나도 없어서 인공지능 혁신에서 우위를 가져갈 수 있었다는 평가를 하기도 합니다. 하지만 미국조차도 아동청소년에게 유해한 AI의 역기능에 대한 규제를 비롯한 여러 규제가 작동하고 있고 유럽도 AI 기술에서 주도권을 쥐기 위해 수많은 진흥 정책을 펼치고 있습니다. 그러므로 AI 관련 규범 및 규제와 혁신은 서로 함께 가야할 동반자이지 서로 상충하는 지향점이 아닙니다.
보다 더 근본적인 지점은 AI와 같은 첨단 기술의 특징이 그 기술적 내용과 사회적 파급효과가 아직 확정되지 않았다는 점입니다. 자동차와 같은 ‘성숙된 기술’의 경우 그 기술을 어떻게 만들고 문제가 생겼을 때 누가 얼마만큼의 책임을 질 것인지에 대해 사회적으로 잘 합의된 기준이 있습니다. 하지만 AI와 같은 발전 가능성이 열려 있는 ‘미성숙 기술’은 이런 기준이 아직 마련되기 전이어서 책임 공백이 발생할 여지가 많습니다. 예를 들어 인공지능을 개발하는 기업이 윤리적 책무를 다하지 않고 만들어 배포한 인공지능으로 인해 사람들이 피해를 볼 때 이에 대해 해당 기업에게 책임을 묻는 제도적 장치가 마련되지 않는다면 기업은 당연히 비용을 줄이기 위해 책무를 다하지 않을 겁니다. 이런 점을 고려할 때 AI와 같은 새롭고 혁신적인 기술과 관련하여 기업이 어떻게 사회적 책무를 다하는 것이 적절한지를 함께 고민하고 바람직한 제도를 만들어 가려는 노력이 필요합니다.
첫째는 투명성입니다. 기업이 AI 관련 여러 결정을 할 때 어떤 점을 고려했고 누가 고려했고 어떤 과정을 거쳐 결정이 내려졌으며 그 결정은 어떤 방식으로 기업의 활동에 영향을 끼쳤는지를 투명하게 공개하여 제3자(예를 들어 소비자나 사회적 감독기관)가 실시간 혹은 사후적으로 검토 및 감사(audit)를 할 수 있도록 하여야 합니다. 이런 투명성의 가치가 기업마다 거버넌스 차원에서 제도적으로 확립되면 적어도 기업은 AI와 관련된 중요한 쟁점에서 그것의 윤리적 측면에 대해 절차적으로 숙고해 볼 수 있는 기회를 갖게 되고 그 숙고의 내용에 대해 책임을 져야 하는 상황에 직면하게 됩니다. 이는 자연스럽게 AI 윤리 거버넌스의 실천적 영향력을 확대할 수 있습니다.
둘째는 핵심가치 존중입니다. 대개 기본 인권으로 대표되는, 우리 사회가 소중하게 여기는 핵심 가치(보편적 가치와 한국 사회에 고유한 특수 가치를 포함하여)를 최대한 지켜가면서 AI의 개발 및 활용이 이루어져야 한다는 원칙입니다. 물론 핵심가치 존중이 다른 모든 것을 희생하고 핵심가치만이 절대적으로 추구되어야 한다는 의미는 아닙니다. 사실 이런 일은 현실적으로 불가능한 경우가 대부분입니다. 핵심가치들 사이에서도 충돌이 일어나기 때문입니다. 예를 들어 개인의 자유로운 선택권 보장과 공정성 보장은 현실적인 상황에서 충돌하는 경우가 많고 이는 AI 관련된 상황에서도 마찬가지입니다. 그러므로 우리가 추구해야 할 핵심가치 존중은 기술적 탁월함, 효율성 등 사회적으로 존중되는 다양한 가치를 포함한 방식으로 이해되어야 하고 그 과정에서 일정한 맞교환(tradeoffs)가 불가피하다는 점 또한 인정할 필요가 있습니다.
셋째는 안전(safety)입니다. 이 가치는 생성형 인공지능의 등장 이후에 더욱 더 강조되고 있습니다. 즉 AI의 성능이 점점 더 높아지면서 AI가 우리의 통제범위 내에서 우리의 핵심 가치를 존중하면서 안전하게 작동할 것인가에 대한 검증의 중요성이 더욱 높아지고 있습니다. AI가 안전한 기술일 것을 요구한다는 것은 AI 기술이 ‘성숙된’ 기술로서 사회 전체에 널리 사용될 수 있음을 정당화하는 근거를 요구하는 것입니다.
특히 중요한 점은 AI의 안전성에 대한 강조는 초지능처럼 현재 인공지능 기술의 수준을 벗어나는 미래 시나리오에 한정된 문제가 아니라는 사실입니다. 최근 여러 연구에 따르면 선량한 목적, 예를 들어 신약후보물질 탐색을 위해 개발된 인공지능이 아주 작은 수정만으로 테러에 사용될 수 있는 독성물질 개발에 활용될 수 있다는 사실, 즉 이중 사용(dual use)의 문제가 알려져 있습니다. 명시적으로 인간을 속이거나 협박하도록 설계되지 않은 인공지능이 ‘적당한 조건’ 하에서는 인간을 속이거나 협박하는 행동을 보여준다는 점도 실험적으로 확인되었습니다. 이런 점을 고려할 때 인공지능의 안전에 대한 요구는, 특히 AI 에이전트가 보다 광범위하게 활용되는 가까운 미래에는 더욱더 강조될 것으로 예상할 수 있습니다.
기술 기업의 경쟁력은 일차적으로는 당연히 기술력과 가격경쟁력일 겁니다. 하지만 AI 기술기업이라면 여기에 ‘윤리/신뢰 역량’과 ‘제도대응 역량’이 추가된다고 볼 여지가 많습니다. 그 이유는 크게 두 가지입니다. 우선 현실적으로 국제 AI 기술 제품 및 서비스 시장에는 아직 국제적으로 완전히 합의된 윤리 기준이나 규제 프레임워크가 없습니다. 기업은 자신이 제품이나 서비스를 팔 국가의 윤리 기준이나 제도적 특징을 고려하여 사업을 해야 합니다. 이런 상황에서 수출로 먹고 사는 우리나라 기업이라면 세계 각국의 AI 관련 제품과 서비스와 관련된 다양한 윤리적 기준, 특히 문화, 종교, 사회적 관습 등을 잘 고려하여 비즈니스를 하는 역량이 매우 중요합니다.
둘째는 첫째 이유와 밀접하게 연관된 것인데 우리가 미국과 중국이라는 AI 기술 강국 사이에서 ‘틈새 시장’을 공략할 필요가 있다는 사실입니다. 냉정하게 평가할 때 당분간 우리가 기술 수준이나 가격경쟁력에서 미국과 중국을 압도할 수 있는 가능성은 높지 않습니다. 하지만 미국기업들은 각국의 고유한 데이터 주권 문제나 문화적, 종교적, 사회적 특수성을 ‘자상하게’ 고려하여 제품과 서비스를 제공하려 하지 않는 경향이 있습니다. 그냥 우리 기술이 최고니 우리가 주는대로 (필요하면 자국어로 번역해서) 우리 AI 제품과 서비스를 사용하라는 식입니다. 그에 비해 중국은 기술적으로도 미국에 버금가고 가격경쟁력에서 압도적이지만, 세계 여러 나라에 민감정보를 동의없이 수집하거나 수출하는 제품이나 서비스에 ‘백도어’를 만들어 안보위협이 될 수 있다는 걱정을 주고 있습니다. 특히 이런 이유로 국가안보나 핵심적 산업 인프라에 미국이나 중국 AI를 사용하는 것을 꺼리는 중진국들이 많습니다. 마찬가지 이유로 미국 빅테크가 자국에서 돈을 벌어 가면서 자국에서 수집한 데이터에 대한 정당한 대가를 지불하지 않는다는 저개발국의 이유있는 불만도 있습니다. 이런 나라들은 상당히 좋은 기술과 꽤 괜찮은 가격경쟁력을 갖춘 우리나라 기업이 앞서 강조한 윤리적 감수성과 데이터 주권에 대한 존중을 전면에 내세워 제품이나 서비스를 마케팅한다면 상당한 효과를 거둘 수 있습니다. 최근 유사한 전략을 활용하여 인상적인 성과를 올린 국산 무기 수출의 성과는 이런 의미에서 국내 인공지능 산업에 주는 교훈이 있습니다. 그러므로 우리는 미국과 중국이 하지 못하는 문화적, 윤리적 감수성과 상대국의 데이터 주권 및 보안 우려를 충분히 고려하는 윤리역량을 가장 우선적으로 키울 필요가 있습니다.