사례 돋보기

AI 및 기술 윤리 사례

AI 기술은 마케팅, 데이터 분석, 내부 의사결정 등 기업 활동 전반에 빠르게 확산되고 있다. 그러나 기술의 활용 범위가 넓어질수록, 어떤 기준으로 AI를 설계하고 운영할 것인가, 그리고 그 과정에서 발생할 수 있는 위험과 책임을 어떻게 관리할 것인가는 기업의 중요한 윤리·거버넌스 과제로 떠오르고 있다.

이번 사례돋보기에서는 AI 윤리 원칙을 제도화하고 투명한 운영 체계를 구축한 국내외 기업 사례를 통해, AI 활용이 확대되는 환경에서 기업이 참고할 수 있는 기준 및 투명성 확보 방안에 대해 알아보고자 한다.

CJ올리브네트웍스

CJ올리브네트웍스는 국내 글로벌 디지털 마케팅 솔루션과 전문 컨설팅 기업이다. 최근 인공지능(AI) 기반 초개인화 마케팅의 중요성이 커지면서 올리브네트웍스 또한 기업별 환경에 최적화한 AI테크 솔루션과 전문 컨설팅을 함께 제공하고 있다.

CJ올리브네트웍스는 인간 중심의 AI를 핵심 개념으로 하는 ‘AI 윤리원칙’을 2021년 11월 선포했다. 이 AI 윤리원칙은 AI를 활용해 고객에게 혁신적인 서비스를 개발하거나 또는 제공할 때 구성원이 반드시 실천해야 하는 기준을 말한다. CJ올리브네트웍스는 이를 통해 혁신적인 AI 서비스를 개발하고 보급하는 데 필요한 구성원들의 가이드 라인을 제시한다.

<CJ올리브네트웍스 AI 윤리원칙>

출처: CJ올리브네트웍스 홈페이지

한편, CJ올리브네트웍스는 ESG 경영의 기반으로 "우리는 ONLYONE 디지털 기술과 서비스로 이해관계자들이 더 나은 지속 가능한 미래를 가질 수 있도록 돕는다."라는 미션을 두고 있으며, 핵심가치가 되는 4대 지향점 '권리의 보호', '포용의 문화', '생태계 강화', '환경친화적 접근' 중 '권익의 보호'영역에서 개인정보와 데이터 보안, 기술윤리 제정과 준수에 대한 부분을 다음과 같이 다룬다.

<ESG경영 전략체계-권리의 보호>

출처: CJ올리브네트웍스 홈페이지

또한 CJ올리브네트웍스는 개발하는 모든 기술과 서비스에 대해 사회적 책임과 의무를 이해하고 이를 구체적으로 실천하기 위해 기술 윤리 헌장을 제정하고 준수하고 있다. 기술 윤리 헌장은 개발자, 공급자, 이용자의 3가지 이해관계자 별로 준수해야 할 4가지 공통원칙(공공성, 책무성, 통제성, 투명성)으로 구성된다.

그 중 기술의 활용과정에서의 투명성에 대한 원칙을 살펴보자면 다음과 같다.

<CJ 올리브네트웍스 기술 윤리 헌장-투명성>

4. 투명성

  • 우리는 기술개발, 서비스 설계, 제품 기획 등 의사결정 과정에서 사회 구성원들의 의견을 반영하도록 노력하며, 이용 단계에서 예상되는 위험과 관련한 정보를 공개, 공유하고, 회사의 개인정보 처리 원칙에 따라 개인정보를 보호합니다.
개발자
  • 개발자와 이해관계자들 간의 공동대처가 필요한 위급 상황 발생시, 필요 데이터를 공유하고 문제 해결을 위한 방안 마련에 협력합니다.
  • 이용자의 사생활 침해, 안전에 관한 위험 등을 사전에 예방하기 위해, 발주자가 인지하지 못하는 은닉 기능을 개발하지 않습니다.
  • 제품 및 서비스의 작동이나 활용이 수반하는 다양한 결과와 예상 가능한 부작용 등에 관하여 광범위하고 구체적인 예측의 노력을 기울이고, 필요시 그 결과를 공급자에게 알립니다.
공급자
  • 제품 및 서비스의 공급과 이용으로 인해 도출된 위험 또는 잠재적 위험을 인지하였을 때 이를 이용자와 일반인들에게 고지 및 공유합니다.
  • 이용자 또는 제3자의 정보를 부당하게 이용하지 않습니다.
  • 제품 및 서비스가 삶의 질과 직결된 영역에서 미치는 부정적 영향을 사전에 파악하여, 이를 기술 개발 및 제품 설계 단계에서 제거할 수 있도록 노력합니다.
이용자
  • 특정 기술 또는 기능이 사회에 부정적인 영향을 미칠 수 있다고 판단되는 경우에는 이를 만들거나 사용하는 과정에 대한 설명을 개발자나 공급자에게 요구하며, 그러한 특정 기술 또는 기능이 이용 과정에서 사회에 부정적인 영향을 미칠 수 있다고 판단되면 해당 기술 또는 기능의 사용 계획을 철회합니다.
  • 기술이 개인에 관한 다양한 정보를 수집 · 처리한다는 사실을 인지하고, 개인정보 처리의 전 과정이 적절하게 이루어지는지 감시합니다.
  • 제품 및 서비스의 이용 시 이상 현상과 부작용 등에 대해 관심을 기울이고, 소비자로서 습득한 경험과 정보를 적절한 방식으로 공유합니다.
출처: CJ올리브네트웍스 홈페이지

Microsoft(마이크로소프트)

Microsoft(마이크로소프트)는 미국의 IT기업으로 지속적으로 글로벌 AI 표준을 구축하는데 참여하는 기업으로 '책임있는 AI 투명성 보고서'(Responsible AI Transparency Report)를 발간하고 있다.

2024년 6월에는 클라우드 플랫폼 ‘애저(Azure)’ 내 모델 리더보드에 안전성 등급을 도입하였다. 이를 통해 고객사가 각 AI 모델의 리스크 수준을 사전에 파악하고 최적의 모델을 선택할 수 있도록 지원한다.

‘책임있는 AI 투명성 보고서’는 2024년 5월 첫 발간되었으며, 그 내용으로는 AI 시스템을 책임감 있고 사용자의 요구에 맞도록 구축하고 배포하는 방법, 고객을 지원하는 방법, 그리고 학습하고 발전하는 방식 등 새로운 개발 사항들을 담았다.

한편, 마이크로소프트는 AI를 개발·활용하는 전 과정에서 ‘책임있는 AI(Responsible AI)’를 핵심 원칙으로 삼고 있다. 공정성, 안전성, 프라이버시, 투명성, 책임성을 6대 원칙으로 설정하고, 이를 실제 제품과 서비스에 적용하기 위해 RAI 표준(Responsible AI Standard)1), 사전 위험평가, 레드팀 테스트2), 배포 전 심의 절차를 운영한다.

마이크로소프트는 홈페이지를 통해서 ‘책임감있는 AI표준’을 공유하고 AI윤리 원칙에 따른 개발 및 사용현황을 확인할 수 있도록 홈페이지에 다음과 같이 게시한다.

<AI윤리 원칙 6가지>

출처: 마이크로소프트 홈페이지

또한 책임있는 AI와 관련된 정책 및 내부정책 연구, AI확산 및 이용현황 분석, 산업, 기술 연구 등을 진행한 자료를 홈페이지를 통해 게재 및 공유하고 있으며, EU AI Act 등 글로벌 규제를 모니터링 및 분석하여 선제적으로 대응하고 있다.

  • 마이크로소프트가 6대 AI 원칙을 제품 개발 및 운영 단계에서 구체적으로 실행하기 위해 수립한 내부 규정(Internal Framework).
  • 조직의 보안이나 윤리적 취약점을 점검하기 위해 의도적으로 공격자 역할을 수행하는 팀이 시스템을 테스트하는 방식
참조