백악관에서 발표한 AI 권리 장전 청사진

지난 10월 초, 미국 백악관에서는 Blueprint for an AI Bill of Rights를 발표했습니다. 제목 그대로 AI 권리 장전의 청사진을 그린 것인데요, 인공지능 시대를 맞이하며 자동화되는 시스템 속에서 미국인들의 권리를 보호하고, 올바르게 기술을 디자인하거나 활용할 수 있도록 5가지의 기본 원칙을 제안합니다.
Oct 21, 2022
백악관에서 발표한 AI 권리 장전 청사진
🔑
7분 안에 이런 걸 얻을 수 있어요. 백악관에서 발표한 AI 권리 장전 5가지 원칙
지난 10월 초, 미국 백악관에서는 Blueprint for an AI Bill of Rights를 발표했습니다. 제목 그대로 AI 권리 장전의 청사진을 그린 것인데요, 인공지능 시대를 맞이하며 자동화되는 시스템 속에서 미국인들의 권리를 보호하고, 올바르게 기술을 디자인하거나 활용할 수 있도록 5가지의 기본 원칙을 제안합니다. 이 원칙들은 비단 엔지니어뿐만 아니라 책임감 있는 자동화 시스템을 위해 각 개인과 정부 모두를 위한 것이라고 말합니다. 이번 글에서는, AI 권리 장전에 담긴 5가지 원칙들을 하나씩 살펴보고자 합니다.
notion image
이미지 출처: whitehouse.gov

안전하고 효과적인 시스템 (Safe and Effective Systems)

안전하지 않고 잘못된 시스템(Unsafe or Ineffective Systems)으로부터 보호 받아야 한다.
가장 먼저 강조하는 것은 시스템으로부터 보호받고 안전을 보장받는 것입니다. 자동화 시스템을 구축할 때는 반드시 다양한 사회 구성원들과 주주들, 그리고 각 영역의 전문가들과 상의를 거쳐 어떤 우려 사항이 있고 위험 사항이 있는지 밝혀내야 합니다.
그리고 사전 배포 테스트를 거치면서 위험 사항을 식별하고 안전하지 않은 결과를 발생시키지 않도록 주의를 기울여야 합니다. 부적절한 데이터 사용 또한 지양해야 합니다. 부적절하거나 관련 없는 데이터의 사용으로 개인의 피해가 발생하지 않도록 하며, 재사용 시에도 위험을 초래해서는 안 됩니다.

알고리즘의 차별 방지 (Algorithmic Discrimination Protections)

알고리즘으로부터 차별을 겪지 않아야 하며, 시스템은 반드시 평등한 방향으로 사용되고 디자인되어야 한다.
알고리즘은 완전하지 않습니다. 때로는 인종 / 성에 따른 차별적인 결과를 보여주기도 합니다.
두 번째는 이러한 알고리즘의 차별을 방지하는 것입니다. 일반적으로 생각하는 인종, 피부색, 성별뿐만 아니라 성 정체성과 성적 지향, 종교, 나이, 국적, 장애 등을 포괄하여 법적으로 보호 받는 모든 권익에 대해 침해하지 않도록 해야 합니다.

데이터 정보 보호 (Data Privacy)

내부적인 조치로 데이터 남용으로부터 보호되어야 하고, 데이터가 어떻게 활용되는지 알 수 있는 기관이 있어야 한다.
인공지능 시스템 구축을 위해서는 데이터 수집이 필수적입니다.
하지만 이 데이터를 구축하는 과정에서 반드시 개인의 권익은 존중받아야 하며 내부적인 시스템을 통해 보호받아야 합니다. 데이터를 수집하더라도 합리적인 기대 범위 속에서 활용되어야 합니다. 그리고 난해하고 어렵게 만드는 사용자 경험을 보여주어서는 안 되며, 사용자 개인의 권리를 침해받을 수 있는 선택이 기본 옵션으로 되어 있어서는 안 됩니다. 반드시 수집 단계에서 동의 여부를 물어야 합니다. 그리고 이때에도 명료하고 쉬운 언어로 설명되어야 합니다.

고지와 설명 (Notice and Explanatioin)

자동화 시스템이 어떻게 사용되는지 알아야 하고, 당신에게 영향을 미친 결과물이 어떻게, 왜 만들어졌는지 이해해야 한다.
일상생활 속에서 이용 약관, 음식 성분표 등을 꼼꼼하게 읽어보신 기억이 있으신가요? 약관이라고 하면 왠지 어렵고 복잡한 내용들이 가득할 것 같아서 자세히 읽어보지 않는 경우가 많습니다. 하지만 데이터를 수집하거나 활용하는 데 있어 이런 어려움들은 없애야 합니다. 쉬운 언어로 쓰인 문서와 데이터가 쓰이는 시스템의 기능을 설명해야 합니다. 결과에 대한 설명도 포함되어야 하고요. 그리고 그 결과가 어떻게, 왜 나왔는지 설명되어야 합니다.

인간적인 대안, 고려, 그리고 대비책 (Human Alternatives, Consideration, and Fallback)

사용자는 선택하지 않을 수 있으며, 문제에 처했을 때 신속하게 고려하고 해결할 수 있는 사람에게 접근할 수 있어야 한다.
만약 알고리즘이 잘못된 방향으로 계속 수행되고 있다면, 어떻게 막을 수 있을까요? 예를 들면, 계속 원치 않는 광고가 화면에 보인다거나, 차별적인 광고가 보인다면 어떻게 행동해야 하는 것일까요? 인공지능의 판단에 의해 상해를 입거나 목숨까지 위험한 상황이 온다면 어떻게 통제해야 하는 것일까요?
이를 위해 인간적인 대안을 마련해야 합니다. 때로는 법적으로도요. 사고라는 것은 보통 뜻하지 않게 발생하기 때문에 문제를 예방하기 위해서는 정말 숙고의 과정을 거쳐야 합니다.

마치는 글

notion image
AI 권리 장전에 대한 5가지 원칙을 알아보았습니다. 원문에서는 이 원칙들을 어떻게 실용적으로 적용할 수 있는지 설명하고 있습니다. 요약하면 지속적인 감시 시스템과 피드백 체계를 갖춰야 한다는 것입니다. 알고리즘에서 차별적인 편향이 발생하거나 데이터에서 개인 정보를 침해하는 결과가 발생했을 때, 신속하고 빠르게 대응할 수 있는 체계가 마련되어야 합니다.
언뜻 듣기에는 뻔하고 당연한 내용들일 수 있습니다. 하지만 잊고 지낸다면 현실에서 반영되기 어려운 윤리적 원칙이기도 하고요. 실제로, 인공지능이 차별을 내포하거나 사고를 일으킨 사례도 적지 않게 찾아볼 수 있습니다.
가장 큰 국가 영향력을 가지고 있고 제일의 인공지능 산업 국가인 미국이 발표했다는 점을 고려한다면 국내의 인공지능 / IT 기업에서도 주의 깊게 살펴볼 필요가 있습니다. 물론, 무작정 따르기보다는 국내 환경에 맞게 해석하고 수정과 보완이 필요할 것입니다. 또 문서에서 말한 것처럼, 도메인의 특성에 따를 필요도 있고요.
이번 권리 장전은 자동화 시스템이 보편화되면서 초래할 수 있는 개인 소외와 권리의 침해 또는 축소에 대한 보호를 명문화했다는 데에서 의의를 갖습니다. 국내에서도 디지털 트랜스포메이션 움직임이 일어나면서, 점차 AI 자동화시스템이 보편화되기 있는 만큼, 다시 한번 윤리 의식을 일깨우는 계기가 되기를 바랍니다.

참고자료

Share article

More articles

See more posts

셀렉트스타(주) 블로그