[22대국회과제] 인권과 안전 보장하는 AI법 제정

참여연대는 22대 국회 개원식을 하루 앞둔 6월 4일, <22대 국회가 우선 다뤄야 할 입법·정책과제>를 발표했습니다.

4년의 임기를 막 시작한 22대 국회의 역할과 책임은 그 어느 때보다 막중합니다. 지난 2년간 입법부를 무시하고, 독선적인 국정운영을 펼쳐왔던 윤석열 정권에 대한 심판의 열기로 구성된 22대 국회인만큼 무엇보다 후퇴하는 정치를 제대로 바꾸라는 민심을 반영하는 조치들이 시급합니다. 대통령 거부권에 막혀 국회 다수의 동의를 얻고도 폐기된 입법과제는 당면한 현안으로 우선해서 처리해야 합니다.

참여연대는 21대 국회에서 어느 정도 합의를 이루고도 처리못한 시급한 긴급현안 과제 12개와 한국사회의 미래를 위해 매우 중요한 사안임에도 진척이 더딘 개혁과제 9개를 특별히 꼽았습니다. 이를 포함해 한국사회 개혁과 변화를 위해 필요한 과제들을 담아 7대 분야 60개 입법·정책과제를 제안했습니다.

▣ <22대 국회가 우선 다뤄야 할 입법·정책과제> 전체 보기


인권과 안전 보장하는 AI법 제정

  1. 현황과 문제점 
  • 챗GPT의 등장으로 AI에 대한 대중적 관심이 폭발적으로 늘어났으며 스마트폰의 AI 비서나 AI 스피커, 온라인 쇼핑몰의 상품추천 등 일상 생활에서 익숙한 AI 서비스뿐 아니라 자율주행차, 배달 로봇, 금융서비스, 사회복지수급자 선정, 일자리 배치나 채용 등 민간과 공공영역 곳곳에서 인공지능을 활용하고 있음. AI활용은 비용효율적이고 일상생활을 간소화, 최적화할 수 있으나 인간노동력 대체, 소비자 대면서비스의 품질 저하, 조작, 차별적 관행 반복 강화, 자원낭비로 인한 환경문제 등 편익에 가려 실제로 AI가 가져올 수 있는 위험에 대해서는 실감하지 못하는 것이 현실임. 
  • 일선 학교와 독거노인 가정에 보급되는 인공지능 스피커에도 내장될 수 있는 인공지능챗봇이 상담을 빙자해 수집한 민감한 카카오톡 대화 문장 백억 건을 무단으로 학습하여 개인정보를 침해한 사실이 드러나기도 함. 또한 이 챗봇은 여성·장애인·성소수자·흑인 등 인권 취약 계층을 혐오하는 채팅 서비스로 많은 사회적 비판과 우려를 샀음. 인공지능 자동 채용도구는 아무런 검증 없이 공공기관과 민간기업에 퍼져가고 있지만 제대로 검증, 사후 관리 등을 하고 있는지, 예비 노동자를 차별하고 있지 않은지 알 수 없는 등 모든 것이 불투명함. 인권과 정의를 지켜야 할 법무부는 인공지능 식별추적시스템을 개발한다는 명목으로 2005년부터 출입국한 내국인과 외국인의 얼굴정보 수억 건을 민간기업에 넘겼으며, 네이버쇼핑과 카카오택시는 자기 회사 이익을 위해 알고리즘을 조작하면서도 그 사실을 숨겼음. 최근 챗GPT는 데이터의 무단 학습으로 세계 각국 규제기관에서 여러 조사와 시정조치를 요구받아 왔으며, 국내 개인정보보호위원회 조사에서도 챗GPT가 학습한 데이터에 주민등록번호와 여권번호 등 민감한 개인정보가 포함되었을 수 있다는 사실이 드러나기도 함. 
  • AI는 “다른 형태의 컴퓨팅보다 더 많은 에너지를 사용하며, 단일 모델을 학습하는 데 100개의 미국가구가 1년 동안 사용하는 것보다 더 많은 전력을 소비할 수 있다”고 함. 데이터센터는 엄청난 양의 에너지를 사용하는 것으로 알려져 있으며, 이미 6년 전에 전 세계 컴퓨팅의 에너지 수요가 10년 내에 전 세계 총 전력 생산량을 초과할 것으로 예측된 바 있음. 또한 데이터센터를 냉각하는 데 사용되는 물사용량도 엄청나 AI의 개발, 학습, 배치, 사용으로 인해 물 수요가 더욱 커지고 있고 최근 연구에 따르면 오픈AI의 대규모언어모델(LLM)인 GPT-3을 학습시키기 위해 원자로 냉각탑을 채울 수 있는 양의 물이 필요했다고 함. 이 연구에 따르면 챗GPT는 최종 사용자와 기초적인 소통을 완료하는 데만 0.5리터의 물을 소비했다고 함. 이와 같이 AI는 탄소배출량과 물소비량 등에서 기후문제를 더욱 악화시킬 것이란 지적이 있음. 
  • 한편, 2024.3.12. 의회를 통과하여 2026년 전면 시행되는 세계 최초의 포괄적 규제인 유럽연합의 <AI법>을  비롯하여 미국의 바이든 행정부의 행정명령 등 최근 국제적 흐름은 빠르게 발전하는 AI 시대에 인공지능 기술의 위험성을 단계별로 구분하고 규제 정도를 달리하는 방안을 마련하는 등 인권과 안전을 확보하기 위한 규제의 필요성에 공감대가 형성되고 있음.
  • 한국의 경우 지금까지 민간의 다양한 서비스에서 공공서비스, 행정처분에 이르기까지 도입이 확대되고 있는 상황이면서도 AI의 위험성에 대한 규제의 필요에 대한 호응보다는 산업위축론에 따른 토종 기업 육성 목소리가 상대적으로 더 우세한 상황임. 특히 지난 21대 국회는 산업진흥에 초점을 맞추고 금지인공지능과 고위험인공지능에 대한 실효성을 담보하지 못한 <인공지능법안>을 제정하려고 한 바 있으나 시민사회 등에서 반대함. 적어도 우리 사회가 AI를 허용해서는 안 될 금지인공지능, 인권과 안전을 위협하는 고위험 영역 AI에 대해서는 높은 책임성, 투명성 및 권리 구제 방안 등을 포함하는 AI규제법을 마련해야 함. AI의 안전성에 대한 신뢰 없이 AI산업 발전도 불가능할 것이기 때문임. 
  • 국가인권위원회는 2022년 5월 <인공지능 개발과 활용에 관한 인권 가이드라인>을 발표하고 △개인의 인권과 안전에 미치는 위험성별로 걸맞은 수준의 규제와 인적 개입, △인공지능을 독립적이고 효과적으로 감독할 수 있는 체계 수립, △인공지능 때문에 피해를 입은 사람이 권리구제를 받을 수 있는 기회를 제공할 것 등을 내용으로 하는 입법을 정부에 권고하는가 하면, 2023년 8월 국회 과방위 계류 중인 인공지능 법률안이 이용자와 정보주체의 권리 및 권리침해 구제절차를 명확히 규정하지 않았고, 고위험 영역 인공지능에 대해서만 협소하게 규정하면서 실효적인 규제 수단을 두지 않았다고 지적하며 개선 권고 의견을 내기도 함. 
  1. 세부 과제

    1) 국민의 인권과 안전을 보장할 수 있는 실효성 있는 인공지능법(AI법) 제정
  • OECD 등 국제적 규범에 맞는 인공지능에 대한 정의
  • 금지되는 인공지능의 정의를 규정, 고위험 인공지능 정의 및 책임성, 투명성 의무 규정 및 실효성 담보 방안 마련
  • 이용자와 정보주체의 권리 및 권리 침해시 구제절차의 마련
  • 인공지능 개발 및 출시 전에 인권영향평가 실시, 인공지능의 기능 또는 활용 범위의 변경 시에도 재평가 실시
  • 적정한 거버넌스 구축 : 인공지능 감독·규제 업무는 산업진흥 부서가 아니라 제3의 독립적인 기관이 담당
  1. 소관 상임위 : 국회운영위원회, 정무위원회, 과학기술정보방송통신위원회
  2. 참여연대 담당 부서 : 공익법센터 (02-723-0666)

정부지원금 0%, 회원의 회비로 운영됩니다

참여연대 후원/회원가입