참여사회 2025년 09-10월 2025-09-03   14046

[인터뷰] 불경한 이야기는 없다 – 신민기 AI 개발자

장슬기 미디어오늘 기자 / 사진 박상환 작가 / 영상 김서인 미디어홍보팀 활동가

신민기 AI 개발자, 데이터 연구자 ⓒ박상환

새 정부 대통령실은 AI미래기획수석비서관 자리를 신설하고 이재명 대통령의 1호 공약인 AI 3대 강국을 실현하겠다는 목표를 내걸었다. ‘AI 패권 전쟁’이란 말이 나올 만큼 국제적으로 AI 기술 개발 경쟁이 치열한데 윤석열 정부에서 R&D 투자가 주춤하면서 3년간 뒤처졌기에 새 정부에서 이를 따라잡아야 한다는 주장이다.

‘소버린Sovereign AI’, AI를 미래 산업의 핵심 인프라로 보고 한국 데이터와 언어를 기반으로 AI 개발·운영을 국가가 주도하겠다는 취지다. 이 대통령은 “‘챗지피티가 있는데 왜 소버린AI를 개발하느냐’는 얘기는 ‘베트남에서 쌀이 많이 생산되는데 사 먹지 왜 한국에서 농사를 짓느냐’는 주장과 같다”고 말했다. 식량안보처럼 ‘한국형 AI’는 필수 국가 과제가 된 것이다.

대통령실 초대 AI수석에는 하정우 네이버클라우드 AI혁신센터장이 임명됐다. 그는 네이버의 거대 언어 모델LLM, Large Language Model ‘하이퍼클로바X’ 개발을 주도한 인사로 한국의 소버린 AI를 이끌 실무형 전문가란 평가를 받는다. 이번 정부가 AI 지원에 강한 의지가 있다는 것은 확인됐다. 다만 AI를 개발하면서 발생하는 여러 부작용에 대해 얼마나 신경 쓰고 있는지는 의문이다.

작가 장강명은 르포르타주 저서 《먼저 온 미래》에서 과학기술 진보에 대해 비판적 시선을 보내는 것 자체가 얼마나 어려운 일인지 다루고 있다. ‘먼저 온 미래’ 첫 부분에는 언론인 출신 작가 조지 오웰의 1930년대 저서 《위건 부두로 가는 길》의 일부가 인용돼 있다.

“우리는 기계와 과학의 시대에 살고 있기에 무슨 일이 있어도 ‘진보’는 지속돼야 하고, 지식은 절대로 억제돼선 안 된다는 관념에 감염돼 있다. 우리는 말로는 기계가 사람을 위해 만들어졌지 사람이 기계를 위해 만들어진 건 아니라고 한다. 하지만 실제로는 기계의 발달을 제어하려는 시도는 지식에 대한 공격이며 곧 일종의 불경으로 간주되는 것 같다.”

앞선 기술 발전이 그러했듯, 기술 진보의 과실은 고루 분배되지 않는다. AI로 인해 불안정 노동과 실업이 증가하고 차별과 혐오의 확산이 우려된다. 기후위기 시대, 에너지 과잉 소비의 주범이기도 하다. 이에 더해 AI가 인간관계를 변화시키고 사용자들의 심리·감정 상태까지 휘젓고 있다. 어쩌면 AI 진흥의 조급함이 이 모든 논의를 우회하는지도 모른다. AI 개발의 필요성을 인정하더라도 AI의 각종 부작용에 대해서는 ‘불경’하더라도 실컷 떠들어야 한다.

신민기 AI 개발자이자 데이터 연구자는 카이스트에서 AI 시대에 사회적 약자도 차별받지 않는 시스템을 만들기 위해 연구했다. 21대 대선 당시엔 권영국 민주노동당 후보 선거대책위원회 부대변인을 맡으며 권 후보의 AI 규제 공약 초안을 작성하기도 했다. 그는 지난해 2월 카이스트 졸업식에서 R&D 예산 삭감에 항의하다 ‘입틀막’ 당하며 끌려 나간 석사 졸업생으로도 잘 알려졌다. 여러모로 ‘불경한’ 이야기를 멈추지 않는 그를 만났다.

MBC 스트레이트 8월 17일 자 보도를 보면 당시 김용현 국방부 장관 후보자 인사청문회 준비단에 방첩사 간부가 파견됐고 거기서 본인을 ‘문제 성향자’로 규정했던 사실이 나온다. ‘민간인 사찰’이란 지적도 있는데 ‘입틀막’ 사건 이후로 느낀 위협은 무엇이 있나?

‘문제 성향자’이자 ‘경호 위해 요소’라는 표현이 충격이었다. 내가 몰랐을 뿐이지 윤석열 정부가 뒤에서도 압박한 게 많았다는 걸 알게 됐다. 졸업식에서 끌려나가 수사 대상이 됐지만 다행히 무혐의 처분을 받았다. 반면 동문들이 경호처를 고발했는데 경찰·검찰이 죄가 되지 않는다는 결론을 내려 심리적 부담이 됐다. 이후 알게 모르게 내가 많이 위축됐다는 걸 느꼈다. 당시엔 혹시 모를 정치적 부담 때문에 다시 연구실로 돌아간다는 걸 상상하기도 어려웠다.

R&D 예산 삭감에 항의하기 위해 시위를 했다. 최근 R&D 예산이 복원됐다고는 하지만 실상은 그렇지 않다는 지적도 있다.

올해 예산을 예년 수준으로 증액했지만 기존에 삭감했던 예산을 돌려놓은 게 아니라 새로운 부분에서 늘렸다. 연구자들이 체감하는 문제는 기초연구 예산이 삭감된 것이다. 이는 과학기술계뿐 아니라 다른 분야도 마찬가지다. 대신 글로벌 R&D 예산이 증액됐는데 이 분야는 해외와 협력하기 위해 상대국의 규정도 살펴야 하고, 연구책임자에게 알맞은 권한을 주고 감시하는 체계도 필요하다. 이런 사안들이 제대로 논의되지 못한 채 예산만 늘었다.1

2025.08.26. 2026 정부 예산안 확대 요구 기자회견에서 발언하고 있는 모습. ⓒ참여연대

지난 대선에서 권영국 후보 AI 규제 공약을 준비했다. 이 공약에서 가장 강조하고 싶었던 부분이 있다면 어디일까?

‘범시민 인공지능 공론화 위원회’ 설치 공약이다. 시민들이 함께하는 민주적인 컨트롤타워를 설치하자는 내용이다. 이게 가장 필요하다. AI 기술을 얼마나 발전시키고 감시해야 하는지 정확한 답을 내리지 못하는 상황에서 결정권을 대통령과 정부만 가지고 가선 안 된다. 기술이 너무 빠르게 발전하기 때문에 정부가 정책을 세우고 실행한 뒤 선거로 평가받는 프로세스만으로는 제대로 평가하기 어렵다.

최근 시사인의 인공지능 컨퍼런스에 강연자로 나섰다. ‘인공지능의 사회적 영향, 그리고 인간의 제어’라는 주제로 강연을 했는데, 비슷한 내용인가?

AI가 끼칠 수 있는 부정적 영향을 지적했고 민주적 통제가 필요하다고 발표했다. AI를 고도화하는 데 사람들의 개인정보부터 예술가·창작자의 작품까지 무분별하게 사용되는데, 당사자들은 알지도 못한다. 더욱이 결과물은 기업의 수익으로만 이어진다. 그 외에도 AI가 노동을 대체하는 문제, AI로 새로 생기는 플랫폼 노동, AI를 뒷받침하는 데이터센터로 인해 발생하는 수자원 고갈, 환경파괴 등 기후위기 문제까지 고민해야 한다. AI의 긍정적 활용 방안을 함께 고민하고, 그 결과물을 시민들의 복지와 행복을 위해 쓸 수 있어야 한다. 이를 위해서는 시민들이 참여하는 AI 정책이 필요하다.

2022년 이준석 당시 국민의힘 대표의 전국장애인차별철폐연대 혐오 발언 이후 온라인 커뮤니티에 혐오표현이 급증했다는 분석을 담은 데이터를 트위터에 올려 화제가 됐다.

이준석은 ‘나는 혐오표현을 한적 없다’고 하는데 지지자들 사이에 혐오를 퍼트렸다면 책임이 있다는 게 명확하지 않나. 그걸 실증적으로 보여줘야겠다고 생각했다. 에펨코리아에서 전장연 관련 댓글을 수집해 한국어 혐오표현 댓글 분류 AI를 활용해 이준석 발언 이후 혐오 발언이 늘었다는 것을 입증했다. 더 주목할 건 장애인 혐오표현이 증가하면서 여성 혐오표현이 함께 늘어나는 것이었다. 이런 데이터를 현장에서는 이미 체감하고 있더라. 박경석 전장연 대표는 ʻ이준석이 시민을 볼모로 잡는다는 발언을 한 이후 지하철에서 마주친 시민들이 같은 말을 했다’고 말하기도 했다.

혐오 문제에 관심을 갖게 된 계기는? 혐오정치에 대한 고민도 깊을 것 같다.

AI를 연구하면서 혐오표현에 관심을 갖게 된 계기는 ‘이루다 사태’였다. 당연히 여성·성소수자가 혐오의 대상이 되는 것이 부당하다고 생각했다. 혐오정치에 대해 세 가지를 고민해 봤다. 우선 테러 위협이나 혐오범죄, 사이버 불링과 같이 당면한 폭력에 엄정하게 대응해야 한다. 사회에 공포가 퍼지면 누군가의 철권통치밖에 해결책이 없다고 여기게 되는데 이는 민주주의와 자유를 위협한다. 둘째는 극우 담론을 재생산하는 단체나 조직을 조사하고 어떻게 저지할지 고민해야 한다. 리박스쿨이 소수자 혐오 담론으로 조직을 끌어모으지 않았나. 끝으로 정치가 더 아래를 향해야 한다고 제안하고 싶다. 정치가 사람들 문제를 해결한다는 확신을 주지 않으면 극단적 해결책을 찾게 될 거다.

참여사회와 인터뷰 하고 있는 모습 ⓒ박상환

혐오는 이미 산업이 됐고, 12.3 내란사태와 대선을 겪으며 혐오정치 세력이 가시화됐다. 해결이 될까 싶다. ‘이루다 사태’도 재발하지 않을까?

기술적인 대응책은 분명 있다. 더 어려운 문제는 챗봇을 성적대상화하는 등의 이용자들의 행태다. 일례로 연애 대상처럼 역할극을 해주는 서비스가 늘고 있다. 일론머스크가 만든 xAI가 ‘연애’ 기능이 있는 여성 AI챗봇을 기획했다. AI를 대하는 방식이 실제 인간관계까지 바꿔놓지 않을까 우려된다. 이용자들이 챗봇과 대화하면서 지나치게 이에 의존하게 되고 AI를 대하듯 인간을 대하게 될 수 있다.

이런 문제도 해결책이 있나?

EU의 AI 규제법에선 사람의 감정을 조종하는 AI 개발을 금지하고 있다. 만약 그런 기술을 개발하게 되더라도 유럽에선 서비스할 수 없도록 하고 있다. 관련 내용을 조사하는 위원회도 있다. 한국도 전문성을 가진 기관이 필요하다.

시민단체도 AI 활용에 대한 고민이 커지고 있다. 안 쓸 수도 없고, 무턱대고 사용할 수도 없는데 한마디 해준다면?

기본적으로 나도 AI 활용을 반대하지 않는다. 하지만 한계와 문제를 인지하고 적절한 활용 방안을 고민해야 한다. 예를 들어 기존에는 다수에게 의견을 들을 땐 객관식으로 취합해야 했는데 AI를 활용하면 주관식으로 구체적인 의견을 들어 종합할 수 있다. 보통 시민단체도 회원들에게 정보를 일방적으로 제공할 수밖에 없다. 모든 활동가가 대기하며 시민들을 상담할 수 없지 않나. 어떻게든 취합을 한다고 해도 그렇게 많은 정보를 정리하는 것도 쉽지 않다. AI를 활용해 쌍방향 소통 가능성을 높일 수 있을 것 같다. 또한 시민단체에서 AI 리터러시, 문해력을 포함해 AI 활용 능력까지 보급할 필요도 있다.

AI 활용 격차도 커질 것 같다. 대안이 있을까?

AI 정책 결정은 극소수 관계자들과 기업들이 진행한다. AI가 만든 격차를 해소하기 위해서 AI 리터러시가 필요하다. AI 결과물과 영향에 대해 비판적으로 사고할 수 있는 능력을 한국 사회가 권장하는 방향으로 가야 한다. 디지털 문해력을 오랫동안 지적했다고 해서 디지털 취약 계층이 없어지지 않았다. AI 리터러시 교육에 더해 AI로 인한 실업에 대해 직업 전환을 재설계하거나 재취업 기간 동안 지원을 할 필요가 있다. 사회적 안전망을 확충해야 한다.

AI에 여전히 관심 없는 사람들이 많다. 잘 모른 채로 살아도 될까?

포모FOMO, fear of missing out라는 표현도 있다. 발전하는 AI 기술에 못 따라가고 혼자 남겨진 느낌을 나타내는 말이다. 어쩌면 이번 정부에서 최초 반AI집회가 열릴 수 있다는 생각도 든다. 해외에선 이미 있었다. 할리우드에서 작가노조가 AI 사용에 대해 규제하고 작가 수입을 보장하라며 파업을 했고 관철이 됐다. 콜센터에선 AI가 처리하고 남은 자투리 노동을 사람이 하면서 노동 강도가 올라가는 문제도 있다. 본사에서 AI를 도입하면서 영향을 받는 하청업체 노동자들은 목소리를 내기 어렵기도 하다. AI 문제를 기업 경영에만 맡겨선 안 되고 노동자뿐 아니라 해당 서비스를 이용하는 사람들의 목소리를 담아낼 제도가 필요하다.

우리 사회에서 앞으로 AI 기술을 어떻게 규제하고 다룰지에 대한 깊은 고민이 필요한 시점이다. AI 기술을 대하는 태도에서 한국 사회가 인간을 어떻게 대하고 있는지까지 비춰볼 수 있다. 우리가 나아갈 방향을 미리 가늠할 수 있는 기회가 될 수 있지 않을까 생각한다.

앞으로의 계획이 궁금하다.

일단은 ‘입틀막’ 사건 관련해서 수사 과정은 다 마무리가 됐지만 여전히 일상이 회복되지 못한 측면이 있다. 그래서 내 일상을 회복하는 게 우선이라고 생각한다. 하지만 지금 하고 있는 AI와 관련된 활동이나 진보 정치 활동가로서의 역할도 계속하고 싶다. 또 지금까지 과학 기술을 공부하는 영역에 있었기 때문에 그 공부도 놓지 않을 예정이다.

  1. 인터뷰는 2025년 8월 20일에 진행되었습니다. ↩︎

정부지원금 0%, 회원의 회비로 운영됩니다

참여연대 후원/회원가입


참여연대 NOW

더 많은 채널로 소통합니다. 지금 팔로우하세요!