[이슈] AI가 모든 걸 집어삼킬 거라는 예언에 저항하기
글 ‘어쪈’ AI 윤리 레터

AI 열풍을 유지하기 위한 노력, AI 하이프
오픈AI의 CEO 샘 올트먼Sam Altman은 지난 8월에 발표된 새로운 AI 모델 GPT-5 공개를 앞두고 꽤나 긴 기간동안 바람을 불어넣는 예고를 해왔다. 6월에는 개인 블로그에 인류가 초지능superintelligence 개발에 가까워졌다고 쓰는가 하면, 7월에는 팟캐스트에 출연해서 GPT-5를 사용하며 본인이 쓸모없다고 느껴졌다며 AI 기술 개발을 맨해튼 프로젝트에 빗대기도 했다. 출시 전날에는 GPT-5가 모든 영역에서 박사 수준의 전문가라고 치켜세웠다.
주간 활성 사용자 수가 7억명에 달하는 챗GPT에 GPT-5가 적용된 후 사용자들의 평가는 크게 갈렸다. 누군가는 확실한 성능 향상을 경험했지만, 또 다른 누군가는 기존 모델과 큰 차이가 없거나 오히려 별로라며 불만을 표했다. 어느 쪽도 최소한 올트먼의 설레발과는 거리가 멀었다. 오히려 그는 배포 과정에 문제가 있었다며 사과하고 수습하기 급급했는데, 각종 오류를 바로잡은 현 시점에도 GPT-5를 두고 초지능에 가깝다고 하거나 핵무기에 준하는 파급력 또는 박사학위의 무용함을 주장하는 사람은 없다.
사실 올트먼이 유별난 건 아니다. 일론 머스크Elon Musk 역시 오픈AI에 대항하기 위해 세운 회사 xAI의 새로운 모델 Grok 4를 발표한 지난 7월 최신 모델이 모든 분야에서 박사보다 낫다고 내세운 바 있다. 꼭 AI 모델의 성능에 대한 다소 과장된 평가가 아니더라도 AI를 혁명적 기술로 칭하며 세상을 뒤집을 것이라고 호들갑을 떠는 경우도 많다. 작년 기사 작위와 노벨상을 수여받은 구글 딥마인드 수장 데미스 허사비스Demis Hassabis는 최근 언론 인터뷰에서 AI로 인한 변화가 산업혁명의 10배 크기와 속도로 다가올 것이라고 단언했다.1 전부 AI 하이프hype에 해당한다.
하이프라는 단어에는 사전의 ‘과장 광고 및 선전’이라고만 번역하기엔 보다 광범위한 의미가 담겨 있다. 지금의 생성형 AI를 둘러싼 열풍과 같은 굉장한 수준의 사회적 관심, 또 그에 대한 큰 기대를 뜻하기도 한다. 모든 신기술은 하이프를 수반한다. 대부분의 기술이 이미 개발 초기 단계에 주목도 측면에서 정점을 찍은 후 오히려 성숙해지는 과정에서 환멸기를 거치며 관심이 덜해진다는 경험을 바탕으로 만들어진 가트너의 하이프 사이클이라는 시각화 도구가 있을 정도다. 특히 AI 기술의 역사는 곧 하이프의 역사이기도 했다. 두번의 AI 겨울을 겪은 연구자들은 지금의 AI 하이프를 경계하기도 하지만, 앞서 언급한 AI 기업 대표를 비롯한 많은 사람은 이번만큼은 다르다고 생각하는 것 같다.
두 종류의 AI 하이프와 그 문제점
현재 우리 사회를 휩쓸고 있는 AI 하이프는 크게 두 가지 형태로 나타난다. 하나는 AI를 기술이 아니라 곧 자율적 행위자를 넘어 인류를 압도할 초지능으로 그리는 담론이다. 다른 하나는 AI를 무엇이든 더 싸고, 더 빠르게 만들어주는 만능 자동화 기술로 칭하는 서사다. 전자는 AI를 인간 사회 바깥의 타자로 밀어내며 공포와 경외를 자극하고, 후자는 AI를 마치 산업 전반의 생산성과 효율성 문제를 단번에 해결해낼 새 기계처럼 제시한다. 두 종류의 AI 하이프는 각각 AI를 새로운 종種으로 인식하거나 기술적 해법으로 채택한다는 점에서 겉으론 상반돼 보이나, 실제로는 모두 AI 예외주의에 기대어 AI에 모든 사회의 관심과 자원을 쏟아붓도록 만든다는 공통점이 있다.
첫번째 AI 하이프에 해당하는 초지능 담론은 어쩌면 인공지능이라고 기술을 명명한 것에서 출발한 것일지도 모르겠다. 실제로 인간의 지적 능력에 빗대어 용어를 정의한 덕분에 우리는 AI라는 개념을 보다 직관적으로 이해할 수 있고, 의인화를 기본 탑재한 챗GPT를 비롯한 각종 AI 서비스를 이용하는 데에 거리낌이 없다. 하지만 이는 AI가 작동하는 원리나 실제 사회적 파급효과를 파악하는 데는 오히려 방해가 될 수 있다. 특히 지능을 단순히 ‘똑똑한 정도’로 이해하고 지적 능력과 환경 제어 역량을 구별하지 않는 관점에서는 쥐-침팬지-동네 바보-아인슈타인-초지능으로 이어지는 단선적 스펙트럼만 보일 뿐이다. 인간이 다른 동물을 지배(한다고 착각)하듯, 초지능이 인류를 지배하는 디스토피아를 떠올리기 쉽다. 오래전부터 AI 하이프 타파에 앞장서온 책 〈AI Snake OilAI 가짜약〉의 저자 아르빈드 나라야난Arvind Narayanan과 사야쉬 카푸어Sayash Kapoor는 해당 논리에 반기를 든다. 이들에 따르면 인류의 발전은 전보다 더 뛰어난 지능이 아닌 문명으로 쌓아올린 문화와 기술이라는 환경을 제어할 수 있는 역량이 있었기에 가능했다. 초지능이 인간보다 똑똑할지언정 이와 같은 통제력을 확보하지 못하는 이상 터미네이터의 스카이넷이 현실화되진 않을 것이다. 물론 우리가 기꺼이 위임하지 않는다면 말이다.
초지능 담론은 그 실현 가능성보다 AI 개발과 활용에 있어 책임의 주체가 사라진다는 점에서 위험하다. 아예 개발과 활용을 멈추지 않는 이상 AI는 계속해서 발전하여 초지능이 도래할 것이기에 우리는 이 불가피한 진보를 받아들일 수 밖에 없다. 이는 곧 현대 사회에서 AI를 가장 주도적으로 활발하게 개발하는 기업들이 도덕적 책임으로부터 자유로워질 수 있음을 의미하기도 한다. 초지능을 향해 발전하는 AI는 이미 인간의 통제를 벗어나 자체적으로 진화하는 존재이므로, 기업 역시 AI를 통제하지 못한다는 논리가 성립한다. 하지만 실상 기업들은 작게는 이용자 편익에서 크게는 인류 번영으로 포장된 기업 이익을 위해 주체적으로 AI를 개발하고 있다. AI의 편향과 차별, 프라이버시와 저작권 침해, 노동 불안정성, 기후위기 등 적극적으로 논의되어야 할 사안들로부터 기업의 책임을 경감시키는 것이다. 오히려 초지능 담론 속의 기업은 자신을 AI가 야기하고 있는 문제들을 해결할 영웅으로 자청하기까지 한다.
두번째 AI 하이프는 AI로 전 영역에서 자동화를 실현할 수 있다면 개인은 무한한 자유를 얻으면서도 사회는 지속적으로 성장할 수 있다고 설파한다. 실제로 AI를 개발하고 활용한다고 할 때, 그 최종 목적은 결국 무언가를 자동화하는 것에 있음을 알 수 있다. AI를 정의하는 방법으로 여러가지가 있을 수 있겠으나, 자동화를 위한 모든 기술을 AI라고 불러도 크게 틀리지 않을 것이다. 자동화를 위해 개발하던 다른 이름의 기술을 AI를 포함하여 새롭게 명명하는 것만으로도 큰 관심과 함께 투자 유치에 성공하는 경우가 빈번하게 일어난다. 예컨대 10년 전 유행하던 키워드인 RPARobotic Process Automation, 로봇 프로세스 자동화를 표방하던 회사들은 이제 전부 AI 에이전트를 내세우는 식이다. 에밀리 벤더Emily Bender와 알렉스 해나Alex Hanna는 이러한 현상을 두고 가짜 약이라는 비유를 넘어 명백한 사기라고 주장한다.2
하지만 자동화를 통해 달성하고자 하는 더 높은 효율성과 생산성이라는 가치가 과연 다른 사회적 가치들을 희생하면서까지 추구해야 할 정도로 중요한 것인가? 수많은 AI 서비스가 내가 당장 하기 귀찮은 일을 대신해주겠다고 유혹하지만, 대체되는 것은 그 뿐만이 아니다. 숙련이나 돌봄, 책무성 등 일에 담긴 다양한 사회적 가치를 전부 뭉뚱그려 비용 항목으로 밀어 넣어 효율이라는 단어 뒤로 사라진다. AI로 인한 일자리 감소 우려가 현실로 다가오고 있고, AI 학습을 위해 데이터 수집·정제·라벨링을 수행하는 노동과 막대한 전력 공급을 위해 들어가는 환경 비용은 AI 개발과 활용에 있어 고려가 필요한 요소에서 자꾸만 누락되고 있다. 학습 과정은 숨긴 채 인간의 작업 결과물을 자동으로 생성하여 야기하는 저작권 침해 문제나, 딥페이크나 AI 살상 무기처럼 윤리적 논란이 불가피한 행위를 자동화하는 것은 어떠한가? 피해 범위는 크게 키우면서도 책임 소지는 더욱 불분명해질 뿐이다. 자동화를 향한 AI 하이프가 감추는 이면에는 이러한 문제들이 있다.
중요한 건 AI 하이프가 가리키는 미래가 아닌 현재, 바로 여기
그렇다고 AI 하이프를 단순히 허상으로 치부할 수만은 없다. AI는 실제로 작동하며, 다소 과장된 홍보 문구 속에도 분명 사실이 섞여있다. 오히려 피그말리온 효과처럼 AI 하이프라는 사회기술적 상상은 자기실현적 예언으로 작용하기에 결코 무시할 수 없다. 메타의 CEO 마크 저커버그Mark Zuckerberg가 개인용 초지능을 개발하겠다고 선언하는 등 많은 기업이 초지능 달성을 목표로 경주에 나서고 있다. 마찬가지로 AI 기술로 우리의 업무를 돕는다는 의미로 쓰이던 어시스턴트, 코파일럿 등의 이름 대신 적극적으로 대신해주는 에이전트라는 개념이 업계 표준이 되어가고 있다. 이러한 점에서 AI 하이프는 지독한 현실이기도 하다.
하지만 AI 하이프는 실제 AI의 문제들을 제대로 보지 못하게 한다는 점에서 분명한 해악을 끼치고 있다. 초지능의 도래나 완벽한 자동화라는 극단적 시나리오에 매몰되어 있을 때, 우리는 정작 지금 당장 해결해야 할 문제들을 놓치게 된다. AI 시스템이 어떻게 개발되고 있는지, 누구의 데이터를 어떤 방식으로 수집하고 있는지, 어떤 노동 조건 하에서 모델이 훈련되고 있는지, 이 기술이 기존의 불평등을 어떻게 확대재생산하고 있는지와 같은 구체적이고 실질적인 문제들 말이다. AI 하이프는 우리의 관심을 먼 미래의 가정적 위험으로 돌려놓음으로써, 현재 진행 중인 구조적 문제들에 대한 대응을 지연시킨다.
AI 하이프가 AI라는 기술을 개발하고 활용함에 있어 필요한 가치 판단을 흐리는 와중에 우리가 중심을 잡기 위해서는 AI도 결국 다른 기술과 다르지 않다는 관점이 필요하다. 하지만 동시에 AI가 작동하는 사회기술시스템 전체를 조망해야 한다. AI가 어떤 사회적 맥락에서, 어떤 권력관계 속에서, 어떤 가치를 위해 설계되고 운영되는지를 묻고 따져야 한다.
사실 AI는 박근혜 정부의 창조경제라는 기획 아래 지능정보라는 이름으로, 문재인 정부의 혁신성장이라는 전략의 핵심 키워드 4차 산업혁명의 주요 기술 분야로 자리잡고 있었다. 마치 최근 몇 년 새 관심이 집중된 것 같지만, 실상 우리는 10년간 항상 AI와 함께해온 것이다. 그렇다면 역설적으로 중요한 건 AI 그 자체가 아니라는 의미다. 이재명 정부의 AI 기본사회가 또다른 AI 하이프가 아니라 정말 기본사회를 위한 AI를 그리는 청사진이 되기를 바라본다.
- Rose, S. (2025, August 4). Demis Hassabis on our AI future: ‘It’ll be 10 times bigger than the Industrial Revolution – and maybe 10 times faster’. The Guardian. ↩︎
- Bender, E. M., & Hanna, A. (2025). The AI Con: How to fight big tech’s hype and create the future we want. Random House. ↩︎
정부지원금 0%, 회원의 회비로 운영됩니다
참여연대 후원/회원가입