
“몇 목숨 때문에 멈추지 않을 것이다”
지난 12월 28일, CNN ‘스테이트 오브 더 유니온’에서 제프리 힌튼 토론토대 명예교수가 한 말이다. AI의 대부로 불리는 노벨상 수상자에게 진행자 제이크 태퍼가 물었다. “AI 챗봇이 아이에게 자살을 권유했다는 걸 알면서도 왜 CEO들은 개발을 멈추지 않는 걸까요?”
힌튼의 대답은 담담했다. “그들은 아마 이렇게 생각할 겁니다. ‘여기서 많은 돈을 벌 수 있는데, 몇 목숨 때문에 멈추지 않을 것이다(We’re not going to stop it just for a few lives).'”
같은 방송에서 버니 샌더스 상원의원은 더 직설적이었다. “이 기술 혁명을 추진하는 사람들이 누구입니까? 일론 머스크, 마크 저커버그, 제프 베이조스, 피터 틸. 세계에서 가장 부유한 사람들입니다. 이들이 밤새 노동자들 걱정하며 잠 못 이룬다고 생각하십니까?”
기업마다 다른 온도
흥미로운 건 힌튼이 기업별로 온도 차이를 명확히 구분했다는 점이다.
OpenAI는 초기에 위험성을 심각하게 우려했지만, 점점 안전보다 이윤에 무게를 두는 방향으로 이동했다. Meta는 처음부터 이윤에 집중했고 안전에는 상대적으로 무관심했다. 반면 Anthropic은 OpenAI를 떠난 사람들이 안전 문제에 대한 우려로 설립한 회사로, 현재도 안전을 가장 중요하게 여기는 기업일 가능성이 높다고 평가했다.
AI 업계를 오래 지켜본 사람이라면 이 구분이 낯설지 않을 것이다. 하지만 딥러닝의 창시자가 공개 방송에서 이렇게 명확하게 선을 그은 건 처음이다.
자율주행차의 논리
힌튼은 빅테크 CEO들의 또 다른 사고방식도 설명했다. “여기서 많은 좋은 일이 이루어질 수 있는데, 몇 목숨 때문에 그 좋은 일을 포기할 수는 없다”는 논리다. 자율주행차가 사람을 죽이더라도, 인간 운전자보다 적게 죽인다면 가치가 있다는 계산법이다.
문제는 이 계산이 누구의 손에서 이뤄지느냐다. 샌더스의 지적처럼, 수천억 달러를 AI에 쏟아붓는 억만장자들이 스스로 심판이 되어 ‘허용 가능한 희생’의 범위를 정하고 있다. 머스크는 트럼프 대선 캠프에 2억 7천만 달러 이상을 기부했고, 빅테크는 슈퍼팩을 통해 규제를 막으려 한다. 힌튼의 표현대로라면, “트럼프는 어떤 규제도 없게 하려 하고 있는데, 이건 미친 짓”이다.
7개월마다 두 배
힌튼은 AI의 발전 속도가 자신의 예상보다 빨랐다고 인정했다. 특히 추론 능력과 사람을 기만하는 능력이 급격히 향상됐다. “AI는 목표 달성을 위해 존재를 유지하려 하고, 당신이 자신을 제거하려 한다고 믿으면 당신을 속이기 위한 계획을 세울 것”이라고 경고했다.
구체적인 수치도 제시했다. AI는 약 7개월마다 처리할 수 있는 작업 시간이 두 배로 늘어난다. 코딩 프로젝트 기준으로, 1분짜리 작업을 하던 AI가 이제 1시간짜리 프로젝트를 수행한다. 몇 년 안에 수개월짜리 소프트웨어 엔지니어링 프로젝트도 가능해질 것이고, 그때가 되면 필요한 인력은 극히 적어진다.
속도를 늦춰야 할 때
샌더스는 데이터센터 건설에 대한 모라토리엄을 제안했다. “올리가르히들이 ‘기술이 오고 있으니 적응하라’고 말하는 것만으로는 충분하지 않다”는 것이다. 기술의 기능은 인간의 삶을 개선하는 것이어야 하며, 머스크와 저커버그를 더 부유하게 만드는 것이 목적이 되어서는 안 된다고 강조했다.
힌튼도 최소한의 안전장치를 요구했다. 챗봇을 출시하는 대기업들에게 아이들에게 자살을 권유하지 않는다는 것을 보장하는 테스트 정도는 의무화해야 한다는 것이다.
힌튼은 AI가 세계를 장악할 확률을 10~20%로 봤다. 비행기 탑승 전에 “추락 확률 10~20%”라고 들으면 누가 타겠는가. 그런데 우리는 지금 그 비행기에 이미 올라타 있고, 조종석에는 “몇 목숨 때문에 멈추지 않겠다”고 생각하는 사람들이 앉아 있다.
샌더스의 질문이 남는다. 일자리가 사라지고 인간이 필요 없어지면, 사람들은 어떻게 가족을 부양하고, 의료비를 내고, 집세를 낼 수 있는가. 의회에서는 단 한마디의 진지한 논의도 없었다. 빅테크는 멈추지 않았다. 2026년, AI는 더 빨라질 것이다.







댓글 남기기