인공지능(AI) 기업 OpenAI의 샘 알트만 최고경영자(CEO)가 자신의 블로그를 통해 인공일반지능(AGI) 개발 방법을 확보했다고 밝히는 동시에 ‘슈퍼인텔리전스’ 개발에 도전하겠다고 선언했다.
“우리는 지금의 제품들도 자랑스럽지만, 우리가 진정으로 추구하는 것은 더 찬란한 미래입니다.” 알트만은 이어 “슈퍼인텔리전스가 구현되면 과학적 발견과 혁신이 획기적으로 가속화될 것이며, 이는 인류의 번영으로 이어질 것”이라고 전망했다.
앞서 그는 슈퍼인텔리전스가 “수천 일” 안에 등장할 수 있다고 예측한 바 있다. 그 파급력 역시 “대부분의 사람들이 생각하는 것보다 더 강력할 것”이라고 강조했다.
AGI는 아직 명확한 정의가 확립되지 않은 개념이다. OpenAI는 이를 “대부분의 경제적 가치 있는 일에서 인간의 능력을 뛰어넘는 자율 시스템”으로 정의한다. 한편 OpenAI의 주요 투자자인 마이크로소프트는 “최소 1,000억 달러의 수익을 창출할 수 있는 AI 시스템”이라는 실용적 기준을 제시했다. 계약에 따르면 OpenAI가 이 수준에 도달하면 마이크로소프트는 해당 기술에 대한 접근 권한을 잃게 된다.
알트만은 올해를 기점으로 AI 에이전트가 실질적인 노동력으로 자리 잡으면서 기업의 생산성이 크게 변화할 것으로 내다봤다. “훌륭한 도구를 사람들의 손에 쥐어주면, 그 혜택이 사회 전반에 골고루 퍼질 것”이라는 게 그의 설명이다.
하지만 현재의 AI 기술은 여전히 한계가 뚜렷하다. 잘못된 정보를 생성하는 환각 현상이 발생하고, 인간이 쉽게 발견할 수 있는 실수를 저지르며, 운영 비용도 만만치 않다. 알트만은 이런 문제들이 곧 해결될 것이라고 낙관하고 있지만, AI 기술의 발전 속도는 예상과 다르게 움직일 때가 많았다.
특히 우려되는 것은 안전성 문제다. OpenAI는 작년 7월 “슈퍼인텔리전스를 통제하거나 잘못된 방향으로 나아가는 것을 막을 해결책을 아직 찾지 못했다”고 밝힌 바 있다. “인간의 능력으로는 자신보다 훨씬 뛰어난 AI를 제대로 감독하기 어려울 것”이라는 경고도 덧붙였다.
더욱 눈길을 끄는 것은 이런 우려 표명 이후 회사의 행보다. OpenAI는 AI 안전성 연구팀을 해체했고, 주요 연구원들의 이탈이 이어졌다. 떠난 연구진들은 회사가 지나치게 상업적 이익을 추구한다고 지적했다. 현재 OpenAI는 외부 투자 유치를 위한 구조조정을 진행 중이다.
최근 안전성 우려에 대해 질문받은 알트만은 “우리의 실적을 보면 알 수 있을 것”이라며 짧게 답했다.
AI 기술의 발전은 인류에게 전례 없는 기회를 제공할 수 있다. 하지만 동시에 제어할 수 없는 위험을 초래할 수도 있다. OpenAI의 이번 발표는 우리가 이 두 가능성 사이에서 어떤 균형점을 찾아야 할지 다시 한번 생각하게 만든다.
Leave a Comment