AI 대부 힌턴 AI 안전 강조한 내 제자 올트먼 해고 잘했다

AI 대부 힌턴 AI 안전 강조한 내 제자 올트먼 해고 잘했다

AI 대부 힌턴 AI 안전 강조한 내 제자 올트먼 해고 잘했다

AI 대부 힌턴 AI 안전 강조한 내 제자 올트먼 해고 잘했다

2024노벨상 AI 신약 개발 한국 기업들도 뛴다

올해 노벨 물리학상을 받은 ‘인공지능(AI)의 대부’ 제프리 힌턴 캐나다 토론토대 교수는 9일

“나의 제자가 샘 올트먼 오픈AI 최고경영자(CEO)를 해고했다는 사실이 특별히 자랑스럽다”고 했다.

힌턴 교수가 언급한 제자는 오픈AI의 수석과학자이자 ‘AI 천재’로 불리던 일리야 수츠케버다.

‘안전한 AI 개발’을 추구하던 수츠케버는 지난해 11월 “회사가 설립 초기 철학과 다르게 상업적으로 변했다”며 올트먼 CEO 축출에 앞장섰지만,

올트먼이 닷새 만에 회사에 복귀하면서 오히려 오픈AI를 떠났다. 수츠케버는 지난 6월 ‘안전한 초지능(Safe Superintelligence)’이라는 이름의 새로운 회사를 설립했다.

힌턴 교수는 수츠케버를 치켜세우고 ‘AI 사업화’를 적극 추진하는 올트먼을 비판하면서 AI의 급격한 발전을 경고한 것이다.

올해 AI로 노벨상을 받은 과학자들은 역설적으로 AI에 대해 경계의 목소리를 내고 있다.

이들도 AI가 과학과 산업 발전의 패러다임을 바꾼 것은 인정한다.

우려하는 것은 속도다. 발전 속도가 너무 빨라 ‘통제 불능’이 될 수 있다는 것이다.

힌턴 교수는 노벨상을 받은 직후 “AI가 산업혁명에 비견될 것”이라면서도 “AI가 통제 불능 상태가 될 수 있는 위협에 대해 우려해야 한다”고 했다.

힌턴 교수는 2006년 심층 학습(딥 러닝) 개념을 창시한 ‘AI 개척자’로 꼽힌다.

그는 언론 인터뷰에서 “AI가 사람보다 똑똑해지는 데 30~50년 이상이 걸릴 것이라고 생각했지만 지금은 그렇게 생각하지 않는다”며

“AI 시스템이 사람 뇌보다 나은 경우도 있다”고 했다.

10여 년간 몸담았던 구글에서 지난해 4월 돌연 퇴사한 것도 이런 위험성을 알리기 위해서다.

힌턴 교수와 함께 노벨 물리학상을 받은 존 홉필드 프린스턴대 교수는 AI에 대한 불안감을 표했다.

그는 수상 소감에서 “물리학자로서 통제할 수 없고 한계를 파악할 수 없는 AI 기술 발전에 큰 불안감을 느낀다”며 “AI가 지금의 상상을 뛰어넘는 수준으로 발전할 것”이라고 했다.

홉필드 교수는 “AI가 세상의 모든 정보 흐름과 결합될 경우 알고리즘에 의해 통제되는 세상이 될 우려가 있다”며

“조지 오웰의 소설 ‘1984′에서 묘사한 통제 사회가 AI 발전에 의해 현실화될 수 있다”고 했다.

작동 원리를 제대로 이해하지 못한 채 AI가 계속 발전할 경우, 인류에게 큰 해를 끼칠 수도 있다는 경고다.

노벨 화학상을 받은 데미스 허사비스 구글 딥마인드 CEO 역시 AI의 위험성을 지속적으로 경고하고 있다.

그는 지난해 비영리단체 ‘AI 안전 센터’가 제안한 성명에 참여했다.

“AI로 인한 (인간) 멸종 위험을 줄이는 것은, 전염병이나 핵전쟁 같은 다른 사회적 규모의 위험과 함께 세계적인 우선순위로 다뤄져야 한다”는 게 성명의 내용이다.

지난 5월에는 구글 개발자 회의에서 “딥마인드의 사명은 ‘인류에게 도움이 되는 책임감 있는 AI 구축’”이라며 통제 가능한 AI를 강조했다.

AI 권력을 독점하고 있는 빅테크에 대한 규제가 필요하다는 경고도 나왔다.

힌턴 교수는 노벨위원회 인터뷰에서 “정부가 할 수 있는 방안은 빅테크가 AI 안전 연구에 더 많은 자원을 투자하도록 강제하는 것”이라며

“오픈AI 같은 회사가 안전 연구를 뒷전으로 미루지 않도록 해야 한다”고 했다.

Related Posts

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다