|
로이터통신은 소식통을 인용해 큐스타 개발 이후 오픈AI 내 AI 연구진이 AI의 위험성을 지적하는 서한을 회사 이사회에 보냈고 이것이 올트먼이 오픈AI 최고경영자(CEO)에서 해임되는 도화선이 됐다고 22일(현지시간) 보도했다. 서한의 구체적인 내용은 알려지지 않았지만 그러잖아도 첨단 AI 개발 속도와 안전성을 두고 이견을 보인 것으로 알려진 올트먼과 이사회의 틈을 더 벌렸을 것으로 짐작할 수 있다.
오픈AI 이사회는 지난 17일 ‘솔직하지 않은 소통’을 이유로 올트먼을 CEO 자리에서 해임했다. 큐스타 관련 서한이 이사회에 전달된 지 나흘 만이었다. 이에 올트먼은 마이크로소프트(MS)로 이적하려 했으나 직원들의 지지 연판장 등을 통해 이날 오픈AI CEO로 복귀했다.
오픈AI 내에선 큐스타 개발을 계기로 올트먼이 추진하던 범용인공지능(AGI·인간 이상의 지능을 갖추고 모든 상황을 학습할 수 있는 AI) 개발에 한 단계 다가섰다고 평가하는 것으로 알려졌다. 특히 ‘특정 수학 문제’를 풀어내는 것을 보고 연구진은 큐스타의 잠재력을 높게 평가했다고 로이터는 전했다. 현재 생성형AI에 사용되는 대형언어모델(LLM)은 언어 학습을 통해 확률적으로 가장 가능성이 높은 대답을 내놓도록 훈련받았기 때문에 수학의 추상적 개념에 약하다. 이 같은 약점을 해결하면 AGI에 한 걸음 더 가까워질 것이란 평가가 나오는 이유다.
올트먼 CEO는 지난주 파이낸셜타임스 인터뷰에서 AGI를 개발, 안전하면서 유용하게 활용할 수 있는 방법을 마련하는 게 자신의 비전이라고 했다. 다만 다른 한편에서 AGI가 현실화하면 AI가 인간에게 끼칠 수 있는 잠재력 위험성도 더 커질 것이라고 우려하고 있다.