오픈AI의 AGI 안전 대비 팀 해체: 기업과 세상의 미완성된 준비
2024년 10월 25일, AI 산업에 충격적인 소식이 전해졌다. 오픈AI에서 일반 인공지능(AGI) 안전을 준비하던 팀이 해체되고 리더가 회사를 떠났다. 이는 오픈AI 내부뿐 아니라, 전 세계가 AGI에 대해 아직 충분히 준비되지 않았다는 메시지를 강하게 전달한다. 이번 사건은 AI 연구의 방향성, 안전성, 그리고 기업 운영의 딜레마를 다시금 부각시켰다.
![]() |
오픈ai |
오픈AI의 AGI 준비 리더, 마일즈 브런디지의 퇴사
오픈AI의 AGI 준비 담당 수석 고문이었던 마일즈 브런디지는 10월 23일, 소셜 미디어 플랫폼 X(구 트위터)를 통해 회사를 떠난다는 소식을 전했다. 그는 “오픈AI 내에서 안전 연구에 대한 제약이 지나치게 심해졌다”며, 비영리 단체에서 연구를 이어나가겠다고 밝혔다. 브런디지는 오픈AI뿐만 아니라 어떤 회사도 AGI에 대해 준비가 되어 있지 않으며, 세상조차 준비되지 않았다고 경고했다.
“내 발언이 오픈AI 내에서도 논란이 되지 않을 것이라 생각한다. 현재의 현실을 직시하는 것은 미래 준비와 별개이며, 이는 단순한 사실일 뿐이다.”라고 덧붙였다.
반복되는 연구 리더들의 이탈과 비판
브런디지의 퇴사는 지난 5월 오픈AI를 떠나 앤트로픽(Anthropic)에 합류한 얀 라이케의 사례와 유사하다. 당시 라이케는 “몇 달 동안 충분한 컴퓨팅 자원을 지원받지 못했으며, 중요한 연구가 점점 더 어려워졌다”고 밝혔다. 그는 또한, “안전 문화와 프로세스는 빛나는 제품 개발 뒤로 밀려났다”고 비판했다.
브런디지는 지난 6년간 오픈AI의 AI 안전 이니셔티브를 이끌어왔으며, 그의 퇴사와 함께 AGI 준비 팀은 해체되었다. 이는 5월에 해체된 정렬 팀에 이어 두 번째 AGI 관련 안전 팀의 해체 사례다.
오픈AI의 대응: 새로운 안전 구조 마련
AGI 준비 팀 해체 이후 오픈AI는 새로운 안전 검토 위원회를 신설했다. 이 위원회는 AI 모델 출시에 앞서 안전을 평가하며, 독립적인 이사회 감독 조직으로 분리되었다. 오픈AI는 영리 기업으로의 전환을 통해 더 큰 산업적 목표를 추구하고 있으며, 이는 연구 리더들의 불만과도 연결되는 부분이다. 브런디지는 이러한 상황에서 독립적인 의견이 필요하다고 강조하며, 산업 편향과 이해 상충이 없는 연구 환경의 중요성을 역설했다.
오픈AI의 제안과 미래 방향성
브런디지는 퇴사 후에도 오픈AI가 자신에게 자금 지원, API 크레딧, 초기 모델 접근 권한을 제공하겠다고 제안했음을 밝혔다. 이는 오픈AI가 연구자들에게 자유로운 환경을 보장하려는 의지를 보여주지만, 현실적으로는 영리 기업 운영과 연구 자유 사이의 갈등이 존재함을 시사한다.
AI 연구의 안전성과 윤리적 방향성은 현재와 미래의 기술 발전에서 중요한 문제로 부각되고 있다. 브런디지의 퇴사와 팀 해체는 AI 개발이 단순한 기술적 성과를 넘어서, 사회적 책임과 윤리적 기준을 갖추어야 함을 일깨워준다. AGI이후 세상을 꿈꾸다. agitoK!
댓글 쓰기