안전과 개인정보 보호에 대한 우려에 직면하고 최근 일부 유럽 국가에서 조사를 받은 후, OpenAI는 안전에 대한 회사의 개선된 접근 방식을 요약한 블로그 게시물을 발표했다.
OpenAI는 새로운 시스템을 출시하기 전에 엄격한 테스트를 수행하고, 외부 전문가에게 피드백을 구하며, 정부와 협력하여 AI 규제에 대한 최선의 접근 방식을 결정할 것을 약속한다.
이전에 이 회사는 최신 모델인 GPT-4를 공개하기 전에 6개월 이상 안전 및 조정 작업을 진행했다. 최신 언어 모델인 GPT-4의 안전성을 보장하기 위해 OpenAI는 50명 이상의 전문가로 구성된 팀을 고용했다: 연구원과 엔지니어를 포함한 AI 안전, 윤리, 정책 전문가로 구성된 팀이다.
“결정적으로, 우리는 사회가 점점 더 발전하는 AI에 업데이트하고 적응할 시간을 가져야 하며, 이 기술의 영향을 받는 모든 사람이 AI가 어떻게 발전할지에 대해 중요한 발언권을 가져야 한다고 믿는다.” OpenAI는 이렇게 말했다.
어린이 안전과 개인정보 보호에 대한 OpenAI의 초점
이탈리아는 13세 이상의 개인을 대상으로 설계되었음에도 불구하고 OpenAI가 사용자의 나이를 확인하지 않은 것을 그 이유 중 하나로 들며 ChatGPT를 금지했다. 이에 따라 OpenAI는 연령 확인 옵션을 구현하여 어린이를 보호하는 데 중점을 두고 있으며, 특히 18세 이상 또는 부모의 승인을 받은 13세 이상의 개인을 대상으로 하는 AI 도구인 만큼 연령 확인 옵션을 도입하는 방안을 모색하고 있다.
Facebook은 혐오, 괴롭힘, 폭력 또는 성인용 콘텐츠 생성을 엄격하게 금지하고 있으며, GPT-4는 이미 GPT-3.5에 비해 허용되지 않은 콘텐츠 요청에 응답할 가능성이 82% 낮다.
OpenAI는 남용을 모니터링하는 강력한 시스템을 구축했으며, 시간이 지남에 따라 더 많은 사람들이 GPT-4를 사용할 수 있기를 희망한다. 또한 비영리 단체인 칸 아카데미와 같은 개발자와 협력하여 맞춤형 안전 완화 기능을 개발하고 있으며, 모델 출력에 대해 더 엄격한 기준을 적용할 수 있는 기능을 개발 중이다.
개인 정보 보호 개선은 특히 최근의 데이터 유출 사건 이후 OpenAI가 집중하고 있는 또 다른 안전 측면이다. 이 AI 회사의 대규모 언어 모델은 공개 콘텐츠, 라이선스 콘텐츠, 인간 리뷰어가 생성한 콘텐츠 등 방대한 양의 텍스트로 학습되며, 데이터를 사용하여 사람들에게 더 유용한 AI 모델을 만든다.
OpenAI는 학습 데이터에서 개인 정보를 제거하고, 개인 정보 요청을 거부하도록 모델을 미세 조정하고, 요청 시 시스템에서 개인 정보를 삭제하는 등 개인의 개인 정보를 보호하기 위한 조치를 취하고 있다. 이를 통해 AI 모델이 개인 정보가 포함된 응답을 생성할 가능성을 줄인다.
AI 안전 문제를 해결하기 위한 OpenAI의 접근 방식은 효과적인 완화 및 조정 기술을 연구하고 실제 악용 사례에 대해 테스트하는 것이다. 또한 더 뛰어난 성능의 모델을 만들고 배포하는 데 더욱 신중을 기하고 안전 예방 조치를 강화할 것을 약속한다. 안전을 보장하기 위해서는 AI 개발 및 배포에 대한 효과적인 거버넌스가 필수적이며, 이를 위해서는 기술 및 제도적 혁신이 필요하다.