정신아 카카오 대표는 22일 이프카카오(ifkakao) 2024 컨퍼런스에서 이 같은 내용을 공개한 바 있다.
카카오 ASI(AI Safety Initiative)는 기술 설계부터 개발, 테스트, 배포, 모니터링 및 업데이트 등 AI 시스템의 전 생애주기에서 발생할 수 있는 리스크에 선제 대응이 가능한 것이 특징이다. AI와 인간이 초래할 수 있는 다양한 종류의 리스크를 폭넓게 관리하고 인간의 부주의나 실수로 발생할 수 있는 영역까지 관리 범위를 포괄적으로 정의했다.
카카오 ASI는 △카카오 AI 윤리 원칙 △리스크 관리 사이클 △AI 리스크 거버넌스로 구성된다. ‘AI 윤리 원칙’은 작년 3월 발표한 ‘카카오 그룹의 책임 있는 AI를 위한 가이드라인’을 기반으로 사회 윤리, 프라이버시, 이용자 보호 등의 원칙을 포함하며 개발자, 이용자를 대상으로 윤리적 가이드라인을 제공한다.
‘리스크 관리 사이클’은 리스크를 체계적으로 다루기 위한 접근법이다. 식별-평가-대응의 순환 단계로 구성되며 AI 시스템의 전체 수명주기에 걸쳐 반복적으로 적용된다. ‘리스크 거버넌스’는 AI 시스템의 개발, 배포, 사용 등을 관리하고 감독하는 의사 결정 체계를 의미한다. ASI거버넌스는 AI 세이프티, 전사 리스크 관리 전담 조직인 ERM 위원회, 최고 의사결정 기구의 3단계로 구성돼 있다.
김경훈 카카오 AI 세이프티 리더는 “AI 시스템 이용에 따른 리스크의 발생 주체를 AI와 인간으로 구분하고 발생 주체별 리스크 특성을 반영해 평가 및 대응방안을 마련했다는 점이 타사의 AI 리스크 관리 프레임워크와 차별화되는 점”이라고 밝혔다. 이어 “카카오 ASI는 5월 개최된 ‘AI 서울 서밋’에서 선언한 ‘서울 AI 기업 서약’을 위한 실천”이라며 “윤리 기준을 선도해 갈 수 있도록 노력할 것”이라고 덧붙였다.