Anne Bowser, Andrew Carmona, Alie Fordyce
Woodrow Wilson Center
2021
과학기술-과학기술진흥, 공공질서및안전-안전관리
공공부문과 정책공동체 모두 인공지능(Artificial Intelligence, AI) 발전 과정에서 신뢰성을 담보하는 과제에 직면해 있다. 그리고 신뢰할 수 있는 AI를 위한 여러 기제 중 투명성이 거론된다. 그러나 투명성이 실제로 무엇인지, 실제에서 어떻게 투명성을 이룰 수 있는지는 명확하지 않다. 투명성을 확보하는 전략으로는 일반적으로 위험관리, 개방성, 설명 가능성, 평가 및 시험, 공개와 동의 등 다섯 가지가 있다. 각 전략은 그 자체로도 도움이 되지만, 투명성을 확보할 가능성을 극대화하기 위해서는 다양한 전략을 함께 사용하고 설명책임과 같은 제한요인을 함께 고려해야 한다. 이 보고서에서는 다양한 투명성 확보 방안과 제한 요인을 분석하고, 분석한 내용을 바탕으로 실제 상황에서 투명성이 작동하는 방식을 보여주는 두 가지 사례를 소개한 다음, 신뢰할 수 있고 윤리적인 AI 개발을 뒷받침할 수 있도록 의미 있는 투명성을 확보하는 방안을 고려할 때 던져야 할 중요한 질문을 소개한다.
https://www.wilsoncenter.org/publication/unpacking-transparency-support-ethical-ai
미국
Ministry of Economy, Trade and Industry(経済産業省)
한국전자통신연구원
과학기술정책연구원
과학기술정보통신부
행정안전부
국토교통부
선택한 정부기관 :
선택된 BRM :
정책정보포털(POINT)에서는 귀하의 개인정보를 중요시하며, 개인정보보호법에 따라 아래와 같이 동의를 얻고자 합니다.