미국방부 인공지능(AI) 사용 원칙 공식발표

오늘은 AI 인공지능에 관한 이야기를 공유하고자 합니다.

미국방부가 올(2020년) 2월24일 인공지능(AI) 사용에 관한 원칙을 공식적으로 발표했습니다.

마크 에스퍼 국방장관은 지난 해 10월 국방혁신위원회Defense Innovation Board가 권고한 윤리규범을 공식 채택 했다고 발표했습니다 

본격적인 군사목적 인공지능 도입 전조

미국방부
미 국방부 로고

이 권고안은 산업, 정부, 학계 및 미국 대중 분야의 선도적인 AI 전문가들과 15개월 동안 협의한 내용을 검토후 채택 했다고 합니다.

5가지 원칙을 살펴보면,

  1. Responsible. DoD personnel will exercise appropriate levels of judgment and care, while remaining responsible for the development, deployment, and use of AI capabilities.
    책임성: AI 기능의 개발, 구축 및 사용에 대한 책임을 지는 동시에 적절한 수준의 판단과 관리를 수행할 것이다.
  2. Equitable. The Department will take deliberate steps to minimize unintended bias in AI capabilities.
    공정성: 그 부서는 AI 능력의 의도하지 않은 편견을 최소화하기 위한 신중한 조치를 취할 것이다.
  3. Traceable. The Department’s AI capabilities will be developed and deployed such that relevant personnel possess an appropriate understanding of the technology, development processes, and operational methods applicable to AI capabilities, including with transparent and auditable methodologies, data sources, and design procedure and documentation.
    추적가능성: 관련 인력은 다음을 포함하여 AI 기능에 적용할 수 있는 기술, 개발 프로세스, 운영 방법에 대한 적절한 이해를 보유할 수 있도록 부처 AI 역량을 개발·구축한다.
  4. Reliable. The Department’s AI capabilities will have explicit, well-defined uses, and the safety, security, and effectiveness of such capabilities will be subject to testing and assurance within those defined uses across their entire life-cycles.
    신뢰성: 그 부서의 AI 능력은 명확하고 명확한 용도를 가질 것이며, 그러한 능력의 안전, 보안 및 효율성은 전체 수명주기 동안 정의된 용도에 따라 시험과 보증을 받게 될 것이다.
  5. Governable. The Department will design and engineer AI capabilities to fulfill their intended functions while possessing the ability to detect and avoid unintended consequences, and the ability to disengage or deactivate deployed systems that demonstrate unintended behavior.
    관리감독: 부서는 의도하지 않은 결과를 탐지하고 회피할 수 있는 능력과 의도하지 않은 행동을 보이는 전개된 시스템을 해제하거나 비활성화할 수 있는 능력을 보유하면서, 의도하지 않은 기능을 수행하는 AI 능력을 설계하고 설계할 것이다.
추천:  더 강력해진 ChatGPT GPT-4 출시: 유료

미 국방부가 5가지 원칙을 공식 발표한것은 이런 원칙하에 더욱 인공지능 개발과 연구에 집중하겠다는 뜻이겠죠?
그런데 내용을 살펴보면 좀 모호한 표현들입니다.

관련정보를 찾아보니 미 국방부가 구글과 밀접한 관계더군요.
최고기술기업이니까 당연한것 같기도 하지만요.

구글대표였던 에릭 슈미트가 이 권고안을 만든 위원회 의장을 맡고 맡고 있습니다.
구글은 한때 국방부의 드론 프로젝트에 인공지능(AI) 기술을 제공했었는데요, 군사적 목적에 인공지능을 사용한다는 것에 대한 비판이 안팎으로 일자 2018년 국방부 프로젝트를 계약을 연장하지 않겠다고 발표하고 인공지능(AI) 원칙을 발표했었습니다. 7개의 원칙과 인공지능을 도입하지 않을 산업군 4개를 명시합니다.

그 내용을 살펴보면,

1. Be socially beneficial.
사회적으로 유익

2. Avoid creating or reinforcing unfair bias.
부당한 편견을 만들거나 강화하는것을 피한다

3. Be built and tested for safety.
안정성

4. Be accountable to people.
인간에 의한 통제

5. Incorporate privacy design principles.
사생활보호

6. Uphold high standards of scientific excellence.
높은 수준의 과학적인 우수성을 열망

7. Be made available for uses that accord with these principles.

이러한 원칙과 일치하는 용도로만 사용하고요

이와 더불어 아래 관련 분야에는 인공지능을 개발하지 않겠다고 했습니다. 

  1. Technologies that cause or are likely to cause overall harm. Where there is a material risk of harm, we will proceed only where we believe that the benefits substantially outweigh the risks, and will incorporate appropriate safety constraints.
    피해를 유발하거나 유발할 가능성이 높은 기술
  2. Weapons or other technologies whose principal purpose or implementation is to cause or directly facilitate injury to people.
    무기 또는 기타 기술
  3. Technologies that gather or use information for surveillance violating internationally accepted norms.
    국제적으로 인정된 규범을 위반하는 감시를 위해 정보를 수집하거나 사용하는 기술.
  4. Technologies whose purpose contravenes widely accepted principles of international law and human rights.
    국제법과 인권에 대해 널리 인정된 원칙을 위반하는 기술.
추천:  [고용노동부] 인재추천 인공지능(AI) 서비스 시작

어디까지 발전될지 모르는 기술이니 미리미리 원칙을 정해놓는것이 좋겠지요.

1984년도에 나온 터미네이터 영화가 불현듯 생각납니다.
인간과 기계의 전쟁중인 시대배경이 2029년

많은 암울한 SF영화에 나오는 기계와 인간의 전쟁의 시작이 이즈음이 되는 것일까요? 정말 그런일이 벌어질까요? 설마..했지만 요즘 상황에 비추어도,
영화가 미래를 예측하는 면이 워낙 뛰어나다 보니 그럴것이다..라는 쪽에 생각이 더 기웁니다. 이런 원칙을 만들고 노력하지만 어느순간, 어느 인간이나 집단의 이득이 극에 달할 경우에 말이죠.

SF소설 좋아하시나요?

좋아하신다면 아이작 아시모프의 로봇공학 삼원칙 아실것입니다.

로봇공학의 삼원칙(Three Laws of Robotics)은 미국의 작가 아이작 아시모프로봇에 관한 소설들 속에서 제안한 로봇의 작동 원리입니다.
1942년작 단편 Runaround에서 처음 언급했는데요.
“서기 2058년 제 56판 로봇공학의 안내서”에서 인용된 세 가지 원칙은 다음과 같습니다.

  1. 로봇은 인간에 해를 가하거나, 혹은 행동을 하지 않음으로써 인간에게 해가 가도록 해서는 안 된다.
  2. 로봇은 인간이 내리는 명령들에 복종해야만 하며, 단 이러한 명령들이 첫 번째 법칙에 위배될 때에는 예외로 한다.
  3. 로봇은 자신의 존재를 보호해야만 하며, 단 그러한 보호가 첫 번째와 두 번째 법칙에 위배될 때에는 예외로 한다.

심플하면서도 기본이 되는 개념인것 같습니다.
작가들은 현재에서 과거와 미래를 사는 사는 사람들 같습니다. 인공지능 어디까지 발전하고 어떻게 사용될지는 인간의 손에 달려있습니다.

Leave a Comment