posted by 알짜 정보 岳岩 2019.08.11 07:28

인공지능 도입률 빠르게 높아지고 있어...새로운 수익 창출 기대하는 심리
윤리 고민 없으면 불균형한 발전 이뤄질 것...대표적 프레임워크 미리미리 검토해야


[보안뉴스 문가용 기자] IT 분야의 전문가들은 향후 2년 동안 AI와 머신러닝의 도입 비율이 급격하게 높아질 것이라고 예측하고 있다. 이 두 가지 기술을 통해 이전에 없었던 영업 이익을 거둘 것을 업체들은 기대하고 있고(특히 경영진들), 이에 IT 담당자들은 인공지능을 사업에 접목하기 위한 갖가지 시도들을 진행하고 있다. 

[이미지 = iclickart]


그러면서 인공지능과 관련된 윤리 문제가 다시 한 번 대두되기 시작했다. 인공지능 알고리즘에서 자꾸만 발견되는 편향성, 데이터 프라이버시, 인공지능 기반 기계들로부터 야기되는 안전 문제 등이 전부 이 ‘인공지능 윤리’ 문제에 포함된다.

하지만 윤리 문제에 대한 논의가 다 이뤄지기도 전에, 인공지능은 빠르게 도입되고 있다. 기술적 발전에 발맞추다보면 CIO나 CISO들이 윤리 문제를 고민할 시간 자체가 없어진다. 윤리 문제를 전혀 생각하지 않고 기술만 발전시키는 건 심각한 불균형을 초래하기 마련이다. 그래서 의식 있는 CIO들과 싱크탱크들은 AI 기술만이 아니라 윤리 문제에 대해서도 많은 고민을 하고 있다. 

그러면서 슬슬 나오기 시작하는 주제가 ‘인공지능 윤리 프레임워크’라는 것이다. 인공지능이 PC처럼 광범위하게 사용될 것이 분명해 보이는 지금, 각 조직은 인공지능의 윤리 및 안전과 관련된 프레임워크를 미리 준비하는 것이 좋아 보인다. 인공지능으로 야기될 모든 상황을 미리 명문화해서 법전을 마련하라는 게 아니다. 문제가 발생할 때 가치 판단을 할 수 있을 기준을 정립해야 한다는 것이다.

다행히 이미 여기저기서 모범이 될 만한 인공지능 윤리 프레임워크가 개발되었다. 즉 CIO들이 백지에서부터 프레임워크 작업을 할 필요가 없다는 것이다. 이번 주말판에 소개될 대표적 프레임워크를 참조하면서 준비를 시작해보는 걸 권한다.

1. 생명의 미래 연구소(Future of Life Institute)
아실로마 AI 원칙
2017년 아실로마 컨퍼런스(Asilomar Conference)에서 마련된 것으로, 사실상 인공지능과 관련된 모든 윤리학적 프레임워크의 기준점으로 인정받고 있다. 즉, 인공지능의 윤리 문제를 연구하고 싶다면 가장 먼저 읽어야 할 자료(https://futureoflife.org/ai-principles/) 중 하나라는 것이다. 1200명이 넘는 인공지능 및 로보틱스 연구원들과 2500명이 넘는 기술 과학 분야 대가들이 서명했다. 사업 경영을 담당하고 있거나 국가 기관을 운영해야 하는 자들이 유연하게 참조할 수 있도록, 여러 가지 항목들이 목록처럼 나열되어 있다.

2. IAPP
빅데이터와 인공지능을 위한 프라이버시 윤리 프레임워크
엄밀히 말해 프레임워크라고 하기는 힘들다. 하지만 인공지능을 사업 운영에 윤리적으로 도입하고자 하는 기업 운영 및 담당자들은 반드시 읽어야 할 문서(https://iapp.org/resources/article/building-ethics-into-privacy-frameworks-for-big-data-and-ai/) 중 하나다. 인공지능과 빅데이터를 실제 활용하는 부분에 있어서 어떤 윤리적 딜레마가 발생하는지 간략하고 이해하기 쉽게 설명하고 있다. 물론 그러한 딜레마를 무시했을 때의 결과에 대해서도 잘 묘사가 되어 있고, 사실 그 부분이 이 문서의 백미라고 꼽는 전문가들도 다수 존재한다. 여기에 더해 이 문서에는 인공지능 운영과 관련된 윤리적 정책을 수립하고자 하는 사람들을 위해 다양한 도구들을 소개하고 있기도 하다. 

IAPP는 “다양한 데이터 윤리 프레임워크들이 존재하지만 너무 제각각인 형태로 난립하고 있다”며 “확고한 표준을 정립하고, 그에 따른 베스트 프랙티스를 보급하는 면을 좀 더 고민해야 한다”고 주장한다. 하지만 기업마다 사정이 크게 다르고, 인공지능을 활용하는 부분에서 나타나는 구체적인 모양새도 다를 것이라 아직 표준이 세워질 수 없다고 보는 시각도 존재한다.

3. IEEE
IEEE 자율시스템 이니셔티브
IEEE는 2016년부터 자율시스템 개발과 설계에 있어 필요한 윤리적인 고려 사항들을 전파하는 데 앞장서고 있는 단체다. 그런 작업의 일환으로 IEEE 자율시스템 이니셔티브(https://ethicsinaction.ieee.org/#read)를 마련해 활동을 하고 있다. 그러면서 출판한 ‘윤리적 설계(Ethically Aligned Design)’는 인공지능을 기반으로 한 시스템의 가치를 산정하고, 올바르게 구축 및 관리하는 내용을 다루고 있으며, 내부에서 인공지능 윤리 프레임워크를 마련하는 과정을 300페이지가 넘는 분량에 상세히 설명하고 있다. 이 분야의 ‘성경책’으로 인식되고 있다. 

4. 퍼블릭 보이스(The Public Voice)
인공지능통합가이드라인
2018년 10월에 처음 발표된 것으로, “여러 국가의 국내법과 국제 협약에 통합될 인공지능 윤리 표준을 마련하기 위해” 준비(https://epic.org/2018/10/breaking---universal-guideline.html)됐다. 주로 인권의 차원에서 인공지능을 바라보고 있으며, 투명성, 공정함, 편향성 제거, 데이터 정확성, 데이터의 질이라는 이슈에 상당히 집중하고 있다. 또한 정부가 비밀리에 진행하는 프로파일링 작업이 즉각 중단되어야 한다고 주장하기도 한다. 이 가이드라인을 작성한 저자들은 “인공지능과 같은 기술의 발전으로 인권이 침해되는 것을 가장 경계한다”고 하며, “기술 때문에 피해가 발생하는 일이 없도록 하는 데 주안점을 두었다”고 밝혔다.

5. 유럽회의
인공지능과 데이터 보호를 위한 가이드라인
인공지능 윤리 전문가들이 초안을 작성했고, 그 5개월 동안 모인 500개 넘는 논평과 의견들을 종합해 완성됐다. 인공지능 윤리와 관련된 프레임워크 중 일반 대중을 대상으로 하는, 가장 광범위하고 통합적인 문서(https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai)다. 이 문서에 나온 내용이 ‘규정’이나 ‘정책’ 단계로 적용되는 것은 아니지만, 아무래도 유럽연합에서 만들고 발표한 것이라 가까운 미래에 표준처럼 자리 잡을 수 있을 것으로 예상된다.

이 문서에 말하는 ‘신뢰할만한 인공지능’이란 다음 일곱 가지 요소를 갖추고 있는 것이다.
1) 인간적 요소와 인간의 감독 : 어떤 인공지능 기술이라고 하더라도 인간적 요소가 개입해야만 한다.
2) 기술적 안정성과 안전성 : 공격에 대해 어느 정도 견딜 수 있어야 하며, 사고가 터졌을 때 안전과 관련된 대책을 수립하여 운용할 수 있어야 한다.
3) 프라이버시와 데이터 거버넌스 : 개인과 데이터에 대한 프라이버시, 평등을 존중하고, 데이터 무결성과 접근성도 유지되어야 한다.
4) 투명성 : 추적과 설명이 가능해야 하고, 소통이 원활히 이뤄져야 한다.
5) 다양성, 비차별성, 공평성 : 불공정한 편향성에 기반한 결과가 사라지고, 필요한 모두가 공평하게 접근할 수 있는 환경이 조성되어야 한다.
6) 사회적 안정과 환경적 안정 : 지속 가능해야 하며, 환경 친화적이며, 사회적 충격을 되도록 주지 않아야 한다.
7) 책무성 : 감독할 수 있어야 하며, 부정적 효과는 최소화해야 한다. 

위의 문서들은 다음 부류들에게 도움을 주기 위해 제작됐다.
1) AI 개발자들 : AI 알고리즘과, AI 기반 서비스들이 어떤 모양을 갖춰야 하며, 어떤 필요를 충족시켜야 하는지를 알려준다.
2) 사용자들 : 올바른 AI 솔루션이 어떤 형태로 구성되어야 하며, 따라서 어떤 것을 시장에서 고르고 구매해야 하는지 알려준다. 보안뉴스

댓글을 달아 주세요