AI와 윤리: 신뢰를 위한 투쟁
게시 됨: 2018-10-02저는 최근 에 런던에서 열린 AI Congress 및 Data Science Summit 에 참석했고 Ethics and AI라는 패널 토론에 참석하는 것을 강조했습니다. 패널리스트는 Not Terminator의 공동 설립자인 Harriet Kingaby와 DataKind UK의 전무 이사인 Emma Perst였습니다.
윤리는 매우 흥미로운 토론이며 아마도 인공 지능(AI) 개발에서 가장 중요한 측면일 것입니다. 작년에 우리는 기계 학습에 대한 마케터 필드 가이드를 발표 하고 공정성, 설명 가능성 및 보안과 같은 주제와 함께 AI 및 윤리 주제에 대해 논의했습니다. AI가 완전히 비윤리적으로 개발된다면 우리는 완전히 신뢰를 잃게 되므로 염두에 두어야 합니다.
eBook에서 우리는 다음과 같이 논의했습니다.
지금까지 ML과 AI는 주로 생산성 향상에 도움이 되는 낮은 수준의 일상적인 작업을 수행하기 위해 배포되었습니다. 그러나 곧 그들은 문자 그대로 삶과 죽음을 결정할 수 있는 위치에 놓이게 됩니다. 자율주행차는 탑승자를 목적지까지 안전하게 데려다 줄 뿐만 아니라 주변의 모든 사람도 안전하게 지켜주는 역할을 합니다. 자율주행차가 불가능한 상황에 처하는 것은 시간문제일 뿐입니다. 불가피한 사고이므로 왼쪽의 보행자 A를 향하거나 오른쪽의 보행자 B를 향하는 것만 선택할 수 있습니다. 내부의 AI 시스템은 어떤 조치를 취해야 할지 어떻게 결정할까요? 크기에 따라? 나이? 사회적 지위? 그리고 사고 조사관이 결과에 영향을 준 것이 무엇인지 결정하려고 할 때 윤리적으로 문제가 되는 논리가 내재되어 있음을 알게 될까요?
실제로 이러한 질문은 당시 우리를 당황시켰지만 그 이후로 일부 결과를 보았습니다. 윤리와 인공 지능에 대한 주제는 회의실과 대학에서 논의될 뿐만 아니라 입법부로 올라갔고 곧 우리가 사회를 운영하는 방식의 구조에 꿰매어질 것입니다.
AI의 좋은 점과 나쁜 점 - 1년 안에 많은 일이 일어날 수 있습니다.
기계 학습 전자책이 출시된 지 1년도 채 되지 않은 이후로 (좋든 나쁘든) 많은 AI 개발이 있었습니다.
Tesla는 자율주행 자동차의 자동 조종 사고 를 보고 했으며 Deepfake 와 같은 기술 이 등장했습니다. Deepfake는 딥 러닝 기술을 사용하여 가짜 뉴스를 만들 의도로 참여하지 않은 상황에 실제 사람의 이미지를 겹쳐 디지털 미디어를 만들 수 있습니다. 사기.
한 끔찍한 불행한 사건에서 Uber 자율 주행 차량이 보행자를 죽였습니다 . 이 비극은 우리 사회가 AI 기술을 신뢰했기 때문에 발생했습니다. 나중에 사람의 실수가 사고의 한 부분이었음이 밝혀졌지만, 일단 이러한 것들을 AI로 분류하면 해당 기술이 자체 장치에 맡길 만큼 지능적이지 않다고 말하기가 어렵습니다. 이 끔찍한 비극에도 불구하고 자동차 회사 ( 및 Ikea )는 계속해서 새로운 자율 주행 자동차 계획을 발표하고 있습니다.
AI의 윤리는 해를 끼칠 수 있는 가능성 때문에 논의 대상이지만, 현재 우리가 혜택을 받고 있는 많은 놀라운 결과를 가져온 개발에 대한 동일한 신뢰입니다.
항상 그렇듯이 기술은 문제의 일부이자 솔루션의 일부입니다. 다음과 같이 매일 발생하는 AI의 빠른 개발 속도와 새로운 애플리케이션을 고려하십시오.
- 종양 이미지를 분석하고 폐암 유형을 인식하는 AI
- 모두를 훌륭한 사진가로 만드는 AI
- 서버 팜을 보다 효율적으로 만들 수 있는 AI
이러한 매력적이고 유익한 기술에 대해 들어본 적이 있을 수도 있고 들어 있지 않을 수도 있습니다. 비극에 대한 언론의 센세이션은 훨씬 더 널리 퍼져 있습니다. AI 기술의 실수는 더 많은 관심을 끌기 때문에 과장과 흥분으로 둘러싸여 있습니다. 일상적이고 종종 재미있는 AI 비서의 실패부터 더 심각한 개인 정보 보호 문제 에 대한 이야기에 이르기까지 .
요점은 소식을 듣든 듣지 않든 AI가 널리 알려진 실수에도 불구하고 많은 긍정적인 일을 하고 있다는 것입니다. 이러한 시련과 시련 은 사람들로 하여금 이야기 하게 했으며 더 높은 수준에서 일어나는 토론은 확실히 우리의 미래를 형성하는 데 중요한 역할을 할 것입니다.
윤리적인 AI 개발을 위한 조직적인 노력
AI 개발을 둘러싼 널리 알려진 실수, 학업 중단 및 부서진 기술 경계는 전 세계 리더의 관심을 끌었습니다. 결국 AI는 이미 사용되고 있고 시민 사회는 다양한 방식으로 광범위한 수용을 준비하고 있습니다.
정부와 협회 는 이에 대해 모니터링하고 논의해야 합니다. 그리고 좋은 점입니다. 다음은 내 머리 꼭대기에있는 짧은 예 목록입니다.
- 미래의 AI 기술자를 양성하여 인류의 이익을 위한 기술을 발전시킵니다( AI4ALL ).
- UN이 경제 성장 을 달성하고 더 큰 이익 을 위해 일할 수 있는 방법을 이해하기 위해 노력하고 있습니다 .
- AI의 사회적 의미 연구( AI Now Institute )
- 공개 서한 에서 기술 리더들 에게 인간 중심적이고 투명하며 신뢰 기반 기술 개발을 수용할 것을 촉구합니다.
- AI를 의회 작업의 일부로 만들기: 영국 상원 은 AI의 경제적, 윤리적, 사회적 영향을 고려하기 위해 인공 지능에 대한 위원회를 선택합니다.
윤리적 OS
윤리적 OS 는 미래의 기술 및 평판 위험을 최소화하여 미래 보장 기술 개발을 시도하는 프레임워크를 구축하는 관행입니다. 그것은 새로운 기술이 세상을 어떻게 더 나은 방향으로 바꿀 수 있는지 뿐만 아니라 그것이 사물을 손상시키거나 오용될 수 있는 방법을 고려합니다.
이 OS는 고려해야 할 몇 가지 일반적인 영역을 제안합니다.
- 진실과 거짓
당신이 작업하고 있는 기술을 "위조"하는 데 사용할 수 있는 도구로 바꿀 수 있습니까? - 탐닉
많은 사람들이 사용하는데 많은 시간을 할애할 정도로 인기가 많은 새로운 도구를 만든 사람에게는 좋은 일이지만 건강에 좋을까? 사람들이 시간을 잘 보낼 수 있도록 도구를 더 효율적으로 만들 수는 있지만 끝없이 사용할 수는 없을까요? 적당한 사용을 장려하기 위해 어떻게 설계할 수 있습니까? - 불평등
누가 액세스 권한을 갖고 누가 액세스 권한을 갖지 않습니까? 액세스 권한이 없는 사람들이 부정적인 영향을 받습니까? 도구가 경제적 안녕과 사회 질서에 부정적인 영향을 미치고 있습니까? - 윤리학
기술을 구축하는 데 사용되는 데이터가 어떤 식으로든 편향되어 있습니까? 기술이 기존 편향을 강화하는가? 도구를 개발하는 팀이 프로세스에서 편향을 찾아내는 데 도움이 될 만큼 충분히 다양합니까? 다른 사람들이 "감사"할 수 있을 만큼 도구가 투명합니까? 편견을 없애기 위해 채용하는 AI 의 예 – 하지만 창작자는 어떤 편견을 가질 수 있습니까? - 감시
정부나 군대가 이 기술을 감시 도구로 바꾸거나 시민의 권리를 제한하는 데 사용할 수 있습니까? 수집된 데이터를 통해 평생 동안 사용자를 팔로우할 수 있습니까? 자신의 목적을 위해 이 데이터에 액세스하는 것을 원하지 않는 사람은 누구입니까? - 데이터 제어
어떤 데이터를 수집하고 있습니까? 필요하세요? 당신은 그것으로부터 이익을 얻습니까? 사용자가 그 이익을 공유하고 있습니까? 사용자에게 데이터에 대한 권한이 있습니까? 악의적인 행위자는 이 데이터로 무엇을 할까요? 회사를 인수하면 데이터는 어떻게 됩니까? - 암묵적 신뢰
귀하의 기술에 사용자 권한이 있습니까? 용어가 명확하고 이해하기 쉽습니까? 관심 있는 사용자에게 정보를 숨기고 있습니까? 사용자가 기술을 계속 사용하면서 특정 측면을 선택하거나 선택 해제할 수 있습니까? 모든 사용자가 동일하게 생성됩니까? - 증오 및 기타 범죄
괴롭힘이나 괴롭힘에 기술을 사용할 수 있습니까? 증오를 퍼뜨리고 다른 사람을 차별하는 데 사용할 수 있습니까? 무기화할 수 있을까?
고려해야 할 영역이 많이 있지만 각각에는 웃을 문제가 아닌 고유한 의미가 있습니다. Ethical OS는 잠재적인 AI 개발로 위험이 식별되면 이해 관계자와 공유하여 문제를 완전히 조사할 수 있다고 말합니다.
지적이고 윤리적인 미래를 향해 나아가다
AI Congress 및 Data Science Summit 에서 참석한 패널 은 AI 개발자가 보다 윤리적으로 발전할 수 있도록 지원하는 추가 전략으로 결론지었습니다. 그들은 기술 윤리가 비즈니스 문화에 구축되어야 하고 기업 비전의 일부가 되어야 하며 윤리적인 AI 현상금 사냥꾼이 버그 사냥꾼과 유사한 방식으로 운영될 수 있다고 말했습니다!
GDPR 및 2018년 캘리포니아 소비자 개인정보 보호법(California Consumer Privacy Act) 과 같은 주요 소비자 개인정보 보호법이 시행됨에 따라 우리는 이미 데이터 과학의 발전이 정책에 의해 어떻게 형성될지 보고 있습니다.
일부 가설은 규제가 AI 개발을 늦출 것이라고 제안합니다. 그 과정에서 그런 일이 일어날 수 있지만 소비자가 자신의 데이터와 개인 정보가 오용되지 않는다는 확신을 갖게 되면 과정에 대한 신뢰를 높일 수 있습니다. 이는 사용 및 채택 증가로 이어질 수도 있습니다. 누가 알겠습니까?
우리는 확실히 모든 답을 가지고 있지는 않지만 토론에 세심한 주의를 기울이고 있습니다.
이미지 크레딧
특징 이미지: Unsplash / Markus Spiske