AI의 윤리: 우리가 물어야 할 4가지 필수 질문
게시 됨: 2023-07-311년 전에 내가 저녁 식탁에서 " AI" 라고 말했다면 우리 (성숙한) 가족은 내가 무슨 말을 하는지 몰랐을 것입니다. 물론 아이들을 제외하고요. 아이들은 이미 모든 것을 알고 있습니다.
최근 소비자 대면 생성 인공 지능 도구에 대한 광범위한 액세스는 로봇 인수에서 직장에서 우리의 전체 접시에서 제거되는 시간 절약 작업의 흥분에 이르기까지 전 세계적인 대화를 촉발했습니다.
전 세계의 주제 전문가들은 대중을 위한 기계 학습 리소스를 만드는 데 두 배로 노력하고 있으며, 정책 입안자들은 악의적인 행위자가 현장에서 현재 시스템을 스트레스 테스트하는 날에 가드 레일을 제공하기 위한 규제 단계를 고려하고 있습니다.
동시에 우리는 혁신의 속도, 온라인에서 허구로부터 사실을 효과적으로 판단할 수 없는 인구, 프라이버시의 필요성을 강조하는 일부 기관에서 노골적으로 무시하는 프라이버시에 보조를 맞추기 위해 애쓰는 기술 정책을 개발했습니다.
"요컨대, 인공 지능은 이제 지식, 커뮤니케이션 및 권력을 형성하는 역할을 합니다."
케이트 크로포드
AI의 아틀라스
인공 지능을 둘러싼 네 가지 주요 질문에 답하기
AI의 영향을 키우는 방향에 대한 의견을 어떻게 얻을 수 있습니까? AI로 인한 피해를 사전에 완화하려면 어떻게 해야 할까요? 개인, 기업 및 입법자로서 기계 학습 웜 캔을 여는 위험을 어떻게 최소화할 수 있습니까?
그것은 윤리에서 시작합니다. 개인으로서 우리 각자가 윤리적 결정을 내리는 것입니다.
우리는 혁신가입니다. 우리는 노동자입니다. 우리는 가족입니다. 우리는 공동체입니다. 우리는 기업입니다. 우리는 국가입니다. 우리는 세계적인 인류입니다. 우리는 기계를 만들고, 먹이고, 가르치고 있으므로 출력에 100% 투입됩니다.
AI는 이 지구상의 우리 모두에게 영향을 미칠 것이며 우리 모두는 AI가 우리 삶에 어떻게 허용되고 허용되지 않는지에 대한 지분과 목소리를 가지고 있습니다.
우리는 인생과 사업의 실수로부터 배우며 AI도 다르지 않습니다. 학습은 AI 특성의 근간입니다. 결국 기계 학습 이라고 합니다 . 우리가 그것을 구축하는 방법은 그것이 내놓는 것을 결정합니다. 그렇다면 여기서 윤리는 어디에 적용됩니까?
윤리적 원칙은 전체 AI 수명 주기의 네 가지 주요 단계에서 구현되어야 합니다.
- 구축 방법
- 우리가 그것에 넣은 것
- 출력으로 수행하는 작업
- 의도하지 않은 불가피한 결과를 완화하는 방법
수명 주기의 마지막 단계를 생략하는 것은 짐작하셨겠지만 비윤리적 입니다.
이러한 단계는 규칙과 지침을 지정하는 데 있어 완벽하게 합리적인 이정표처럼 보일 수 있습니다. 우리는 1950년대부터 기계 학습 알고리즘과 함께 살아왔습니다. 우리는 글로벌 데이터 및 AI 윤리 표준의 초안을 작성하는 데 몇 년이 걸렸습니다. 그러나 우리는 합의와는 거리가 멀고 채택과는 거리가 더 멉니다.
빅 테크에 대한 현재 법적 장애물을 살펴보면 AI 라이프사이클의 각 단계에서 의사 결정을 담당하는 사람들이 윤리적 고려 사항을 진지하게 고려하지 않고 있음이 분명합니다.
AI를 둘러싼 윤리적 질문
그렇다면 AI 라이프사이클의 각 단계에 관련된 사람들의 윤리적 관행을 어떻게 주장해야 할까요?
우리는 질문을 하고, 더 많은 질문을 하고, 같은 질문을 다시 하고, 질문을 멈추지 않습니다.
- 각 단계의 의사 결정자는 누구입니까? 편견을 완화하고 모범 사례를 보장하며 생각의 다양성을 포함하려면 이에 대한 답변이 필요합니다.
- 누구를 위해 결정을 내리고 최적화합니까? 다시 한 번 이것은 편견을 줄이지만 더 중요한 것은 앞으로 나아가기 전에 모든 당사자에 대한 영향을 평가한다는 것입니다.
- AI를 대규모로 지원하려면 어떤 자본이 필요합니까? 이는 논리적이고 장기적인 이익-비용 분석을 수행하는 데 필요합니다.
- 사회적, 정치적, 경제적 영향은 무엇입니까? 시간이 지남에 따라 지침을 지속적으로 수정하려면 원인과 결과에 대한 이해가 필요합니다. (저는 이 단계를 애자일 제품 개발과 일치하는 것으로 생각하고 싶습니다: 출시, 학습, 반복.)
AI가 노동과 경제에 미치는 영향
Stanford, MIT 및 Microsoft Research의 최근 3건의 사례 연구에서는 작업을 수행하기 위해 도구를 사용하지 않은 동료와 비교하여 생성 AI 도구의 직원 생산성 향상에서 유사한 결과를 발견했습니다.
다양한 분야(고객 지원, 소프트웨어 엔지니어링 및 비즈니스 문서 작성)에 걸쳐 경험적 데이터에서 비즈니스 사용자의 처리량이 평균 66% 증가했음을 알 수 있습니다. 최상의 시나리오에서는 인지적으로 까다로운 작업에서 시간을 절약하고 보다 개인화된 사람의 손길, 상상력 및 세련된 결과물을 위한 조건을 만듭니다.
규모에 따른 생산성 증가로 인해 일부 작업이 결국 쓸모없게 될 것이라는 두려움이 있습니다. 역사적으로 산업은 새로운 혁신이 노동 시장을 강타할 때 자연스러운 수명 주기를 갖습니다. 예를 들어, 전화 교환원 에게 무슨 일이 일어났는지 궁금한 적이 있습니까?
숙련도가 낮거나 자격이 부족한 근로자가 고급 기술이 필요한 산업에 즉시 진입할 수 있는 마법의 스위치를 가진 사람은 없습니다. 역사적으로 사회 안전망에 의존하고 고갈시키는 기술 격차가 있습니다. 이러한 기술 격차를 파악하고 자금을 조달하고 채우는 데는 시간이 걸립니다. 일부 국가에서는 근로자의 기술 향상을 적극적으로 지원 하지만 데이터에 따르면 전 세계 인구 중 가장 취약한 부분이 이러한 혁신적인 전성기 동안 불균형적으로 영향을 받는 경향이 있습니다.
경제 예측은 비즈니스에서 생성적 AI 사용이 노동 시장에 긍정적인 영향을 미친다고 강력하게 시사하지만, 우리는 이 경제 호황으로 인해 무엇이 위험에 처해 있는지 완전히 알고 있습니까?
예술가, 음악가, 영화 제작자, 작가와 같은 창작자들은 OpenAI 및 Facebook의 모회사인 Meta를 상대로 여러 집단 소송을 제기하는 업계에 속합니다. AI의 혜택을 받는 거대 기술 회사는 아티스트의 저작권으로 보호되는 작업이 AI 모델을 교육하는 데 불법적으로 사용되었다고 반박합니다. 예술가들은 떼를 지어 온라인 계정을 삭제하고 있으며 Getty Images와 같은 유명 크리에이티브 회사는 소송을 제기하고 있습니다 . 이에 대해 FTC는 최근 OpenAI의 온라인 데이터 스크래핑 관행을 조사했습니다.
이것은 AI 수명 주기의 4단계에 대한 완벽한 예입니다. 윤리적 질문을 해보자:
- 누가 이러한 결정을 내렸습니까? 크리에이티브가 아닙니다.
- 의사결정은 누구에게 최적화되었습니까? 크리에이티브가 아닙니다.
- 자본 비용은 얼마였습니까? 인적 자본? 금융자본? 자연자본? 아마도 광고 소재를 희생시키면서 세 가지 모두에 걸쳐 있었을 것입니다.
- 사회적, 정치적, 경제적 영향에 대한 고려가 있었습니까? 아마도, 하지만 누구에 의해? 크리에이티브가 아닙니다.
작품이 온라인에 게시되는 것을 보류하는 한 세대의 창작자와 관련 산업을 위험에 빠뜨릴 의향이 있습니까? 그것이 우리의 창조적 문화적 진화, 창작자의 생계, 그리고 장기적인 사회적 정치적 영향에 어떤 영향을 미칠까요? 누군가 이 잠재적인 영향에 대해 생각하고 법적 및 평판 위험이 정당한지 판단하고 진행하기로 결정했습니까?
아마도. 또는 그들은 단순히 그것을 전혀 생각하지 않았습니다. 두 경우 모두 법적 영향에 대한 해석과 상관없이 결정은 비윤리적이었습니다.
글로벌 경제로서 윤리적 관행 내에서 운영되는 조직을 식별하여 윤리적 기준을 침해하는 것보다 지원을 우선시하는 것이 중요합니다. 의사 결정자의 윤리적 자세를 드러내지 않음으로써 우리는 광범위한 조사가 필요한 바로 그 순간에 무심코 다른 방향을 보게 됩니다.
핵심 질문: 회사의 윤리적 자세를 어떻게 측정, 측정 또는 식별할 수 있습니까?
여기에서 알려주세요.
AI가 환경에 미치는 영향
AI는 에너지 집약적인 인프라입니다. 환경에 미치는 영향은 대체로 눈에 띄지 않고 마음에서 멀어지며 기술 부문과 같은 공간에서 종종 나중에 생각됩니다.
MIT Technology Review는 단일 AI 모델을 교육하면 자동차 5대 분량의 탄소를 배출할 수 있으며 이는 626,000파운드 이상의 이산화탄소에 해당한다고 보고했습니다. 지구 광물은 또한 생성 AI의 대량 계산 처리를 위한 에너지를 공급하는 데 큰 역할을 합니다. 계산의 물리적 인프라에 포함된 필수 금속 채굴은 종종 지역 및 지정학적 폭력을 희생시키면서 발생합니다 .
"이러한 위치의 광물이 없으면 현대 계산이 작동하지 않습니다."
케이트 크로포드
AI의 아틀라스
세 번째 윤리적 질문을 기억하십시오. AI를 대규모로 추진하려면 어떤 자본이 필요합니까? 논리적 장기 혜택 비용 분석을 수행합니다. 우리가 올바른 질문을 할 만큼 충분히 용감하다면 지구에 미치는 영향의 형태인 자연 자본을 등식에서 제외해서는 안 됩니다.
올바른 질문을 하는 것은 두려울 수 있습니다. 특히 질문이 자신의 생계를 다툼의 원인으로 내포하는 경우에는 더욱 그렇습니다. 그러나 지식이 힘이라는 점에서 기술자는 궁극적으로 모든 윤리적 기술 솔루션에 참여하기 위해 투명성을 수용해야 합니다.
기업 방해 행위가 아닙니다! "환경의 전반적인 상태도 알고 있는" 기계 학습 실무자 그룹은 작업에서 생성되는 탄소 배출량을 평가하기 위한 지원 도구를 구축하기 위해 노력했습니다. 평가 후 배출을 줄이는 방법을 계산할 수 있습니다. 그들은 다른 AI 실무자가 추정치를 계산할 수 있도록 이 배출량 계산기 도 만들었습니다.
핵심 질문: 기술자와 공급자가 AI 투명성에 용감해지도록 어떻게 장려할 수 있습니까?
여기에서 알려주세요.
ROI 산출 프레임워크가 AI 윤리에 미치는 영향
규제만으로는 AI 문제를 해결할 수 없습니다. 기술자들은 종종 규제를 받지 않기 때문에 윤리적으로 불가지론적으로 보일 수 있는 지표에 의해 동기를 부여 받지만 투자 수익을 얻습니다. 이러한 ROI 산출 프레임워크는 무엇입니까? 규칙을 따르는 회사에 어떤 형태의 보상을 반환하는 이러한 규칙 세트는 야생에서 어디에서 볼 수 있습니까?
기술 윤리에 대한 비규제적 영향의 예로 Google PageRank 알고리즘을 고려해 봅시다. Google PageRank 알고리즘은 "전체 페이지 경험과 일치하는 다양한 신호"를 분석합니다. 여기에는 ADA 지침 및 개인 정보 보호 정책에 따라 UX 모범 사례에 부합하는 요소가 포함됩니다.
다크웹 패턴이 없다는 것은 유리한 순위를 의미합니다. ADA를 준수하지 않는 것은 덜 유리한 순위를 의미합니다. 사이트의 인지도를 개선하고 Google 가이드라인을 따르면 비규제 규칙 집합을 준수하여 부주의하게 윤리적 결정을 내리는 것을 볼 수 있습니다.
귀사의 사이트가 다른 회사의 알고리즘에서 제안된 모범 사례를 따라야 하는 이유는 무엇입니까? 그렇게 하면 Google에서 좋은 순위를 얻을 수 있는 최상의 기회가 고정되기 때문입니다. 온라인에서 회사의 검색 가능성 및 지각된 중요성에 미치는 영향은 수익에 영향을 미치며 동기 부여 요인이 되므로 규제 집행 없이 윤리적 관행에 영향을 미칩니다.
중요한 질문: 기존 규제 영역 밖에서 기술 전문가가 윤리적 관행에 대해 어떻게 책임을 지도록 할 수 있습니까? 그들은 무엇에서 가치를 찾습니까? 그들은 성공을 위한 연료를 어디에서 얻습니까?
여기에서 알려주세요.
그것은 우리와 함께 시작됩니다
당신이 누구든 인공 지능과 기계 학습 도구를 비윤리적으로 사용하는 데 수반되는 위험을 최소화하는 데는 모두가 역할을 합니다. 개인으로서 AI 사용과 이러한 기계에 사회에 대해 가르치는 방법과 내용에 대해 윤리적 결정을 내리는 것이 중요합니다.
AI의 이야기는 이제 막 시작되었으며 AI가 미래를 완전히 변화시킬 방법은 아직 쓰여지지 않은 이야기입니다. 고맙게도 우리는 개인 생활과 직업 생활 모두에서 AI가 어떻게 진화하는지에 대해 발언권이 있습니다. 모든 것은 윤리를 최우선으로 생각하는 것으로 귀결됩니다.
G2는 당신의 의견을 듣고 싶어합니다!
AI 윤리에 관심이 있는 분들은 이 대화에서 귀하, 귀하의 산업, 회사 또는 생계에 가장 중요한 것이 무엇인지에 대한 생각을 공유해 주십시오. 저는 이 대화를 계속 발전시키고 여러분과 나머지 G2 커뮤니티로부터 얻은 통찰력과 학습을 바탕으로 후속 기사를 공유할 계획입니다.
더 많은 사고 리더십을 원하십니까? 이 기사는 영향력 있는 다양한 G2 리더를 소개하는 G2 Voices 시리즈의 일부입니다.