A ética da IA: 4 perguntas essenciais que devemos fazer

Publicados: 2023-07-31

Um ano atrás, se eu tivesse dito “ IA” na minha mesa de jantar, minha família (madura) não saberia do que eu estava falando. Exceto as crianças, é claro. As crianças já sabem de tudo.

O acesso generalizado recente a ferramentas de inteligência artificial generativas voltadas para o consumidor gerou conversas globais, desde aquisições de robôs até a empolgação de tarefas que economizam tempo sendo retiradas de nossos pratos cheios no trabalho.

Especialistas no assunto em todo o mundo têm redobrado a criação de recursos de aprendizado de máquina para as massas, enquanto os formuladores de políticas consideram medidas regulatórias para fornecer proteções, pois os maus atores têm um dia de campo testando nossos sistemas atuais.

Ao mesmo tempo, desenvolvemos políticas de tecnologia que lutam para acompanhar a velocidade da inovação, populações que não conseguem distinguir efetivamente o fato da ficção online e a privacidade sendo flagrantemente ignorada por algumas das mesmas instituições que apregoam sua necessidade.

"Em suma, a inteligência artificial é agora um jogador na formação de conhecimento, comunicação e poder."

Kate Crawford
Atlas de IA

Respondendo a quatro perguntas principais sobre inteligência artificial

Como podemos obter informações sobre em que direção nutrimos o impacto da IA? Como podemos mitigar proativamente os danos causados ​​pela IA? Como indivíduos, corporações e legisladores, como podemos minimizar o risco de abrir uma lata de worms de aprendizado de máquina ?

Começa com a ética - com cada um de nós, como indivíduos, tomando decisões éticas.

Somos inovadores. Nós somos trabalhadores. Somos famílias. Somos comunidades. Somos empresas. Somos nações. Somos uma humanidade global. Estamos construindo, alimentando e ensinando as máquinas e, portanto, temos 100% de entrada em sua saída.

A IA afetará cada um de nós neste planeta e cada um de nós tem uma participação e uma voz em como é – e não é – permitido em nossas vidas.

Aprendemos com nossos erros na vida e nos negócios e a IA não é diferente. A aprendizagem é o próprio fundamento da natureza da IA. Afinal, é chamado de aprendizado de máquina . A forma como o construímos determina o que ele produz. Então, onde a ética se aplica aqui?

Os princípios éticos devem ser implementados nos quatro principais estágios de todo o ciclo de vida da IA:

  • Como o construímos
  • O que colocamos nele
  • O que fazemos com a saída
  • Como mitigamos consequências não intencionais e inevitáveis

Omitir essa etapa final do ciclo de vida é – você adivinhou – antiético .

Esses estágios podem parecer marcos perfeitamente razoáveis ​​com os quais atribuir regras e diretrizes. Vivemos ao lado de algoritmos de aprendizado de máquina desde a década de 1950 . Estamos há vários anos elaborando dados globais e padrões éticos de IA. E, no entanto, estamos longe de um acordo e ainda mais longe da adoção.

Se olharmos para alguns obstáculos legais atuais para a grande tecnologia, fica claro que os responsáveis ​​por tomar decisões em cada estágio do ciclo de vida da IA ​​não estão levando seriamente em conta considerações éticas.

Questões éticas em torno da IA

Então, como insistimos nas práticas éticas dos envolvidos em cada estágio do ciclo de vida da IA?

Fazemos perguntas, fazemos mais perguntas, depois fazemos as mesmas perguntas novamente e nunca paramos de fazer as perguntas.

  1. Quem são os tomadores de decisão em cada etapa? Precisamos de respostas para mitigar o viés, garantir as melhores práticas e incluir a diversidade de pensamento.
  2. Para quem as decisões estão sendo tomadas e otimizadas? Mais uma vez, isso reduz o viés, mas, mais importante, garante que o impacto em todas as partes seja avaliado antes de avançar.
  3. Qual capital é necessário para abastecer a IA em escala? Isso é necessário para fazer análises de custo-benefício lógicas e de longo prazo.
  4. Quais são os impactos sociais, políticos e econômicos? A compreensão de causa e efeito é necessária para corrigir continuamente as diretrizes ao longo do tempo. (Gosto de pensar que esta etapa está alinhada com o desenvolvimento ágil de produtos: lançar, aprender, repetir.)

Como a IA afeta o trabalho e a economia

Três estudos de caso recentes de Stanford, MIT e Microsoft Research encontraram resultados semelhantes no crescimento da produtividade dos funcionários a partir de ferramentas de IA generativas em comparação com seus colegas que não usavam ferramentas para realizar suas tarefas.

Em várias disciplinas (suporte ao cliente, engenharia de software e criação de documentos de negócios), vemos em dados empíricos que os usuários de negócios aumentaram sua taxa de transferência em uma média de 66%. No melhor dos cenários, isso economiza tempo em tarefas cognitivamente exigentes, criando as condições para toques humanos mais personalizados, imaginação e entregas refinadas.

Com o aumento da produtividade em escala, teme-se que alguns empregos acabem se tornando obsoletos. Historicamente, uma indústria tem um ciclo de vida natural quando as inovações chegam aos mercados de trabalho. Por exemplo, você já se perguntou o que aconteceu com as operadoras de telefonia ?

Ninguém tem um interruptor mágico que permita que trabalhadores pouco qualificados ou pouco qualificados entrem imediatamente em setores que exigem habilidades mais avançadas. Existe uma lacuna de habilidades que historicamente depende e esgota as redes de segurança social. Essas lacunas de habilidades levam tempo para serem identificadas, financiadas e preenchidas. Mesmo que alguns países apoiem proativamente o aprimoramento das habilidades de seus trabalhadores, os dados mostram que os segmentos mais vulneráveis ​​de nossa população global tendem a ser afetados de forma desproporcional durante esses tempos inovadores.

Embora as previsões econômicas indiquem fortemente os impactos positivos no mercado de trabalho dos usos generativos de IA nos negócios, sabemos totalmente o que está em risco com esse boom econômico?

Criativos como artistas, músicos, cineastas e escritores estão entre as indústrias com várias ações coletivas contra a OpenAI e a Meta, empresa-mãe do Facebook. As grandes empresas de tecnologia que se beneficiam da IA ​​refutam as alegações de que o trabalho protegido por direitos autorais dos artistas foi usado ilegalmente para treinar modelos de IA. Artistas estão excluindo contas online em massa e empresas criativas de alto nível, como a Getty Images, estão entrando com ações judiciais . Em resposta, a FTC investigou recentemente as práticas de extração de dados online da OpenAI.

Este é um exemplo perfeito dos quatro estágios do ciclo de vida da IA. Vamos fazer nossas perguntas éticas:

  1. Quem tomou essas decisões? Não os criativos.
  2. Para quem as decisões foram otimizadas? Não os criativos.
  3. Qual foi o custo de capital? Capital humano? Capital Financeiro? Capital natural? Talvez tenha sido em todos os três às custas dos criativos.
  4. Houve consideração de impactos sociais, políticos e econômicos? Talvez, mas por quem? Não os criativos.

Estamos dispostos a arriscar uma geração de criativos e suas indústrias adjacentes impedindo que o trabalho seja publicado online? Como isso afetará nossa evolução cultural criativa, os meios de subsistência dos criadores e o impacto social e político de longo prazo que isso teria? Alguém pensou nesse impacto potencial, determinou se os riscos legais e reputacionais eram justificados e decidiu seguir em frente?

Talvez. Ou eles simplesmente não pensaram nisso. Em ambos os casos, a decisão foi antiética, independentemente da interpretação das implicações legais.

Como uma economia global, é fundamental identificar as organizações que operam dentro de práticas éticas para priorizar seu apoio acima daquelas que infringem os padrões éticos. Ao não trazer à tona a postura ética dos tomadores de decisão, corremos o risco de olhar inadvertidamente para o outro lado justamente no momento em que precisamos de um escrutínio generalizado.

Pergunta importante: como podemos avaliar, medir ou identificar a postura ética de uma empresa?

Deixe-nos saber aqui.

Como a IA causa impacto ambiental

A IA é uma infraestrutura com uso intensivo de energia. O impacto ambiental está em grande parte fora de vista e fora da mente, e muitas vezes é uma reflexão tardia em um espaço como o setor de tecnologia.

O MIT Technology Review relatou que o treinamento de um único modelo de IA pode emitir tanto carbono quanto cinco carros, o equivalente a mais de 626.000 libras de dióxido de carbono. Os minerais da terra também desempenham um papel importante no que alimenta a energia para o processamento computacional em massa da IA ​​generativa. A mineração dos metais necessários envolvidos na infra-estrutura física de computação muitas vezes ocorre às custas da violência local e geopolítica .

“Sem os minerais desses locais, a computação contemporânea simplesmente não funciona”.

Kate Crawford
Atlas de IA

Lembre-se de nossa terceira questão ética: que capital é necessário para alimentar a IA em escala? Para fazer análises lógicas de custos de benefícios a longo prazo. O capital natural na forma de impacto em nosso planeta não deve ser deixado de fora da equação se formos corajosos o suficiente para fazer as perguntas certas.

Fazer as perguntas certas pode ser assustador, especialmente se as perguntas envolverem seu próprio sustento como fonte de discórdia. Mas no interesse do conhecimento é poder , os tecnólogos devem adotar a transparência para, em última análise, participar de qualquer solução tecnológica ética.

Não é sabotagem corporativa! Um grupo de praticantes de aprendizado de máquina “que também estão cientes do estado geral do meio ambiente” se comprometeu a construir ferramentas de apoio para avaliar as emissões de carbono geradas por seu trabalho. Após a avaliação, eles podem calcular maneiras de reduzir essas emissões. Eles até criaram esta Calculadora de Emissões para que outros profissionais de IA possam calcular estimativas.

Pergunta importante: como podemos encorajar tecnólogos e provedores a serem corajosos em sua transparência de IA?

Deixe-nos saber aqui.

Como as estruturas que geram ROI afetam a ética da IA

A regulamentação por si só não pode resolver nossos problemas de IA. Os tecnólogos geralmente são motivados por métricas que, para eles, podem parecer eticamente agnósticas porque não são regulamentadas, mas geram um retorno sobre o investimento. Quais são essas estruturas que geram ROI? Onde vemos esses conjuntos de regras na natureza que retornam alguma forma de recompensa para a empresa que segue as regras?

Vamos considerar o algoritmo do Google PageRank como um exemplo de impacto não regulatório na ética da tecnologia. O algoritmo do Google PageRank analisa uma “variedade de sinais que se alinham com a experiência geral da página”. Isso inclui elementos que se alinham com as melhores práticas de UX, seguindo as diretrizes e políticas de privacidade da ADA.

Nenhum padrão da dark web significará uma classificação favorável. Não estar em conformidade com a ADA significará classificações menos favoráveis. Ao melhorar a presença de um site e seguir as diretrizes do Google, vemos decisões éticas sendo tomadas inadvertidamente, com base na adesão a um conjunto de regras não regulatórias.

Por que o site da sua empresa deve seguir as práticas recomendadas sugeridas pelo algoritmo dessa outra empresa? Porque isso garante suas melhores chances de ter uma boa classificação no Google. O impacto na descoberta de uma empresa e na importância percebida on-line, que afeta seus resultados, é um motivador e, portanto, influencia as práticas éticas sem aplicação regulatória.

Pergunta importante: como podemos responsabilizar nossos tecnólogos por suas práticas éticas fora do espaço regulatório tradicional? Em que eles encontram valor? Onde eles obtêm combustível para seu sucesso?

Deixe-nos saber aqui.

começa conosco

Não importa quem você é, todos desempenham um papel na minimização dos riscos que acompanham o uso antiético de inteligência artificial e ferramentas de aprendizado de máquina. Como indivíduos, é crucial tomarmos decisões éticas sobre o uso da IA ​​e como – e o que – ensinamos essas máquinas sobre a sociedade.

A história da IA ​​está apenas começando e como ela transformará completamente o futuro é uma história que ainda não foi escrita... ainda. Felizmente, temos uma palavra a dizer sobre como a IA evolui em nossas vidas pessoais e profissionais. Tudo se resume a garantir que a ética esteja em primeiro lugar.


O G2 quer ouvir você!

Os interessados ​​na ética da IA, por favor, compartilhem seus pensamentos sobre o que está faltando nesta conversa que é mais importante para você, seu setor, empresa ou meio de subsistência. Pretendo continuar desenvolvendo esta conversa e compartilhando artigos subsequentes com base nas percepções e aprendizado de você e do restante da comunidade G2.

Quer mais liderança de pensamento? Este artigo faz parte da série G2 Voices, que apresenta uma variedade de líderes influentes do G2.