Muitos líderes de tecnologia concordam que, embora a IA possa ser extremamente benéfica para os seres humanos, ela também pode ser mal utilizada ou, por negligência, causar danos terminais à humanidade. Mas esperar que os governos resolvam esse problema sem orientação seria tolice, visto que os políticos geralmente nem entendem a tecnologia que usam há anos, muito menos algo que acabou de chegar ao mercado.
Como resultado, quando os governos agem para mitigar um problema, eles podem causar mais danos do que benefícios. Por exemplo, foi correto penalizar a antiga Shell Oil Company por abusos, mas desmembrar a empresa transferiu o controle do petróleo dos Estados Unidos para partes do mundo que não são tão amigáveis para os EUA. Outro exemplo foi corrigir o domínio da RCA de eletrônicos de consumo, que mudou o mercado dos Estados Unidos para o Japão.
Os EUA mantiveram a liderança tecnológica por um fio de cabelo, mas não tenho dúvidas de que, se o governo agir sem orientação para regular a IA, eles simplesmente mudariam a oportunidade para a China. É por isso que o recente relatório da Microsoft intitulado “Governing AI: A Blueprint for the Future” é tão importante.
O relatório da Microsoft define o problema, descreve um caminho razoável que não reduzirá a competitividade dos EUA e aborda as preocupações em torno da IA.
Vamos falar sobre o projeto da Microsoft para governança de IA e terminaremos com meu Produto da Semana, uma nova linha de rastreadores que pode ajudar a rastrear coisas que geralmente temos dificuldade em localizar.
Exemplo de EEOC
É tolice pedir regulamentação sem contexto. Quando os governos reagem taticamente a algo sobre o qual pouco sabem, podem causar mais danos do que benefícios. Comecei com alguns exemplos antitruste, mas talvez o exemplo mais feio disso tenha sido a Equal Employment Opportunity Commission (EEOC).
O Congresso criou a EEOC em 1964 para resolver rapidamente o problema muito real da discriminação racial nos empregos. Havia duas causas fundamentais para a discriminação no local de trabalho. A mais óbvia era a discriminação racial no local de trabalho que a EEOC poderia abordar e tratou. Mas existia um problema ainda maior quando se tratava de discriminação na educação, que a EEOC não abordou.
Quando as empresas contratavam por qualificação e usavam qualquer uma das metodologias que o setor havia desenvolvido na época para recompensar funcionários com cargos cientificamente, aumentos e promoções com base em educação e realização, você era solicitado a interromper esses programas para melhorar a diversidade de sua empresa, que muitas vezes colocar minorias inexperientes em empregos.
Ao colocar minorias inexperientes em empregos para os quais não foram bem treinados, o sistema os levou ao fracasso, o que apenas reforçou a crença de que as minorias eram de alguma forma inadequadas quando, na verdade, para começar, não recebiam oportunidades iguais de educação e mentoria. Esse estado de coisas não era verdade apenas para pessoas de cor, mas também para mulheres, independentemente da cor.
Agora podemos olhar para trás e ver que o EEOC realmente não consertou nada, mas transformou o RH de uma organização focada no cuidado e na alimentação dos funcionários em uma organização focada na conformidade, o que muitas vezes significava encobrir os problemas dos funcionários em vez de do que enfrentar os problemas.
Brad Smith intensifica
O presidente da Microsoft, Brad Smith, me impressionou como um dos poucos líderes de tecnologia que pensa em termos amplos. Em vez de se concentrar quase exclusivamente em respostas táticas a problemas estratégicos, ele pensa estrategicamente.
O projeto da Microsoft é um exemplo porque enquanto a maioria está indo para o governo dizendo “você deve fazer alguma coisa”, o que pode levar a outros problemas de longo prazo, Smith expôs como ele acha que uma solução deve ser, e ele detalha elegantemente em um plano de cinco pontos.
Ele abre com uma declaração provocativa: “Não pergunte o que os computadores podem fazer, pergunte o que eles devem fazer”, o que me lembra um pouco a famosa frase de John F. Kennedy: “Não pergunte o que seu país pode fazer por você, Pergunte o que você pode fazer para seu país.” A declaração de Smith vem de um livro que ele escreveu em 2019 e se referiu como uma das questões definidoras desta geração.
Esta afirmação contextualiza a importância e a necessidade de proteger os seres humanos e nos faz pensar sobre as implicações das novas tecnologias para garantir que os usos que temos delas sejam benéficos e não prejudiciais.
Smith continua falando sobre como devemos usar a tecnologia para melhorar a condição humana como prioridade, não apenas para reduzir custos e aumentar receitas. Como a IBM, que fez um esforço semelhante, Smith e Microsoft acreditam que a tecnologia deve ser usada para tornar as pessoas melhores, não para substituí-las.
Ele também, e isso é muito raro hoje em dia, fala sobre a necessidade de antecipar onde a tecnologia precisará estar no futuro para que possamos antecipar problemas em vez de apenas responder a eles de forma constante e tática. A necessidade de transparência, responsabilidade e garantia de que a tecnologia está sendo usada legalmente são essenciais para esse esforço e bem definidas.
Análise de projeto de 5 pontos
O primeiro ponto de Smith é implementar e desenvolver estruturas de segurança de IA lideradas pelo governo. Muitas vezes, os governos não percebem que já possuem algumas das ferramentas necessárias para resolver um problema e perdem muito tempo reinventando a roda de maneira eficaz.
Houve um trabalho impressionante feito pelos EUA Instituto Nacional de Padrões e Tecnologia (NIST) na forma de um AI Risk Management Framework (AI RMF). É um quadro bom, embora incompleto. O primeiro ponto de Smith é usar e desenvolver isso.
O segundo ponto de Smith é exigir freios de segurança eficazes para sistemas de IA que controlam a infraestrutura crítica. Se uma IA que está controlando uma infraestrutura crítica sair dos trilhos, pode causar danos massivos ou até mesmo a morte em escala significativa.
Devemos garantir que esses sistemas sejam testados extensivamente, tenham supervisão humana profunda e sejam testados em cenários de problemas não apenas prováveis, mas improváveis, para garantir que a IA não interfira e piore as coisas.
O governo definiria as classes de sistemas que precisariam de proteções, forneceria orientação sobre a natureza dessas medidas de proteção e exigiria que os sistemas relacionados atendessem a certos requisitos de segurança – como serem implantados apenas em data centers testados e licenciados para tal uso.
O terceiro ponto de Smith é desenvolver uma ampla estrutura legal e regulatória baseada na arquitetura de tecnologia para IA. AIs vão cometer erros. As pessoas podem não gostar das decisões que uma IA toma, mesmo que estejam certas, e podem culpar as IAs por coisas sobre as quais a IA não tinha controle.
Em suma, haverá muito litígio por vir. Sem uma estrutura legal que abranja a responsabilidade, é provável que as decisões sejam variadas e contraditórias, tornando qualquer remédio resultante difícil e muito caro de alcançar.
Assim, a necessidade de uma estrutura legal para que as pessoas entendam suas responsabilidades, riscos e direitos para evitar problemas futuros e, caso ocorra um problema, encontrem um remédio válido mais rápido. Isso por si só poderia reduzir o que provavelmente se tornará uma enorme carga de litígios, já que a IA está praticamente no campo verde agora quando se trata de precedentes legais.
O quarto ponto de Smith é promover a transparência e garantir o acesso acadêmico e sem fins lucrativos à IA. Isso faz sentido; como você pode confiar em algo que não consegue entender completamente? As pessoas não confiam na IA hoje e, sem transparência, não confiarão amanhã. Na verdade, eu diria que, sem transparência, você não deve confiar na IA porque não pode validar se ela fará o que você pretende.
Além disso, precisamos de acesso acadêmico à IA para garantir que as pessoas entendam como usar essa tecnologia adequadamente ao ingressar na força de trabalho e acesso sem fins lucrativos para garantir que organizações sem fins lucrativos, principalmente aquelas focadas em melhorar a condição humana, tenham acesso efetivo a essa tecnologia para seus bons trabalhos.
O quinto ponto de Smith é buscar novas parcerias público-privadas para usar a IA como uma ferramenta eficaz para enfrentar os inevitáveis desafios sociais que surgirão. A IA terá um impacto enorme na sociedade, e garantir que esse impacto seja benéfico e não prejudicial exigirá foco e supervisão.
Ele aponta que a IA pode ser uma espada, mas também pode ser usada efetivamente como um escudo potencialmente mais poderoso do que qualquer espada existente no planeta. Deve ser usado para proteger a democracia e os direitos fundamentais das pessoas em todos os lugares.
Smith cita a Ucrânia como um exemplo onde os setores público e privado se uniram efetivamente para criar uma defesa poderosa. Ele acredita, como eu, que devemos imitar o exemplo da Ucrânia para garantir que a IA atinja seu potencial para ajudar o mundo a ter um amanhã melhor.
Conclusão: um amanhã melhor
A Microsoft não está apenas indo ao governo e pedindo que ele aja para resolver um problema que os governos ainda não entendem completamente.
Ele está apresentando uma estrutura para o que essa solução deve, e francamente deve, ser para garantir que mitiguemos os riscos que envolvem o uso de IA desde o início e que, quando houver problemas, existam ferramentas e remédios pré-existentes disponíveis para resolvê-los, não menos importante é um botão de desligamento de emergência que permite o encerramento elegante de um programa de IA que saiu dos trilhos.
Seja você uma empresa ou um indivíduo, a Microsoft está fornecendo uma excelente lição aqui sobre como obter liderança para resolver um problema, não apenas jogá-lo no governo e pedir que ele o conserte. A Microsoft delineou o problema e forneceu uma solução bem pensada para que a correção não se torne um problema maior do que era em primeiro lugar.
Bem feito!
Rastreadores Pebblebee
Como a maioria das pessoas, minha esposa e eu muitas vezes perdemos as coisas, o que parece acontecer mais quando corremos para sair de casa e colocamos algo no chão sem pensar onde o colocamos.
Além disso, temos três gatos, o que significa que o veterinário nos visita regularmente para cuidar deles. Vários de nossos gatos descobriram lugares únicos e criativos para se esconder, para que não tenham suas unhas cortadas ou tapetes cortados. Então, usamos rastreadores como Tile e AirTags.
Mas o problema com os AirTags é que eles só funcionam mesmo se você tiver um iPhone, como minha esposa, o que significa que ela pode rastrear as coisas, mas eu não posso porque tenho um telefone Android. Com o Tiles, você deve substituir o dispositivo quando a bateria acabar ou substituir a bateria, o que é uma dor. Então, muitas vezes, a bateria acaba quando precisamos encontrar algo.
Pebblebee funciona como esses outros dispositivos, mas se destaca por ser recarregável e funcionar com o aplicativo Pebblebee, que roda em iOS e Android. Ou funcionará com os aplicativos nativos desses sistemas operacionais: Apple Find My e Google Find My Device. Infelizmente, não fará as duas coisas ao mesmo tempo, mas pelo menos você pode escolher.
Rastreadores Pebblebee: Clipe para chaves, bolsas e muito mais; Tag para malas, jaquetas, etc.; e Cartão para carteiras e outros espaços estreitos. (Crédito da imagem: Pebblebee)
Ao tentar localizar um dispositivo de rastreamento, ele emite um sinal sonoro e acende, tornando as coisas mais fáceis de encontrar à noite e menos como um jogo ruim de Marco Polo (eu gostaria que os detectores de fumaça fizessem isso).
Como o Pebblebee funciona com Apple e Android e você pode recarregar as baterias, ele atende a uma necessidade pessoal melhor do que o Tile ou o AirTag da Apple – e é meu produto da semana.
As opiniões expressas neste artigo são do autor e não refletem necessariamente as opiniões da ECT News Network.