A crescente dependência que temos de IA e seus algoritmos nos obriga a prestar muita atenção ao seu uso e a qualidade do seu treinamento

Acabei de ler um relatório de extrema importância, “The Malicious Use of Artificial  Intelligence: Forecasting, Prevention, and Mitigation”, que em suas 100 páginas aborda os potenciais riscos de utilização, de forma inadequada, das tecnologias de Intelifência Artificial. Sabemos, por experiência própria, que o treinamento de algoritmos influencia o processo de decisão das redes neurais.

Um estudo do MIT – “Facial recognition software is biased towards white men, researcher finds” –  mostrou que, baseado no aprendizado fornecido pelas imagens apresentadas, alguns algoritmos de reconhecimento facial reconheciam com mais precisão rostos de homens brancos. O algoritmo não era machista ou racista. Simplesmente aprendeu a reconhecer com mais precisão este rostos pois mais imagens de homens brancos lhes foi fornecido. Uma outra  experiência do MIT, Norman, criou o primeiro algoritmo de IA com viés psicopata. A proposta foi mostrar que um treinamento inadequado pode gerar respostas completamente absurdas. O culpado não é o algoritmo, mas a base de dados usada no seu treinamento.

O crescente uso da IA nos obriga a prestar atenção aos resultados que os algoritmos nos darão, pois mais e mais estarão afetando nossas vidas. Além disso, mecanismos extremamente seguros de segurança devem ser colocados em prática para que sistemas de IA não sejam afetados por ataques cibernéticos. Hoje, os sistemas de IA executam apenas uma parte relativamente pequena das tarefas que os seres humanos são capazes de fazer. No entanto, mesmo essa pequena parte tem impactos significativos na vida das pessoas. Por exemplo, na área médica, onde pouco a pouco tarefas repetitivas feitas por humanos passam a ser feitas por algoritmos. Isso está bem demonstrado no artigo “London hospitals to replace doctors and nurses with AI for some tasks”. No futuro, espera-se que os sistemas de IA excedam o desempenho dos seres humanos mais talentosos, em tarefas bem específicas.

Todas novas tecnologias nos ajudam a resolver problemas existentes, mas também geram novos desafios. A IA cria espaço para riscos de segurança que não eram possíveis antes. Os sistemas de IA podem imitar as vozes das pessoas de forma realista, criando arquivos de áudio que se assemelham a gravações de discursos humanos. Assim, ficaria bem difícil para um humano conseguir identificar se o que ele está ouvindo veio de alguma pessoa ou foi gerado artificialmente por sistemas de IA. As consequências podem ser bastante dramáticas. Portanto, não é à toa que diversos estudos começam a se debruçar sobre o assunto.

Um artigo interessante é “How Will Artificial Intelligence Affect the Risk of Nuclear War?. nele o autor levanta algumas questões sobre o uso de IA nas forças armadas. Se um algoritmo de Machine Learning que examina os céus para lançamentos nucleares pudesse ser enganado, ele poderia alimentar os humanos que estivessem no controle com informações incorretas. Embora muitas vezes o erro humano possa ser o maior risco, confiar excessivamente em sistemas automatizados e algoritmos pode ser catastrófico.

O estudo da Rand, “How Artificial Intelligence Could Increase the Risk of Nuclear War, aprofunda o tema. O assunto é de extrema importância e uma análise bem detalhada pode ser encontrada em “Artificial Intelligence and National Security, produzida pela Harvard Kennedy School. A conclusão do estudo é que os avanços na IA afetarão a segurança nacional dos EUA ( e de todos os países) ao impulsionar a mudança três áreas: superioridade militar, superioridade da informação e superioridade econômica.

Ainda estamos no início da evolução da IA.  E o que devemos esperar daqui para a frente?

Antes de mais nada, não pensemos linearmente. A evolução das tecnologias digitais e da IA é exponencial e avanços radicais serão sentidos em pouco tempo.  Exemplos de pensamento exponencial são os próprios sistemas de IA sendo usados para criar futuros sistemas de IA. Como seria um sistema de IA que evoluísse automaticamente, por auto aprendizado? Uma máquina que alcançasse e um QI elevadíssimo, como agiria? Sabemos hoje que uma pessoa com QI de 130 consegue ser muito melhor no aprendizado escolar que uma de 90. Mas, se a máquina chegar a um QI de 7.500? Não temos a mínima ideia do que poderia ser gerado por tal capacidade.

Não tenho dúvidas de que o forte impacto da IA na sociedade, nas empresas e nas profissões é um assunto de extrema importância. Já em 2016, o Fórum Econômico Mundial publicou um relatório instigante, intitulado “The Future of Jobs: Employment, Skills and Workforce Strategy for the Fourth Industrial Revolution”, analisando os impactos da evolução tecnológica, onde a IA tem papel fundamental no cenário futuro. O relatório lembra que provavelmente 65% das crianças que estão nas escolas primárias hoje estarão trabalhando em funções completamente novas, que simplesmente ainda não existem.

Sobre o Brasil, o relatório aponta algumas barreiras desafiadoras como a ainda grande incompreensão das disrupções que já estão surgindo (55% dos entrevistados), a falta de alinhamento da estratégia da força de trabalho das empresas e, claro, dos órgãos públicos com as inovações disruptivas (48%), e devido à crise econômica, à pressão dos acionistas pela rentabilidade de curto prazo (48%).

Os algoritmos e as máquinas substituirão os humanos? Em muitas funções sim. Muitas profissões existentes hoje deixarão de existir. A profissão de motorista, por exemplo, não será uma que sobreviverá muito mais que uma ou duas décadas. Comumente se diz que a IA destruirá empregos, mas criará outros. É verdade, mas os empregos gerados não serão necessariamente ocupados pelas pessoas que perderam os seus trabalhos.

No fim, teremos uma mudança significativa na relação pessoas/máquinas e isso vai se refletir nas funções, academia e relações trabalhistas. Recomendo a leitura do estudo “The Future of Work: Jobs and skills in 2030”, feito no Reino Unido, portanto em um contexto diferente do brasileiro, mas que pode nos indicar alguns caminhos. Um outro estudo, da McKinsey mostra claramente que o uso da IA vai demandar a ênfase em skills por parte de nós, humanos, que deixamos de lado com a sociedade industrial. Ficamos muito focados em especializações operacionais e menosprezamos habilidades cognitivas como empatia, sociabilidade, criação e emoção. Vale a pena ler “Skill shift: Automation and the future of the workforce”.

Vamos analisar funções que são tipicamente humanas, como as que demandam capacidade de julgamento. As limitações atuais da IA nos levam a crer que o julgamento humano não será automatizado tão cedo. Entretanto, algoritmos podem melhorar o julgamento humano, buscando e reunindo fragmentos de informações que estejam espalhados por inúmeras fontes, agregando-os de forma que sejam úteis. Na área jurídica, por exemplo, onde muitas informações sobre casos similares e jurisprudências, leis e regulamentos diversos, que demandam exaustivas e quase sempre incompletas buscas por dezenas de advogados, podem ser agregadas em poucos minutos por algoritmos de IA.

Já na década de 50 do século passado, alguns estudos mostraram que algoritmos computacionais conseguiam superar os julgamentos humanos subjetivos. O psicólogo americano Paul Meehl documentou 20 estudos que compararam as previsões de especialistas humanos com algoritmos preditivos simples. Lembrem-se,  estamos falando de computadores de sessenta anos atrás! Os estudos variaram desde a previsão de como um paciente esquizofrênico responderia à terapia de eletrochoque até a probabilidade de um aluno ter sucesso na faculdade. O estudo de Meehl mostrou que em um de cada 20 casos analisados, os peritos humanos foram sobrepujados por algoritmos simples. Pesquisas posteriores confirmaram as descobertas de Meehl. Mais de 200 estudos compararam a previsão de algoritmos e de especialistas, com algoritmos estatísticos quase sempre superando o julgamento humano. Nos poucos casos em que os algoritmos não superaram os especialistas, os resultados foram geralmente empates.

A razão, segundo os estudos é que os humanos tendem a simplificar suas tomadas de decisão, baseando-se fortemente na intuição e em experiências passadas. Funciona muito bem quando temos que tomar decisões rápidas, como geralmente acontece às centenas durante o dia. Mas, quando a decisão envolve uma análise mais criteriosa e demorada, isenta, com dados mais abrangentes, como a contratação de um funcionário, a decisão enviesada pela intuição, experiência pessoal e preconceitos acaba sendo prejudicada.

Esses resultados mostram que os humanos são dispensáveis? Pessoalmente, não creio, pelo menos em um horizonte previsível. Embora algoritmos possam superar o julgamento de especialistas, eles são direcionados a domínios de conhecimento restritos.  Um algoritmo treinado para traduzir textos de uma língua para outra não é capaz de reconhecer imagens em uma fotografia e muito menos dirigir um veículo. Além disso, o treinamento dos algoritmos depende da alimentação de dados gerados pelos próprios especialistas, que acabam selecionando, pela sua intuição, o que parece ser mais relevante. Isso, por si, já cria um viés para o algoritmo.

Embora sistemas de IA possam automatizar muitas tarefas rotineiras, é improvável que o julgamento humano seja, pelo menos nos próximos dez a quinze anos, terceirizado para algoritmos. Mas, quando se fala em um horizonte maior, como 2050, o cenário pode ser bem diferente! Um estudo realizado com pesquisadores de IA, aponta que uma máquina superinteligente – Human Level Machine Intelligence (HLMI) – tem 10% de chance de aparecer por volta de 2020 e 50% em torno de 2050. Para 2100, a probabilidade é de 90%!

No curto prazo, entretanto, será mais realista usarmos de forma colaborativa a IA para eliminar pré-conceitos embutidos nas intuições e melhorar os julgamentos humanos. Quando os dados são abundantes e os aspectos relevantes do mundo não estão mudando rapidamente, é adequado nos apoiarmos em métodos estatísticos. Mas, quando pouco ou nenhum dado está disponível, a inteligência coletiva pode ser usada para tirar o máximo proveito do julgamento de especialistas. Por exemplo, o Google, uma típica empresa de IA, usa em conjunto a “sabedoria da multidão” de humanos e métodos estatísticos baseados em IA para melhorar as decisões de contratação, onde a filosofia é “complementar os tomadores de decisão humanos e não substituí-los”.

IA

A IA não envolve uma equação de soma zero, humanos versus IA, mas humanos mais IA gerando mais inteligência. Claro que, para isso, temos que nos preparar. A academia formando profissionais para novas funções nas profissões existentes e para novas profissões. As empresas e a sociedade discutindo os efeitos da IA nos seus negócios.

E isso nos leva de volta ao início do texto. A crescente dependência que temos de IA e seus algoritmos nos obriga a prestar muita atenção ao seu uso e a qualidade do seu treinamento. Um sistema de IA é um conjunto de motores (algoritmos) e combustíveis (dados). Se  a qualidade do combustível for ruim, o motor não vai funcionar adequadamente. É isso que a Harvard Business Review afirma em “If Your Data Is Bad, Your Machine Learning Tools Are Useless”. E complemento, um sistema de IA mal protegido também pode ser uma ameaça, que só vamos descobrir quando algo acontecer.

IA é uma tecnologia (ou ciência) bem poderosa. Mas devemos saber usá-la. Como a energia nuclear pode ser uma arma de destruição ou fornecer luz e vida para uma cidade, a IA tem dois lados. Depende de nós escolher o lado certo.

 

Texto por:

Cezar Taurion – Head of Digital Transformation & Economy at KICK Ventures & Angel Investor