05/05/2019
Em Debate
Inteligência artificial
Juarez Quadros do Nascimento
Engenheiro Eletricista, ex-presidente da Anatel e ex-ministro das Comunicações
Introdução
Em 1956, um grupo de cientistas promoveu um "brainstorm" no campus do renomado "Dartmouth College", em New Hampshire (EUA). Grandes nomes da Ciência da Computação como os americanos John McCarthy, Marvin Minsky e Trenchard More, e o inglês Oliver Selfridge, discutiram a automação, matéria que florescia na academia e dividia opiniões sobre a capacidade de máquinas exercerem tarefas humanas. McCarthy, então professor de Matemática em Dartmouth, é apontado como o autor do termo Inteligência artificial (IA), que foi usado no convite do evento.
Os quase dois meses de "brainstorm" em Dartmouth permitiu àqueles especialistas acreditarem na construção de computadores para desempenhar tarefas ligadas à cognição, incluindo abstração e uso de linguagem. "Todos os aspectos da aprendizagem (ou qualquer outra característica da inteligência) podem, em princípio, ser descritos tão precisamente que uma máquina será capaz de simulá-los", resumia o programa do evento.
Um outro cientista da computação o alemão Sebastian Thrun, que participou do desenvolvimento do carro autônomo do Google e de pesquisas com aplicações de IA, há anos afirma que com a inovação tecnológica os humanos ficarão livres de tarefas repetitivas e poderão se concentrar em atividades criativas.
A propósito, uma pesquisa do Laboratório de Aprendizado de Máquina em Finanças e Organizações, da Universidade de Brasília (UnB) indica que profissões que somam 54% dos empregos formais no Brasil têm chances de serem automatizadas, quando desempenhadas por robôs, até o ano de 2026.
Na sequência, abordo o ambiente estratégico sobre o domínio da IA, com o gasto global, incluindo o Brasil. Nos tópicos seguintes comento alguns outros pontos relevantes relativos ao tema IA, tais como: a modelagem regulatória, os aspectos éticos e filosóficos, o momento brasileiro e por fim, nas considerações finais, alerto sobre a necessidade da autoridade brasileira de proteção de dados.
Ambiente estratégico
O domínio da IA é um plano estratégico de muitos governos ao redor do mundo. A China, por exemplo, pretende criar uma indústria local da ordem de US$ 150 bilhões para tornar o país a principal potência do setor, até 2030.
Os gastos globais com sistemas de IA devem alcançar US$ 35,8 bilhões em 2019, o equivalente a R$ 140 bilhões, o que representa um aumento de 44% sobre os investimentos realizados em 2018. Se os números sugerem que as indústrias passaram a investir agressivamente em capacidades de IA, a previsão da IDC (consultoria especializada em tecnologia) é de que vão mais do que dobrar até 2022, para US$ 79,2 bilhões, ou seja, mais de R$ 300 bilhões.
A IDC também prevê que no Brasil, em 2019, as soluções de próxima geração para serviços gerenciados e soluções inteligentes, como IA, deverão atingir US$ 671 milhões, crescendo em ritmo 2,5 vezes mais rápido do que soluções tradicionais. Por sua vez, os gastos em serviços de gestão de segurança (MSS, na sigla em inglês) ultrapassarão os US$ 548 milhões, com um acirramento da competição entre provedores puros e operadoras de telecomunicações.
Visando atuar na nova onda tecnológica, pesquisadores de universidades brasileiras; tendo à frente o brasileiro Sergio Novaes, do Núcleo de Computação Científica da Universidade Estadual Paulista (Unesp); criaram o "Advanced Institute for Artificial Intelligence", instituição que pretende aproximar o mundo acadêmico brasileiro ao mundo emprearial, para a execução de projetos na área de IA. Fazem parte da instituição 34 pesquisadores de 12 universidades, entre elas Unesp, Universidade de São Paulo (USP), Universidade Estadual de Campinas (Unicamp) e Instituto Tecnológico de Aeronáutica (ITA).
A inspiração para o grupo brasileiro vem de três pioneiros da IA: o canadense Geoffrey Hinton, e os franceses Yann LeCun e Joshua Bengio. Recentemente, eles dividiram o Prêmio Turing (o Nobel da Computação). Além do trabalho inovador com redes neurais, eles influenciam pesquisadores junto à pesquisa no Canadá. Esse trabalho deu origem ao "Canadian Institute for Advanced Research". Fundado em 1982, o Instituto mantém uma rede de pesquisadores em áreas que vão de genética a energia solar.
Modelagem regulatória
Ante o crescente uso de dados, em 2016, a União Europeia atualizou suas diretivas para proteção de dados com o Regulamento Geral sobre a Proteção de Dados (GDPR, sigla de "General Data Protection Regulation"). Seus dispositivos regulam a coleta, o armazenamento e o uso de informação pessoal. Também dá aos órgãos de controle de uso de dados o poder investigativo, eficientes ferramentas corretivas e permitem a aplicação de multas. Assim, o GDPR aumentou tanto direitos quanto deveres e sanções.
Nos Estados Unidos, em 2019, legisladores norte-americanos apresentaram um projeto de lei que vem sendo considerado como um dos primeiros grandes esforços federais regulatórios para a IA. Chamado de "Algorithmic Accountability Act", o projeto de lei dispõe que as empresas auditem seus sistemas de "machine learning" quanto a preconceitos e discriminação, e tomem medidas corretivas se tais problemas forem identificados. Outra exigência é que essas empresas auditem os processos de aprendizado de máquina que envolvam dados confidenciais.
A competência regulatória será da Comissão Federal de Comércio (FTC, sigla de Federal Trade Commission), agência também encarregada das proteções do consumidor e das regulamentações antitruste nos EUA. O projeto de lei integra uma estratégia maior para levar a supervisão regulatória a qualquer processo e produto de IA no futuro.
Além dos EUA, o Reino Unido, a França e a Austrália, entre outros países, também já propuseram ou aprovaram legislações semelhantes para responsabilizar as empresas de tecnologia por seus algoritmos, e a União Europeia acabou de apresentar suas diretrizes iniciais para IA.
Por sua vez, o Fórum Econômico Mundial também dá atenção ao tema IA. Quer saber como fazer uma máquina "pensar" eticamente. Na concepção do Fórum, três estratégias devem ser adotadas por qualquer um que esteja construindo sistemas de IA: (i) inclua humanos em cenários sensíveis adotando um sistema "human-in-the-loop"; (ii) inclua proteções para que as máquinas possam se autocorrigir; e (iii) crie um código de ética.
Depois de fixar diretrizes às empresas de mídia com uma lei de proteção aos direitos autorais, a União Europeia definiu um conjunto de normas éticas para direcionar o desenvolvimento da IA na União. "Toda decisão tomada por um algoritmo precisa ser verificada e explicada", diz a búlgara Mariya Gabriel, comissária europeia para Economia e Sociedade Digital. Segundo ela, a IA precisa ser confiável e segura, e as empresas que a criaram devem ser legalmente responsáveis pelas decisões tomadas pelo sistema.
As empresas que trabalham com IA precisam instaurar mecanismos para evitar o mau uso da tecnologia, assinalou recentemente o vice-presidente da Comissão Europeia, o estoniano Andrus Ansip. De acordo com a Comissão, os projetos de IA devem ser transparentes, ter supervisão humana e algoritmos seguros e confiáveis, e precisam estar sujeitos a regras de privacidade e proteção de dados, entre outras recomendações.
Outros aspetos regulatórios importantes do uso responsável da IA são a privacidade de dados pessoais coletados, armazenados, utilizados e compartilhados, a fim de evitar que decisões tomadas por algoritmos de IA sejam preconceituosas, levando em consideração aspectos como classe social, credo, doença pré-existente, idade, nacionalidade, orientação sexual e raça.
Aspectos éticos e filosóficos
O escritor israelense Yuval Noah Harari em seus livros discute o futuro do mundo. Professor da Universidade Hebraica de Jerusalém, ele questiona como interligar os fenômenos da transformação da natureza humana com os modernos conceitos da biotecnologia e da IA, com fulcro em aspectos políticos e éticos.
Em "Homo sapiens: Uma breve história de humanidade" (2011), Harari pensou o passado, como o Homo dominou o mundo e quais os seus comportamentos. Investiga o futuro da humanidade em busca de uma resposta sobre qual será o destino da Terra.
No livro "Homo Deus: Uma breve história do amanhã" (2015), Harari volta a combinar Ciência, História e Filosofia para entender quem somos e descobrir para onde vamos. Pergunta então o autor: "Em um mundo dominado por algoritmos, o que significará a existência de IA que gerencie aspectos cada vez mais relevantes da vida e da sociedade? ".
Em "21 lições para o século XXI" (2018), Harari aborda temas como desafios tecnológicos, desespero, esperança, verdade e resiliência; e os seus desdobramentos, como: trabalho, liberdade, igualdade, religião, imigração, terrorismo, justiça, educação e meditação. Nesse livro, Harari colabora para aprimorar uma agenda específica de debates sobre IA e outras coisas. Segundo ele, um profissional pode ganhar espaço nos próximos anos: o Filósofo.
A valorização do Filósofo, segundo Harari, ocorrerá em função da IA, onde os Filósofos ajudariam na programação de máquinas inteligentes, principalmente aquelas que precisem lidar com "dilemas morais". Mas, os "algoritmos filosóficos" dificilmente serão perfeitos. Para esse cenário se concretizar, relata o autor, "é preciso encontrar uma maneira de codificar a ética em números e estatísticas precisas".
Questionando o tema, o físico inglês Stephen Hawking (professor lucasiano da Universidade de Cambridge, falecido em 2018) o fez da seguinte forma: "Imagine uma tecnologia capaz de superar mercados financeiros, ser mais inventiva que pesquisadores humanos, manipular melhor do que grandes líderes e desenvolver armas que sequer possamos entender. O impacto a curto prazo da IA vai depender de quem a controla. O de longo prazo dependerá se vamos conseguir controlar de alguma maneira".
Em seu livro final, "Breves respostas para grandes questões" (2018), Hawking pergunta: "A Inteligência artificial vai nos superar? ". Nesse capítulo, afirma o autor: "Devido ao grande potencial da IA, é importante pesquisar como colher seus benefícios ao mesmo tempo em que evitamos potenciais imprevistos. O sucesso na criação da IA seria o maior acontecimento da história humana. Infelizmente, também pode ser o último, a menos que aprendamos a prevenir os riscos".
O professor espanhol Ramón López de Mántaras (Instituto de Pesquisas em Inteligência Artificial, do Conselho Nacional de Pesquisas Espanholas), afirma: "É verdade que há alguns anos ninguém podia antever que a Inteligência artificial estaria tão na moda e se falaria tanto dos problemas potencialmente associados a ela. Mas já faz 42 anos que o professor teuto-americano Joseph Weizenbaum, do Massachusetts Institute of Technology (MIT), escreveu que nunca deveríamos deixar que os computadores tomassem decisões importantes, porque nunca terão qualidades humanas como a compaixão e a sabedoria".
Os questionamentos não se esgotam, como ressalta a americana Meredith Broussard (professora do curso de Jornalismo de Dados, na Universidade de Nova York e autora do livro "Artificial Unintelligence" ou "Estupidez Artificial"), no artigo "Estupidez artificial: o problema" (El País, 18/11/2018): "Imaginamos que haja um pequeno cérebro humano dentro do computador, mas não; é só programação e matemática. As soluções tecnológicas são sempre melhores que as humanas, diziam os programadores (alguns). Os pioneiros deste campo diziam que o mundo da alta tecnologia seria glorioso e livre. Demoramos muito tempo a questioná-los".
Tratando do tema, a Organização para a Cooperação e Desenvolvimento Econômico (OCDE) quer definir princípios éticos para o desenvolvimento de IA. Com esse objetivo, foi constituído um grupo de trabalho multidisciplinar com diversos especialistas. Suas conclusões serão levadas às próximas reuniões do G7 e G20, ainda em 2019, afirmou o secretário geral da OCDE, o mexicano Ángel Gurría, em Barcelona, no recente Mobile World Congress.
A Organização das Nações Unidas para a Educação, a Ciência e a Cultura (Unesco) e a Comissão Europeia também montaram seus grupos de conselheiros para definir princípios para a IA. Uma das maiores preocupações é de que os robôs reproduzam preconceitos dos humanos.
Momento brasileiro
No Brasil, em 2018, o Congresso Nacional aprovou a Lei Geral de Proteção de Dados (LGPD), que deverá entrar em vigor em 2020. Leis como a europeia (GDPR) e a brasileira (LGPD) são dispositivos importantes para o aumento da transparência da IA, o que, também ajuda a reduzir um dos problemas do uso de modelos gerados a partir de dados: a presença de preconceito na tomada de decisão.
A LGPD adotada pelo Brasil se aplica tanto ao setor privado quanto ao público. Resta saber como será o órgão responsável pela fiscalização em aplicação da lei. Na modelagem europeia, na qual a lei brasileira se inspirou, há uma autoridade nacional de dados independente responsável por essas atribuições.
A independência se configura por diversas características: a autoridade não é subordinada a nenhum órgão público da administração direta, seus diretores são indicados e referendados por processo que envolve os Poderes Executivo e Legislativo, os diretores têm mandato fixo e não podem ser destituídos.
Quando o Poder Executivo sancionou a LGDP (Lei 13.709/2018), vetou a criação da Autoridade Nacional de Proteção de Dados (ANPD) na forma como foi proposta pelo Congresso Nacional. O argumento do governo foi de que a criação de autarquias vinculadas à União é de competência exclusiva do Executivo.
A lei brasileira aprovada no Legislativo previa uma autoridade semelhante à lei europeia. Como esse trecho da lei foi vetado, em substituição ao veto, em 27/12/2018, foi proposta pelo Poder Executivo a Medida Provisória 869 que prevê a criação da uma autoridade de dados, porém ligada à Presidência da República.
No final de mandato (Dezembro/2018), o governo sainte publicou a referida medida provisória, que foi renovada (Janeiro/2019) pelo governo entrante, sem mudanças. A medida provisória em tramitação no Congresso que vincula a ANPD à Presidência da República, prejudica a independência da instituição, especialmente para poder fiscalizar o uso de dados pessoais. No contexto de IA, o formato da ANPD e a estrutura à qual estará vinculada precisam ser revistos.
Como o Brasil continua disposto a ingressar na OCDE, deve considerar as diretrizes da Organização sobre privacidade e a análise que ela fez sobre o tema. A OCDE possuía 36 países até 2018, dos quais dois latino-americanos: México (desde 1994) e Chile (desde 2010). A OCDE destaca o México como o primeiro país da região com autoridade de proteção de dados independente e autônoma. A Colômbia teria sido aceita em 2018 e seria o 37º país membro. E o Brasil, quando será?
Entre as recomendações da OCDE consta que autoridades de dados possuam governança, recursos e capacidade técnica necessários para exercer seus poderes efetivamente. Nesse sentido, a autoridade precisa ter jurisdição sobre todos os tipos de "controladores de dados", incluindo aqueles governamentais.
Provavelmente o Brasil enfrentará dificuldades junto à OCDE se levar em frente o modelo apresentado na Medida Provisória. Esse tema, entre outros a serem tratados, poderá ser um impeditivo para o ingresso do Brasil na OCDE, uma vez que os países participantes aceitam os princípios exigidos de democracia representativa e de economia de mercado.
Considerações finais
Como a IA incorpora vários aspectos da vida cotidiana, com significativas e rápidas mudanças que pode provocar, a cautela com as consequências precisa ser ainda maior. Algumas das preocupações dizem respeito a, por exemplo, máquinas tomando decisões que afetam de modo direto a vida das pessoas, a invasão de privacidade por meio do acesso a dados pessoais e a amplificação de modelos preconceituosos. Isso tudo tem levado a um movimento internacional em defesa do uso responsável da IA, o que engloba aspectos como reprodutibilidade, transparência, privacidade e justiça.
A IA pode ajudar a detectar ameaças de fraude, garantir segurança cibernética, proteger a liberdade de expressão, prevenir crimes, melhorar o gerenciamento de riscos financeiros e de saúde, e lidar com as mudanças climáticas. Mas, também, infelizmente pode ser usada para apoiar práticas comerciais inescrupulosas e governos autoritários.
Como as disposições contidas na LGPD são importantes para a transparência das aplicações, processos e soluções dos problemas associados à IA, então, no Brasil, a ANDP precisa ser uma entidade integrante da Administração Pública Federal indireta, submetida a regime autárquico especial, caracterizada por independência administrativa, ausência de subordinação hierárquica, mandato fixo e estabilidade de seus dirigentes, assim como autonomia financeira.
Portanto, a Autoridade Nacional de Proteção de Dados (ANDP) requer a atenção dos membros dos poderes constituídos (Legislativo, Executivo e Judiciário), com vontade republicana, objetivando inserir o País no contexto positivo mundial, com visão estratégica, empregando IA. O Brasil não pode perder essa onda. Afinal de contas, somos a 8ª economia mundial.
Comente!
Use o espaço abaixo para enviar sua opinião para publicação como comentário a esta matéria para nosso site:
Nota: As informações expressadas nos artigos publicados nesta seção são de responsabilidade exclusiva do autor.
Newsletters anteriores
Mais Eventos
Mais Webinares