É preciso começar do zero em um mercado dominado pela Inteligência Artificial?

*Por Gustavo Cazangi, Maurício Schiezaro e Marcelo Abreu

O termo Inteligência Artificial (IA) se popularizou nos últimos anos, a ponto de encontrarmos diariamente notícias do tipo: “IA é capaz de detectar câncer de pele através de fotos”; ou “IA derrota humanos em torneio de pôquer”. Mas por que só agora estamos vivendo este hype e, até que ponto será preciso dominar todas as técnicas de IA para conseguir usufruir dos avanços recentes deste campo de pesquisa?

A inteligência artificial nasceu na década de 40, quando foi proposto o primeiro modelo de neurônio artificial, que inspirado na biologia humana tenta reproduzir o comportamento de um neurônio real por meio de um modelo matemático. Logo surgiram modelos matemáticos complexos de redes de neurônios artificiais, que eram compostas por várias camadas de neurônios interligadas, assim como o cérebro humano.

Durante as décadas seguintes, com outras técnicas mais promissoras surgindo, as redes neurais foram caindo em desuso. Diante do pouco poder computacional disponível, os cientistas se viam obrigados a trabalhar com modelos matemáticos mais simples (com poucas camadas de neurônios) realizando simplificações ou pré-processamento, obtendo resultados de pouca expressão. Um exemplo é a extração manual de features de imagens.

Apesar de preterida, em relação a outras técnicas, as redes neurais foram as responsáveis por trazer de volta a inteligência artificial aos holofotes. Houve um grande esforço no sentido de paralelizar os algoritmos de redes neurais, justamente para tirar proveito do avanço exponencial de processamento de dados, em especial nos processadores gráficos (GPU). Para se ter ideia da diferença, um “simples” iPhone 6 é cerca de 60 vezes mais rápido que um supercomputador de 1990.

Somando isso ao poder de processamento e ao volume de dados disponíveis atualmente, temos o cenário ideal para que as redes neurais de múltiplas (e muitas) camadas, que em inglês são conhecidas como Deep Neural Networks, se sobressaiam com resultados interessantes e soluções eficientes. Como já era esperado pelos pesquisadores, era preciso uma rede de neurônios complexa para identificar e extrair sozinha detalhes e atributos dos problemas, bem como uma enorme quantidade de dados para treinamento.

Esses fatores explicam as manchetes citadas no início do texto. Com um grande número de imagens de câncer de pele, ou então de combinações de cartas de poker, a rede neural foi treinada e se especializou em resolver e identificar características específicas desses problemas. Um dos primeiros projetos do Google nessa linha, em 2012, utilizou 10 milhões de imagens de gatos, obtidos por meio de vídeos do Youtube, para treinar o reconhecimento deste felino tão amado pela internet. Hoje este algoritmo é a base da busca do Google Imagens.

Naturalmente ainda existem muitos desafios a serem vencidos neste campo, entre eles a tendenciosidade dos dados, o chamado “bias” e a interferência humana através da categorização dos dados para treinamento (técnica conhecida como aprendizado supervisionado). Um site realizou um concurso de beleza no qual os jurados eram algoritmos de IA e o resultado foi desastroso, até sendo considerado racista: dos eleitos, apenas um era negro e poucos eram asiáticos, todos os demais eram brancos. Outro exemplo de influência dos dados no treinamento é o de redes de propaganda na internet que exibem anúncios de emprego com remuneração menor para mulheres.

Para conseguir superar estes obstáculos, os pesquisadores estão se voltando para o aprendizado não supervisionado, onde as redes devem aprender sozinhas, sem qualquer tipo de pré-classificação dos dados. Neste campo, duas técnicas vêm se destacando: as chamadas Generative Adversarial Networks (GAN) e Reinforcement Learning (RL). As primeiras são redes capazes de aprender e sintetizar conjuntos de dados, por exemplo gerar imagens distintas, mas que são idênticas ao olhar humano, sendo utilizadas para melhorar o resultado do aprendizado da rede. Já o RL, é uma técnica baseada no Behaviorismo, área da psicologia que procura entender o comportamento dos indivíduos, onde a premissa é que comportamentos são reflexos produzidos por certos estímulos no ambiente. Portanto a rede neural é estimulada a descobrir quais ações que vão levá-la ao maior benefício, sendo aplicada em vários casos famosos como o do complexo jogo de tabuleiro GO.

Com tantas técnicas e vertentes, se localizar dentro do mercado de AI é uma tarefa complexa. Encontrar mão de obra especializada então, é como encontrar agulha no palheiro. Algumas ferramentas ajudam empresas e desenvolvedores a darem o passo inicial economizando tempo e dinheiro, entre elas se destacam os frameworks gratuitos Theano, TensorFlow (Google), Caffe (Berkley), DSSTNE (Amazon), H2O.ai, Torch, entre outros. Estes frameworks fornecem implementações de estruturas e algoritmos de IA, além de permitir parametrização e customização, deixando que o desenvolvedor foque apenas em resolver o problema com as técnicas disponíveis.

Sim, deu para notar que a inteligência artificial está mesmo por toda parte, até nos anúncios que vemos nos sites pela internet, conquistando cada vez mais mercado. Não só as grandes empresas de tecnologia como Google, Amazon, IBM e Apple vem investindo pesado nessa área. Um estudo da Bloomberg apontou que em 2016 já existiam mais de 2600 startups se dedicando exclusivamente a AI, sendo que o mercado de U$8 bilhões deve saltar para aproximadamente U$47 bilhões em 2020, segundo o IDC. E você, vai ficar fora dessa?

*Gustavo Cazangi é Líder de Emerging, Maurício Schiezaro é Líder de Data Science do FTI e Marcelo Abreu é Diretor de Novos Negócios e Inovação do Venturus

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

WP Twitter Auto Publish Powered By : XYZScripts.com