OPINIÃO

Inteligência Artificial causa furor e não é hype!

Por Eduardo Prado*
17/04/2017 ... Convergência Digital

Recentemente quando foi noticiado que a Apple tinha conseguido autorização para testar seu carro autônomo (sem motorista) na Califórnia [1] constatamos que o DMV (o “Detran” californiano) já tinha a mesma autorização para 30 outras empresas (sic!) [2]. Por que esse “furor” para testar algo que só vai estar no mercado em 2026? [3] Isso é porque o negócio de “self-driving car” está extremamente alavancado e isso foi muito provocado pela Inteligência Artificial (IA) que viabilizou este negócio desde a escalada exponencial dela a partir de 2012 quando a tecnologia de “Deep Learning” [4] que viabiliza a Visão por Computador desse carro autônomo deslanchou.

Hoje a IA está muito (muito mesmo) “bombada” (e não é “hype”) no mercado mundial e muito desse furor se deve ao interesse no “Deep Learning” da IA. No fundo no fundo, a IA é baseada em algoritmos que manipulam “dados” que é a sua força motriz. Esses algoritmos da IA são compostos de 03 famílias principais: (1) “Machine Learning” (ou Aprendizagem de Máquina) [5]; (2) “Deep Learning” (ou Rede Neural Profunda); e NLP (Processamento de Linguagem Natural) [6]. O “Deep Learning” é um subconjunto do grupo de “Machine Learning”. Para uma Organização “levar a vantagem” da IA, ela precisa ter dados (e muito dados mesmo para treinar os modelos matemáticos da IA). Sem “dados” é “no way” para a IA ... done!

Os dados atualmente representam um conjunto de alto valor estratégico para as organizações. As empresas na vanguarda das tendências tecnológicas estão usando suas capacidades para estabelecer vantagens formidáveis através dos dados. Estamos presenciando agora no mercado enormes disparidades de desempenho entre um pequeno grupo de empresas líderes e uma empresa média típica. As capacidades de análise de dados (“data analytics”) tornaram-se um fator extremamente diferenciador na competição da indústria, já que os principais players usam dados e análises para aumentar a receita, para entrar no mercado ou, até mesmo, criar novos mercados, para mudar a natureza de sua relação com os clientes e também para aumentar a eficiência organizacional. As organizações que estão atrasadas (e não valorizam dados) precisarão se adaptar rapidamente antes que a diferença cresça.

Os dados se tornaram a nova classe de ativos corporativos – e a melhor maneira para as empresas gerar e acessar eles é digitalizar tudo o que fazem. A digitalização de interações com os clientes fornece uma riqueza de informações para marketing, vendas e desenvolvimento de produtos, enquanto a digitalização interna gera dados que podem ser usados para otimizar as operações e melhorar a produtividade.

Segundo o analista de indústria McKinsey [7], as empresas de tecnologia de informação e comunicação (o setor que fez os maiores avanços em dados de localização), líderes de varejo e fabricação avançada estão entre os líderes em termos de digitalização. Enquanto isso, o governo, a manufatura básica, a maior parte do setor de varejo e as empresas de saúde estão atrasados da adoção de medidas de digitalização e no uso de análises de dados (“data analytics”). Se as empresas e organizações nesses setores continuarem atrasadas no ritmo da adoção da digitalização de dados, elas vão abrir espaços para novos entrantes ... esta é a “lei da vida”!

E de fato o que está motivando este “boom” [8] atual da IA? O que a impulsiona? Quais são de fato os “drivers” de mercado dessa alavancagem? Então veja aqui:

O movimento atual da teve um marco representativo em outubro de 2012, quando uma equipe de pesquisadores da Universidade de Toronto reduziu a taxa de erro pela metade [9] em um conhecido desafio de Visão por Computador chamado ImageNet [10] em Florença (Itália) promovido pela pesquisadora Fei Li do Laboratório de IA de Stanford usando um algoritmo de Rede Neural Profunda. Esse trabalho de doutorado tem também um fato de destaque pois foi “capitaneado” pelo “papa” da tecnologia de “Deep Learning” o Professor Geoffrey Everest Hinton que atualmente, além de lecionar na Universidade de Toronto, trabalha com IA no Google.

Após este marco na ImageNet, os três grandes players como Google, Microsoft e Facebook começaram a “apostar suas fichas” na tecnologia de Rede Neural Profunda. Essa aposta - combinada com outros fatores coincidentes ou não - impulsionaram a IA de forma brutal quando o MUNDO TODO percebeu as potencialidades dos algoritmos de “Machine Learning” (“Data Analytics”) e de “Deep Learning”.

Dentre os principais “drivers” de mercado desta “corrida ao ouro” atrás da IA, destacamos os principais: (1) Volume de Dados; (2) Geração de Valor com os Dados Não-Estruturados; (3) Evolução dos Recursos Computacionais; (4) Dispositivos Conectados; e (5) Evolução dos Algoritmos.

Volume de Dados

O mundo - de uma forma geral - passou a gerar mais dados com a evolução das diversas tecnologias (de Sensores, de Internet das Coisas, dos “Wearables”, da Telefonia Móvel, etc).  Maiores volumes de dados significam mais pontos de dados para se utilizar com os algoritmos de Aprendizado e, portanto, menos barreiras para valorizar os casos de uso. Assim, quanto mais dados houver, mais benéfico será para a tecnologia de “Deep Learning” e de “Machine Learning” (“Data Analytics”).

Adicionalmente ao volume, a variedade dos dados pode desempenhar um papel crucial. Quanto maior a variedade, mais fácil é de se fazer com que os algoritmos “aprendam”. A grande variedade dos dados contribuíram em muito para o “boom” da IA. Entre os diferentes tipos de dados destacamos: transações (transações virtuais, incluindo aquelas no sentido convencional, bem como outras métricas chave, como visitas a páginas da web), social, áudio/vídeo/imagens, dados de IoT/dados de sensores, dados científicos e de engenharia (a partir de experiências/simulações), dados móveis e de localização (dados baseados na localização real de dispositivos móveis) e arquivos (registros históricos, principalmente físicos).

Geração de Valor com os Dados Não-Estruturados

Segundo Ginni Rometty (CEO da IBM), “o mundo está inundado de dados não-estruturados e precisa de sistemas que aprendam e raciocinem, e sejam capazes de fazer o que os cérebros humanos são incapazes cognitivamente” [11].  O “Big Data” é uma avalanche de dados circulando pela rede e “entupindo” servidores e banco de dados.

A grande maioria destes dados são “não estruturados” (p. ex., na área da Saúde os dados “não estruturados” representam em torno de 90% do total). Entre alguns exemplos de dados neste segmento temos: (a) imagens médicas; (b) gravações de voz de atendimento a clientes e (c) arquivo de texto com informações dos pacientes. E qual é a má notícia aqui?

É que a maioria dos profissionais não têm a mínima ideia do que fazer com estes dados além da clássica tarefa de “limpar a base de dados”. A boa notícia é que os profissionais agora podem utilizar algoritmos de IA para transformar o que iria para o “lixo” em informação! Para conhecer mais sobre os dados “não estruturados” veja este excelente “white paper” da Deloitte [12]

Em resumo: a IA trouxe algoritmos muito poderosos que nos permite “gerar valor” a partir de dados não-estruturados (p. ex., identificar um câncer na mama após análise da mamografia com modelos de redes convolucionais profundas).

Evolução dos Recursos Computacionais;

Diversas inovações estão realimentando positivamente o mundo para auxiliar na tarefa de manipular grandes volumes de dados com seus 90% (em média) deles não estruturados. O poder computacional tem obtido um impulso de uma fonte improvável: os consoles de videogame. A necessidade do poder computacional para alimentar jogos de vídeo cada vez mais sofisticados, estimulou o desenvolvimento de unidades de processamento gráfico.

As GPUs [13] têm possibilitado o processamento de imagem em redes neurais que é 10 a 30 vezes mais rápido do que as CPUs convencionais podem fazer. Esses processadores já foram utilizados em muitos contextos não relacionados a jogos, por exemplo, processamento de imagens médicas para identificar doenças. Além das GPUs, novos hardwares tem sido também objeto de grandes investimentos como a tecnologia FPGA e o novo hardware do Google chamado TPU (“Tensor Processing Unit”). A evolução do hardware juntamente com a “pulverização” dos sistemas de “cloud” e a redução do custo de armazenamento, têm trazido um novo “sabor” à capacidade computacional no processamento do “big data”.

Dispositivos Conectados

Os bilhões de dispositivos conectados (sejam eles de uso pessoal ou sensores de IoT) também estão motivando o interesse cada vez maior pela tecnologia de IA pois eles são fontes geradoras de dados. Os dispositivos pessoais têm crescido em uma grande velocidade seja motivada pela massificação dos smartphones, seja pelo surgimento de novas tecnologias como os dispositivos “wearable” (para aptidão física ou para monitorar a saúde, por exemplo), os recentes assistentes virtuais (como o Amazon Echo ou o Google Home) ou, simplesmente, pela necessidade de se conectar na Internet via PCs, Notebooks ou Tablets.

No segmento industrial, a IoT está provocando um crescimento maciço dos sensores para coleta de informações com o objetivo de rastrear estoques, gerenciar máquinas, aumentar a eficiência dos processos ou reduzir custos. A Intel sinaliza que mais de 40% dos dados gerados de dispositivos conectados são coletados a partir de negócios ou da manufatura [14].

A mesma Intel preconiza que os objetos conectados vão evoluir de 2 bilhões em 2006 para 200 bilhões em 2020 (sic!) (o Gartner aposta 21 bilhões em 2020 [15]) quando teremos uma proporção de 26 objetos inteligentes para cada ser humano na face da Terra! Com esta quantidade gigante – e cada vez maior – de objetos conectados na Web será alavancado um crescimento exponencial das oportunidades de IA por que vários players vão querer usar seus algoritmos para fornecer, ter ou consumir serviços “inteligentes” diferenciados.

Evolução dos Algoritmos

A crescente disponibilidade de dados alimentou os avanços em técnicas e tecnologias analíticas, com a Aprendizagem de Máquina (e seu discípulo mais famoso, a Rede Neural Profunda) na vanguarda. Um programa de software padrão é codificado com regras rígidas para as tarefas que ele precisa executar. Mas ele não pode se adaptar a novas variáveis ou novos requisitos, a menos que um programador o atualize com novas regras específicas.

Embora isso funcione bem em alguns contextos, é fácil ver por que essa abordagem não é escalável para lidar com todas as complexidades do mundo real. A tecnologia de “Machine Learning”, entretanto, utiliza uma abordagem indutiva para formar uma representação do mundo baseada nos dados que ela vê. Ela é capaz de ajustar e melhorar sua representação quando novos dados chegam. Nesse sentido, o algoritmo "aprende" a partir de novas entradas de dados e melhora ao longo do tempo. O requisito fundamental para a Aprendizagem de Máquina é grande quantidade de dados, que são necessários para treinar os algoritmos. Quantidades muito maiores de dados ricos permitem melhorias notáveis nos algoritmos de Aprendizagem de Máquina, incluindo a Rede Neural Profunda.

Entre os avanços mais importantes nas técnicas de Aprendizagem de Máquina nos últimos anos estão os seguintes:

“Deep Learning”: Este ramo de “Machine Learning” usa redes neurais profundas com muitas camadas ocultas. Dois dos tipos mais comuns de redes neurais profundas são as convolucionais (CNN) [16] e as recorrentes (RNN) [17]. As redes neurais convolucionais são frequentemente utilizadas para reconhecer imagens processando uma hierarquia de características – p. ex., fazendo a conexão entre um nariz, um rosto e, finalmente, um gato completo. Esta capacidade de reconhecimento de imagem tem importantes aplicações no desenvolvimento de veículos autônomos, que precisam reconhecer seus arredores “instantaneamente”. Em contrapartida, as redes neurais recorrentes são usadas quando a sequência e o contexto globais são importantes, como no reconhecimento de fala ou no processamento da linguagem natural. Os sistemas de Rede Neural Profunda são um exemplo mais claro da confluência de dados abundantes, poder de processamento e algoritmos cada vez mais sofisticados. As redes neurais foram desenvolvidas há décadas, mas não tinham as enormes quantidades de dados e poder de processamento necessários para atingir todas as suas capacidades. Agora essas barreiras têm sido superadas. A revolução dos dados e da análise de dados (“data analytics”) ganharam um impulso diferenciado, permitindo que os cientistas de dados façam rápidos avanços na tecnologia de “Deep Learning”.

Aprendizagem por Reforço (“Reinforcement Learning”): Outra forma de Aprendizado de Máquina, o Aprendizado por Reforço [18], adota ações em direção a um objetivo específico, mas sem direção sobre quais ações tomar para chegar lá. Os algoritmos exploram uma ampla gama de ações possíveis, enquanto aprendem gradualmente quais são as mais eficazes, incorporando assim um elemento de criatividade. A Aprendizagem de Reforço tem sido usada em aplicações que vão desde aprender a jogar jogos como xadrez, bem como, para melhorar a gestão do tráfego em semáforos. Esta Aprendizagem tem provocado um grande interesse atualmente na área de carros autônomos [19] e na área de aeronáutica para adaptação tática de estratégia [20] e tem interessado muito ao órgão de defesa americano DARPA.

Aprendizagem de Conjunto (“Ensemble Learning”): [21] Este conjunto de técnicas utiliza vários métodos de Aprendizagem de Máquina para obter melhores previsões do que qualquer método poderia alcançar por conta própria. Os métodos de “Ensemble” são particularmente úteis quando há uma ampla gama de hipóteses possíveis, à medida que eles ajudam a “conduzir” para o caminho mais adequado. A startup CareSkore [22], por exemplo, está empregando Aprendizagem de Conjunto usando a plataforma TensorFlow do Google para analisar uma gama de dados sociodemográficos e comportamentais com o objetivo de melhorar os cuidados de saúde preventivos. Dentre os algoritmos “Ensemble” destacamos: Florestas Aleatórias (“Random Forest”) ou Classificador Ótimo de Bayes.

Estas novas técnicas estão disponíveis em novas ferramentas. Bibliotecas e plataformas de “Deep Learning”, como TensorFlow, Caffe e Theano, e permitem aos profissionais de “data science” integrar algoritmos de Rede Neural Profunda em suas análises de forma rápida e fácil. A Spark oferece uma plataforma de “big data” que fornece os aplicativos avançados de análise em tempo real e preditiva para sistemas de armazenamento distribuídos amplamente utilizados no Apache Hadoop. Novas APIs, como a API ML da Microsoft, permitem que os usuários implementem a Aprendizagem de Máquina em novas áreas.

Pelo que vimos acima o mundo de IA vai trazer grandes oportunidades para as empresas e para as pessoas em todo o globo terrestre ... pode acreditar que é uma “boa onda”!

Referências:

[1] Apple receives permit in California to test self-driving cars: DMV, Reuters, 14.apr.2017 [includes vídeo]
http://www.reuters.com/article/us-apple-car-idUSKBN17G1CJ

[2] Testing of Autonomous Vehicles, DMV, State of California
https://www.dmv.ca.gov/portal/dmv/detail/vr/autonomous/testing

[3] You won’t be able to buy autonomous cars until 2026, says Ford, ReadWrite, 06.apr.2017
http://readwrite.com/2017/04/06/ford-autonomous-cars-tl1/?utm_content=bufferad111&utm_medium=social&utm_source=twitter.com&utm_campaign=buffer

[4] Deep Learning, Wikipedia
https://en.wikipedia.org/wiki/Deep_learning

[5] Machine Learning, Wikipedia
https://en.wikipedia.org/wiki/Machine_learning

[6] NLP, Wikipedia
https://en.wikipedia.org/wiki/Natural_language_processing

[7] The age of analytics: Competing in a data-driven world, McKinsey, December 2016 [PDF included]
http://www.mckinsey.com/business-functions/mckinsey-analytics/our-insights/the-age-of-analytics-competing-in-a-data-driven-world

[8] O "Boom" da Inteligência Artificial está Chegando!, Convergência Digital, 08.dez.2016
http://convergenciadigital.uol.com.br/cgi/cgilua.exe/sys/start.htm?UserActiveTemplate=site&infoid=44212&sid=15

[9] Referências do Google sobre “Krizhevsky 2012 imagenet florence”
https://www.google.com.br/webhp?sourceid=chrome-instant&ion=1&espv=2&ie=UTF-8#q=Krizhevsky+2012+imagenet+florence

[10] ImageNet, Wikipedia
https://en.wikipedia.org/wiki/ImageNet

[11] An Insight, An Idea with Ginni Rometty (IBM CEO), World Economic Forum, 20.jan.2017
https://www.weforum.org/agenda/2017/01/an-insight-an-idea-with-ginni-rometty-ad663db0-ae4d-4e2c-bfde-903d387c30ed/

[12] Dark analytics: Illuminating opportunities hidden within unstructured data, Deloitte University Press, 07.feb.2017
https://dupress.deloitte.com/dup-us-en/focus/tech-trends/2017/dark-data-analyzing-unstructured-data.html

[13] What is a GPU and Why Do I Care? A Businessperson's Guide, MAPD, 23.jan.2017
https://www.mapd.com/blog/2017/01/23/what-is-a-gpu-and-why-do-i-care-a-businesspersons-guide-2/?utm_content=bufferc6912&utm_medium=social&utm_source=twitter.com&utm_campaign=buffer

[14] A Guide of the Internet of Things, Intel
http://www.intel.com/content/www/us/en/internet-of-things/infographics/guide-to-iot.html

[15] Gartner: 21 Billion IoT Devices To Invade By 2020, Infomation Week, 10.nov.2015
http://www.informationweek.com/mobile/mobile-devices/gartner-21-billion-iot-devices-to-invade-by-2020/d/d-id/1323081

[16] Convolutional Neural Network, Wikipedia
https://en.wikipedia.org/wiki/Convolutional_neural_network

[17] Recurrent Neural Network, Wikipedika
https://en.wikipedia.org/wiki/Recurrent_neural_network

[18] Reinforcement Learning, Wikipedia
https://en.wikipedia.org/wiki/Reinforcement_learning

[19] Referências do Google sobre “reinforcement learning self driving car”
https://www.google.com.br/webhp?sourceid=chrome-instant&ion=1&espv=2&ie=UTF-8#q=reinforcement+learning+self+driving+car

[20] Referências do Google sobre “reinforcement learning darpa aerospace tactical action”
https://www.google.com.br/webhp?sourceid=chrome-instant&ion=1&espv=2&ie=UTF-8#q=reinforcement+learning+darpa+aerospace+tactical+action

[21] Ensemble Learning, Wikipedia
https://en.wikipedia.org/wiki/Ensemble_learning

[22] CareSkore
https://www.careskore.com/

[*] Autor:
Eduardo Prado é consultor de mercado em novos negócios, inovação e tendências em Mobilidade e “Big Data” em Saúde.
E-mail: eprado.sc@gmail.com   
Blog Saúde Business: http://saudebusiness.com/blogs/saude-3-0/ 
Twitter: https://twitter.com/eprado_melo

Outras Matérias na Convergência Digital aqui:
http://convergenciadigital.uol.com.br/cgi/cgilua.exe/sys/start.htm?UserActiveTemplate=site&sid=37


Carreira
Reforma trabalhista: Não haverá contrato novo ou velho

“Se não, muitos empresários poderiam dispensar os trabalhadores da ‘lei velha’ e contratar outros com contrato novo, pela ‘lei nova’. Para não haver esse perigo, a lei aplica-se a todos os contratos em vigor no Brasil”, explica o Juiz do Trabalho, Marlos Melek.


Veja a Cobertura Especial do IX Seminário TelComp 2016

Governo precisa atuar como coordenador na remoção às barreiras inúteis em Telecom

Se não é possível ao governo fazer investimentos, que ele funcione como um coordenador e incentive o diálogo com os órgãos que, hoje, dificultam os investimentos em redes, diz o presidente-executivo da TelComp, João Moura. Novo ciclo do PGMC é a última oportunidade para fomentar a inclusão.


Veja a Cobertura Especial do IX Seminário TelComp 2016

  • Copyright © 2005-2017 Convergência Digital
  • Todos os direitos reservados
  • É proibida a reprodução total ou
    parcial do conteúdo deste site
    sem a autorização dos editores
  • Publique!
  • Convergência Digital
  • Cobertura em vídeo do Convergência Digital
  • Carreira
  • Cloud Computing
  • Internet Móvel 3G 4G