Edição Especial “Ciência de Dados e Inteligência Artificial e Saúde”

Uma Nova Primavera para a Inteligência Artificial*

João Gama (1,2)

Alípio Jorge (1,3)

  (1)INESC TEC; (2)Faculdade de Economia da Universidade do Porto;(3)Faculdade de Ciências da Universidade do Porto

 

Há muito tempo que interagimos com sistemas de Inteligência Artificial. Na maior parte das vezes, a interação é silenciosa: não nos apercebemos dela. Hoje em dia, a IA aparece na capa dos jornais: Watson ganha a Jeopardy, AlphaGO ganhou o campeonato mundial de Go, acidentes com veículos autónomos, entre muitos outros exemplos. Neste artigo, argumentamos que a desenvoltura da IA se deve aos desenvolvimentos em Machine Learning e em Ciências dos Dados.

 

 

A ideia da Inteligência Artificial como a concebemos hoje existe desde a década de 1940. Cerca de 1940, Alan Turing sugeriu que as máquinas, tal como os seres humanos, também poderiam pensar. Em 1950, Turing escreveu um artigo sobre o tema em que se propunha a responder à pergunta “As máquinas podem pensar?”

Já o termo Inteligência Artificial (IA) foi utilizado pela primeira vez em 1956, numa conferência no Dartmouth College, organizada por Marvin Minsky, John McCarthy, e com a participação de Claude Shannon, Arthur Samuel, Allen Newell e Herbert A. Simon, entre outros. Todos estes cientistas tiveram um papel muito relevante durante décadas na investigação em IA.

Tal como a concebemos hoje, a Inteligência Artificial é um ramo das ciências da computação que se propõe a elaborar modelos computacionais que simulem a capacidade humana de raciocinar, tomar decisões e resolver problemas. Estas capacidades são definidas por: capacidade de encadear raciocínio, aplicar regras lógicas e derivar conclusões; aprendizagem a partir de factos e observações agindo de forma mais eficaz no futuro; reconhecer padrões; capacidade de conseguir aplicar o raciocínio às situações do nosso quotidiano.

Os anos 60 e 70, foram anos de expectativas inflacionadas. Os avanços relativos em áreas como demonstração automática de teoremas, robótica, tradução automática, desenvolvimento de linguagens de programação em lógica, entre outros. O sucesso inicial é bem ilustrado pelo GPS - General Problem Solver, desenvolvido por Newell e Simon [1], capaz de resolver problemas de forma automática. Nos anos 80, o Japão lançou um projeto a 10 anos para a Quinta Geração de Sistemas de Computação, para criar computadores usando computação paralela maciça e programação lógica.

Desde os anos 70, houve um esforço no sentido de utilizar a Inteligência Artificial para resolver problemas reais. Inicialmente, os problemas eram tratados pela IA através da aquisição de conhecimento de especialistas de um dado domínio. Estes sistemas periciais eram sistemas modulares onde o motor de inferência era independente da base de conhecimento. Para cada domínio específico era construída uma base de conhecimentos através de entrevistas que procuravam descobrir as regras utilizadas pelo perito para tomar decisões.

No fim dos anos 80, início dos anos 90, as expectativas foram seguidas por uma fase de desilusão acentuada, levando a um desinvestimento na área. A IA entrou no seu inverno. Em 1997, o computador DeepBlue da IBM ganhou ao campeão do mundo de xadrez, G. Kasparov. A IBM realçou que a vitória era devida à capacidade de processamento da máquina e não à utilização de tecnologias de IA!

Ainda nos anos 80, começaram a ganhar popularidade ferramentas computacionais mais sofisticadas e autónomas para a extração de conhecimento a partir de factos e dados. Nos anos 90, estas ferramentas ganharam maturidade, começaram a ser utilizadas em empresas e tiveram grande impulso com o desenvolvimento de redes de computadores e da WWW, associado à capacidade de coletar, armazenar e processar grandes quantidades de informação digital.

A IA aparece nas primeiras páginas dos jornais, quando, em outubro de 2005, decorreu no deserto do Nevada o DARPA Grand Challenge. Foi a primeira vez que um carro autónomo completou, com sucesso, o Grand Challenge. Segundo Sebastian Thrun “The robot's software system relied predominately on state-of-the-art AI technologies, such as machine learning and probabilistic reasoning” [2]. É o iniciar de uma nova primavera da IA, que vem ser reforçada quando a Aprendizagem Computacional (Machine Learning) passa a ser utilizada noutras áreas de IA como Representação do Conhecimento, Visão Computacional e Processamento de Linguagem Natural. A IA desenvolveu algoritmos e tecnologias capazes de resolver problemas difíceis, e passou a ser amplamente utilizada nos mais diversos setores. Parte do sucesso destas abordagens de IA era explicado pela capacidade destes modelos de Aprendizagem Computacional em escolheram internamente a forma mais adequada de representar o conhecimento (Representation Learning) em vez de dependerem de especialistas decidirem quais os melhores atributos para descrever os dados (Feature Engineering).

Em 2011, o Mackinsey Institute publicou o relatório “Big data: The next frontier for innovation, competition, and productivity” [3] que relançou o investimento público e privado nas tecnologias de IA, Aprendizagem Computacional (AC) e Ciência dos Dados.

O maior crescimento ocorre em empresas, onde o uso de IA é utilizado como estratégia de negócio, como é o caso da Google e do Facebook, ou para o desenvolvimento de aplicações marginais ao negócio, como os assistentes automáticos comuns nos aplicativos e sites de diversos bancos. A Netflix, por exemplo, utiliza IA no sistema de recomendação e para identificação de padrões de preferências dos seus utilizadores. Há ainda várias situações em que a Google emprega IA, e que já fazem parte do quotidiano dos seus utilizadores: organização de fotos no Google Fotos, onde metodologias de Aprendizagem Computacional são utilizadas, por exemplo, para a identificação dos elementos presentes nas fotos ou para agrupamento das fotos por padrões; legendas automáticas para vídeos no YouTube; recomendação de respostas rápidas a mensagens de e-mail no Gmail; uso de redes neuronais artificiais, mais especificamente Aprendizagem Profunda (Deep Learning), para melhorar a eficácia das traduções no Google Translate.

Exemplos de aplicações bem-sucedidas de técnicas de AC em problemas reais incluem: interfaces que utilizam linguagem natural (escrita ou falada); reconhecimento facial; filtragem de spam em e-mails; deteção de fraude por bancos e operadoras de cartões de crédito; auxílio ao diagnóstico de doenças por meio da análise de dados clínicos, de imagem e/ou dados genéticos; recomendação de produtos com base no perfil do consumidor e no seu histórico de consumo; comportamento inteligente em personagens de jogos, que jogam com desempenho similar ao de campeões de Xadrez e Go. Uma aplicação com uso intensivo de IA e AC atualmente muito em voga é a dos carros autónomos. Vários fabricantes, como Tesla, Volvo, BMW, Mercedes-Benz, etc., têm projetos de veículos autónomos. Vários modelos comerciais já integram tecnologias para a autonomia parcial. Nesses modelos, a Aprendizagem Computacional é utilizada intensivamente em diversas tarefas, tais como deteção e reconhecimento de objetos e placas, classificação de objetos, localização, previsão e tracking de objetos em movimento.

A Internet das Coisas (IoT) projeta ainda mais as capacidades da IA, com milhões de dispositivos a analisar o ambiente, processar informação e enviar essa informação para outras máquinas. A IoT está na origem das tecnologias smart-cities, smart-grids, smart-farms, entre outros, e a criação de um nível de informação sobre o processo produtivo deu origem à Indústria 4.0, onde os processos de decisão envolvem pessoas e máquinas. Avanços tecnológicos como o 5G potenciarão ainda mais a transmissão de dados e a sua exploração ubíqua por uma vasta gama de dispositivos.

A capacidade de as máquinas explicarem como chegaram a uma decisão é fundamental para um clima de confiança. Por outro lado, grande parte da economia desenvolve-se num universo virtual. Qualquer empresa tem um site na web, e algumas grandes empresas, como Facebook, Netflix, Airbnb, Uber, entre outras, só existem na web. Todas as empresas estão acessíveis 24/7 nos nossos smartphones. As interações com os utilizadores são monitorizadas no sentido de criar os seus perfis: gostos, preferências, receios, etc. Estes perfis podem ser utilizados para marketing, para fazer recomendações ou influenciar o sentido do voto. No universo digital, onde não existem fronteiras, conceitos como privacidade, “público” e “privado”, questões de ética e regulação têm de ser repensados [4].

Referências

[1] Newell, A., Shaw, J.C., Simon, H.A. (1959). Report on a general problem-solving program. Proceedings of the International Conference on Information Processing. pp. 256-264.

[2] Thrun S. et al, Stanley, The robot that won the DARPA Grand Challenge. J. Field Robotics 23(9) : 661-692 (2006).

[3] Manyika S., Chui M., Brown B., Bughin J., Dobbs R., Roxburgh C., and Byer A. (2011). Big data: The next frontier for innovation, competition, and productivity, Mackinsey Global Institute, Technical Report.

[4] High-Level Expert Group on AI, Ethics Guidelines for Trustworthy Artificial Intelligence, European Comission, 2019.