(1)INESC TEC & Faculdade de Engenharia da Universidade do Porto
(2)INESC TEC
A Inteligência Artificial (IA) é uma área científica em constante evolução. É difícil prever o que o futuro reserva para esta tecnologia. No entanto, parece claro que a IA está a transformar as nossas vidas de forma significativa. Está a mudar a forma como trabalhamos, vivemos, e tomamos decisões. Atualmente, está numa fase de rápido crescimento e desenvolvimento.
Um futuro com uma IA responsável terá de ser colaborativo. Vai requerer colaboração estreita entre Estados, com empresas, e com a sociedade. Nos próximos anos, a IA deverá ter um impacto cada vez maior nas nossas vidas, em áreas como a saúde, a educação, o trabalho e a mobilidade.
Olhando para o passado, os problemas do presente têm sido resolvidos por avanços tecnológicos marcantes. Atualmente, somos confrontados com problemas com forte impacto social: as alterações climáticas e o aquecimento global, o crescimento populacional e a produção alimentar, a desertificação e o controlo da água. A IA está a contribuir e vai desempenhar um papel fundamental no desenvolvimento de soluções sustentáveis para estes problemas. As mudanças que a IA irá trazer, serão, provavelmente, muito mais profundas do que qualquer outra revolução tecnológica na história da humanidade.
Dependendo do rumo que esta revolução tomar, a IA fortalecerá a nossa capacidade de fazer escolhas mais informadas ou reduzirá a autonomia humana; irá criar novas formas de atividade humana ou tornar redundantes os empregos existentes; irá ajudar a garantir o bem-estar entre muitos ou aumentar a concentração de poder e riqueza nas mãos de poucos; irá expandir a democracia nas nossas sociedades ou colocá-la em perigo. Compreender e endereçar estas tensões assume particular importância num momento em que a Europa olha para a IA como janela de oportunidade para reduzir o seu gap de inovação e produtividade, mas mantendo os objetivos de equidade e coesão, tal como referido no relatório Draghi.
As escolhas que enfrentamos hoje estão relacionadas com questões éticas fundamentais sobre o impacto da IA na sociedade, em particular, como afeta o trabalho, as interações sociais, os cuidados de saúde, a privacidade, a justiça e a segurança. A capacidade de fazer as escolhas certas requer novas soluções para questões científicas fundamentais em IA e na interação humano-computador. E estas escolhas devem ser feitas hoje.
Esta edição da revista oferece múltiplas perspetivas sobre as oportunidades e tensões geradas pela IA, e como suportar escolhas mais informadas.
O crescente impacto da AI na sociedade reforça a importância da AI responsável, como é referido por todos os autores. Nuno Paiva salienta: “a tecnologia não é eticamente neutra; no entanto, ela molda-se de acordo com os nossos valores, comportamentos e normas sociais”. No entanto, as opiniões divergem na forma e processos de obter uma AI responsável.
Virginia Dignum afirma, “os atuais sistemas de IA - nomeadamente, a IA Generativa, são concebidos para priorizar o desempenho imediato, ao invés da capacidade de manutenibilidade a longo prazo e de certos princípios éticos”. Virginia propõe, “a adoção de uma abordagem relacional ética da IA, combinada com um paradigma modular devidamente estruturado e de forte componente de engenharia, levará ao desenvolvimento de sistemas de IA que não são apenas poderosos e eficientes, mas que respeitem os valores humanos e as necessidades da sociedade”.
Pedro Saleiro defende que “existem diversos estudos sobre a equidade, robustez, explicabilidade e privacidade em IA, mas a distância entre o trabalho de investigação e as práticas concretas é, ainda, bastante considerável”. Pedro salienta a necessidade de regular, testar e avaliar não só os resultados das ferramentas de IA mas também os processos que levam a esses resultados. “Testar é a única maneira de garantir que a IA se comporta de forma fiável em diferentes contextos, e.g., situações extremas com elevados riscos associados. Uma boa analogia é olhar para as indústrias críticas, e.g., aeroespacial ou a energia nuclear, onde o fracasso não é uma opção. Nestes setores, os testes são incorporados em todas as fases do processo de desenvolvimento: desde o design inicial até à implementação. A IA deve seguir o mesmo processo”. As recentes iniciativas da comissão europeia de regular a IA, nomeadamente o AI Act, sendo globalmente positivas correm o risco de, caso não sejam eficazmente implementadas, focarem-se “em demasia na questão do cumprimento legal - aumentando a burocracia ao invés de garantir que os sistemas de IA são alvo de testes mais completos e rigorosos”.
Nuno Paiva sugere que a AI responsável deve ser baseada em considerações éticas alinhadas com os valores da sociedade e as normas legais. Propõe um enquadramento para “Confiabilidade e Design Centrado no Ser Humano” a partir dos trabalhos de investigação existentes. Segundo Nuno “, a confiança é alcançada quando os utilizadores entendem que os sistemas são justos, transparentes e confiáveis”. Estas considerações éticas não devem ser vistas como um fardo, ou como mera necessidade de ‘compliance’. Numa nota positiva, Nuno Paiva aponta uma relação positiva entre desempenho e adoção de práticas de IA responsáveis, por parte das empresas líderes em IA.
Vários artigos desta edição abordam as oportunidades transformadoras da AI. Diana Viegas e Nuno Cruz ilustram as múltiplas formas como a IA pode expandir capacidades para explorar o mar profundo, nomeadamente através da monitorização em tempo real e operação autónoma, para que os sistemas robóticos possam permanecer mais tempo e chegar mais fundo na exploração dos oceanos. Na área de energia, Ricardo Bessa salienta o potencial da IA para a transição energética, através do suporte à tomada de decisão em sistemas de energia com uma componente elevada de renováveis, onde a flexibilidade é fundamental; ou para a otimização da operação de comunidades de energia ou de carregamento de veículos elétricos.
Por outro lado, tirar partido do potencial da IA exige adequar estratégias. Pedro Amorim e Gonçalo Figueira propõem cinco pilares para as organizações consigam efetivamente transformar o potencial da IA em realidade. Estes pilares envolvem o alinhamento entre as tarefas a desempenhar e as ferramentas de IA adequadas; combinando diferentes abordagens de IA; usando métodos de IA explicável; possibilitando diferentes modos de interação com humanos; e assegurando a literacia de IA na organização.
Baseado na sua experiência de utilização do ChatGPT no ensino, José Nuno Oliveira evidencia a necessidade de desenvolver o pensamento crítico na utilização de LLMs (de Large Language Models), e a importância destas competências no trabalho do futuro. Por fim, António Batista e António Lucas Soares chamam a atenção para a necessidade de considerar, não só os benefícios, mas também os efeitos negativos da IA, nomeadamente no consumo de energia global e respetivos efeitos climáticos, bem como o impacto nem sempre positivo da IA na força de trabalho e nas pressões sociais.
Mais uma vez, estas tensões exigem reflexão e ação, e uma capacidade de fazer as escolhas certas considerando as diferentes perspetivas. Tal como é referido por João Claro e Arlindo Oliveira, as oportunidades e desafios da AI exigem uma liderança que equilibre inovação e responsabilidade, indo além da eficiência e competitividade, e construindo uma visão orientada aos desafios societais, assente em princípios éticos e colaborativos. Esta liderança é fundamental para fazer as escolhas necessárias para alavancar uma AI assente nos valores europeus que seja um motor de inovação e competitividade.