IA Responsável para além da Investigação e da Legislação

Pedro Saleiro

  Opnova

A Inteligência Artificial (IA) evoluiu a passos largos, graças a investimentos avultados que superam os biliões de dólares. As soluções baseadas em IA contribuem para alterações profundas na indústria, e influenciam a nossa vida pessoal e profissional. No entanto, e à medida que a IA se torna mais relevante, torna-se cada vez mais clara a importância da IA Responsável.

Enquanto investigadores, engenheiros e líderes do setor industrial, devemos garantir que os sistemas de IA são benéficos - não só na teoria, mas também em contextos quotidianos. Existem diversos estudos sobre a equidade, robustez, explicabilidade e privacidade em IA, mas a distância entre o trabalho de investigação e as práticas concretas é, ainda, bastante considerável. Com a aplicação da Lei da UE sobre IA e um claro aumento das atividades de investigação nesta área, devemos colocar a seguinte questão: estaremos verdadeiramente preparados para implementar estes princípios de forma eficaz?

A Lei da UE sobre IA, prestes a tornar-se um marco em termos de governança em IA, visa criar padrões para o desenvolvimento e a utilização de sistemas de IA a nível europeu. No entanto, e caso não seja eficazmente implementado, este mecanismo corre o risco de focar-se em demasia na questão do cumprimento legal - aumentando a burocracia ao invés de garantir que os sistemas de IA são alvo de testes mais completos e rigorosos.

Neste caso, a questão não se prende com o propósito da lei, mas sim com a forma como é implementada. Já testemunhámos desafios semelhantes noutros setores, onde a inovação acaba “sufocada” por legislação excessiva, focada no processo e não nos resultados.

Testar é a única maneira de garantir que a IA se comporta de forma fiável em diferentes contextos, e.g., situações extremas com elevados riscos associados. Uma boa analogia é olhar para as indústrias críticas, e.g., aeroespacial ou a energia nuclear, onde o fracasso não é uma opção. Nestes setores, os testes são incorporados em todas as fases do processo de desenvolvimento: desde o design inicial até à implementação. A IA deve seguir o mesmo processo.

Os métodos tradicionais utilizados para testar sistemas de IA - que incidem sobre um conjunto de dados específico, e são desenvolvidos em ambientes controlados - não serão suficientemente abrangentes no que toca a sistemas mais avançados, sobretudo se analisarmos os sistemas agentic, capazes de compreender o ambiente onde se encontram, tomar decisões, delegar e desempenhar tarefas para alcançar determinados objetivos.

Tomemos como exemplo um agente para a deteção de fraudes bancárias. Este agente pode solicitar uma classificação sobre fraudes a partir de um modelo tabular para a sua deteção, verificar históricos de transações, cruzar dados de diferentes cartões de crédito, pesquisar padrões em diferentes dispositivos, ou mesmo entrar em contacto com o titular da conta. Tendo em conta todas estas informações, o agente pode decidir bloquear a conta bancária em questão. Este tipo de sistema é bastante poderoso, mas também poderá ser bastante perigoso se não for testado devidamente.

No caso da IA baseada em agentes, isto significa não só testar o seu desempenho em tarefas individuais, mas em todo o pipeline do processo de tomada de decisão. Por exemplo, torna-se necessário simular cenários complexos de fraude (tais como os que acontecem no mundo real) e ataques coordenados em várias contas, para garantir que a IA se comporta conforme o expectável em condições de risco elevado.

Estes agentes de IA, baseados em modelos multimodais de grande escala, apresentam diversos desafios específicos:

  1. Não determinismo: Ao contrário do software tradicional, estes sistemas podem produzir diferentes outputs para o mesmo input, tornando a reprodutibilidade e a identificação de bugs mais complexas.
  2. Adaptabilidade: TEste tipo de sistemas é capaz de aprender e adaptar-se ao longo do tempo, alterando o seu comportamento de forma imprevisível.
  3. Complexidade: A sua natureza intrincada e multi-componente torna difícil isolar e testar partes individuais sem considerar o todo.
  4. Desempenho contextual: O desempenho destes sistemas pode variar significativamente com base no contexto em que operam, exigindo testes em diferentes tipos de cenário.
  5. Considerações éticas: À medida que estes sistemas tomam decisões cada vez mais importantes, é crucial testar não só a sua funcionalidade, mas também o seu alinhamento com valores humanos e princípios éticos.

Para enfrentar estes desafios, é necessário um esforço coordenado por parte da academia e da indústria, para que sejam desenvolvidas estruturas de teste de IA open-source, devidamente abrangentes e estandardizadas, e que permitam:

  1. Teste de cariz estatístico: Dada a natureza não determinística destes sistemas, é importante efetuar testes mais complexos do que o simples “input-output”, para que as análises estatísticas possam quantificar o comportamento em todos os desfechos possíveis.
  2. Testes contínuos: À medida que os agentes de IA aprendem e evoluem, os testes devem ser um processo contínuo ao longo do ciclo de vida da IA: desde o desenvolvimento até à fase de adoção (e mais além).
  3. Testes multi-componente: as estruturas devem permitir o teste de componentes individuais, bem como do sistema como um todo, ajudando a isolar problemas e a compreender interações complexas.
  4. Avaliação ética: Para além dos testes relacionados com a vertente funcional, são necessárias metodologias para avaliar as implicações éticas das decisões e dos comportamentos da IA.
  5. Testes baseados em cenários: As ferramentas devem apoiar a criação e a execução de cenários diversos e realistas, de forma a avaliar o desempenho da IA em diferentes contextos.

Para que a Lei de IA da UE seja verdadeiramente eficaz, é necessário mais do que simplesmente cumprir requisitos legais básicos. Assim, é premente a criação de uma cultura de testes contínuos e abrangentes que acompanhe a rápida evolução da IA. Não se trata apenas de cumprir regras. Estas ferramentas irão permitir o desenvolvimento de sistemas de IA mais fiáveis e confiáveis, e também acelerar a inovação, contribuindo para uma maior confiança por parte dos developers - para que possam ultrapassar os limites do que é atualmente possível.

Está na hora de colocar mãos-à-obra. A IA responsável exige mais do que uma legislação - requer um compromisso assumido com testes e melhorias contínuos, para que seja possível construir um futuro em que a IA melhore as nossas capacidades, salvaguardando os direitos humanos e os valores sociais da UE.