Bom dia,
Sabemos que a Inteligência Artificial (IA) generativa está a transformar a indústria no seu todo, no entanto, são ainda muitas as empresas que enfrentam dificuldades para criar e implementar ferramentas de IA seguras e confiáveis à medida que a tecnologia evolui. Os líderes empresariais preocupam-se com o risco de a IA gerar informações incorretas ou prejudiciais para o seu negócio, divulgar dados sensíveis, ser alvo de ataques ou mesmo violar leis de privacidade — e, muitas vezes, não estão preparados para lidar com esses riscos.
“As organizações preocupam-se com a segurança e proteção, assim como com a qualidade e o desempenho das suas aplicações de IA”, afirma Sarah Bird, Chief Product Officer de Responsible AI na Microsoft.
Para colmatar esta lacuna, a Microsoft tem vindo a disponibilizar ferramentas e serviços que ajudam os programadores a criar e implementar sistemas de IA fiáveis, ou seja, desenvolvidos com segurança, proteção e privacidade desde o momento zero. Estas ferramentas têm ajudado muitas organizações a lançar e implementar tecnologias em ambientes complexos e altamente regulamentados, desde um agente de IA que resume registos médicos de pacientes, até um chatbot que fornece orientação fiscal aos clientes.
As ferramentas fazem parte de um método abrangente que a Microsoft disponibiliza para a criação responsável de IA, baseado na experiência de identificar, medir, gerir e monitorizar riscos nos seus próprios produtos — e garantir que cada etapa é cumprida. Quando a IA generativa surgiu, a empresa reuniu especialistas em segurança, proteção, equidade e outras áreas, para identificar riscos fundamentais e partilhar documentação, algo que ainda faz atualmente à medida que a tecnologia evolui.
Esta abordagem reflete o trabalho de uma equipa especializada em IA (AI Red Team), que identifica riscos emergentes como alucinações e ataques de prompt, investigadores que estudam deepfakes, especialistas em medição que desenvolveram um sistema para avaliar IA, e engenheiros que constroem e aperfeiçoam mecanismos de segurança. As ferramentas incluem o framework de código aberto PyRIT, que permite às equipas de segurança identificar riscos, avaliações automáticas no Azure AI Foundry para medir e monitorizar continuamente riscos, e o Azure AI Content Safety, que deteta e bloqueia conteúdos prejudiciais.
A Microsoft também está a ajudar as organizações a melhorar a sua governance de IA, um sistema para monitorizar e partilhar informações importantes sobre o desenvolvimento, implementação e operação de um modelo ou aplicação. Disponível em private preview no Azure AI Foundry, os relatórios de IA podem oferecer às organizações uma plataforma unificada para colaboração, em conformidade com um número crescente de regulamentações de IA e com toda a documentação necessária de insights de avaliação, potenciais riscos e medidas de mitigação.
Este trabalho faz parte do objetivo da Microsoft de ajudar as pessoas a fazer mais com IA e partilhar conhecimentos que tornem este caminho mais fácil para todos.
“Tornar os nossos próprios sistemas de IA fiáveis é essencial no que fazemos, e queremos capacitar os nossos clientes a fazer o mesmo”, conclui Sarah Bird.
Saiba mais sobre o trabalho da Microsoft em prol da Responsible AI.