Teresa Hutson, CVP, Trusted Technology Group and Natasha Crampton, Chief Responsible AI Officer
Em maio de 2024, a Microsoft publicou o seu primeiro Responsible AI Transparency Report. Desde então, recebeu insights valiosos de stakeholders de todo o mundo, cujas perspetivas ajudaram a moldar esta segunda edição anual do relatório. O documento reforça o compromisso contínuo da empresa com o desenvolvimento de tecnologias de inteligência artificial (IA) em que as pessoas possam confiar. O relatório destaca os mais recentes desenvolvimentos na forma como a Microsoft constrói e implementa sistemas de IA de forma responsável, apoia os seus clientes e o ecossistema mais alargado, e promove uma cultura de aprendizagem e evolução contínua.
O último ano foi marcado por uma forte aceleração na adoção de IA por organizações de todas as dimensões, o que trouxe um foco renovado na necessidade de uma governação eficaz da IA. Clientes e parceiros demonstraram grande interesse em compreender como a Microsoft escalou o seu programa de IA responsável e desenvolveu ferramentas e práticas que operacionalizam normas de alto nível.
Tal como a Microsoft, muitas organizações reconheceram que construir IA de confiança é vantajoso para os negócios e que uma boa governação desbloqueia novas oportunidades. De acordo com o estudo da IDC sobre IA Responsável, promovido pela Microsoft, mais de 30% dos inquiridos identificaram a ausência de soluções de governação e gestão de risco como a principal barreira à adoção e escalabilidade da IA. Em contraste, mais de 75% dos que utilizam ferramentas de IA responsável para gestão de risco referiram benefícios significativos ao nível da privacidade dos dados, experiência do cliente, tomada de decisões, reputação da marca e confiança.
Ao longo do último ano, surgiram também novos esforços legislativos e regulamentares. Graças ao investimento contínuo na operacionalização de práticas de IA responsável ao longo de quase uma década, a Microsoft encontra-se bem preparada para cumprir os novos requisitos legais e apoiar os seus clientes nesse processo. No entanto, o trabalho está longe de estar concluído. Tal como descrito no relatório, continuam a ser definidas práticas eficazes de regulamentação e implementação que promovam a adoção da IA além-fronteiras. A Microsoft mantém-se empenhada em contribuir com conhecimento prático para os esforços globais de definição de normas e padrões.
Em todas estas dimensões da governação, a empresa reconhece a importância de manter uma abordagem ágil, incorporando aprendizagens de implementações reais, atualizando práticas com base nos avanços tecnológicos e respondendo de forma ativa ao feedback dos stakeholders. As lições retiradas desta abordagem baseada em princípios e iterativa estão refletidas nas páginas do relatório. À medida que as práticas de governação continuam a evoluir, a Microsoft compromete-se a partilhar proativamente novos conhecimentos com os seus stakeholders, tanto em futuros relatórios anuais de transparência como noutros fóruns públicos.
Principais conclusões do Responsible AI Transparency Report 2025
Em 2024, a Microsoft realizou investimentos estratégicos nas suas ferramentas, políticas e práticas de IA responsável, com o objetivo de acompanhar o ritmo acelerado da inovação nesta área.
1. A Microsoft reforçou as suas ferramentas de IA responsável, alargando a cobertura de medição e mitigação de riscos a modalidades para além do texto — como imagens, áudio e vídeo — e introduzindo suporte adicional para sistemas agentes, ou seja, sistemas semi-autónomos que se prevê venham a representar uma área significativa de investimento e inovação em IA em 2025 e nos anos seguintes.
2. Foi adotada uma abordagem proativa e em camadas para assegurar a conformidade com os novos requisitos regulamentares, incluindo o AI Act da União Europeia. A empresa disponibilizou aos seus clientes recursos e materiais que os capacitam a inovar em conformidade com os regulamentos aplicáveis. Os investimentos iniciais na construção de um programa de IA responsável abrangente e de referência no setor permitiram acelerar significativamente os esforços de preparação regulatória ao longo de 2024.
3. A Microsoft manteve uma abordagem consistente de gestão de risco em todos os lançamentos, através de revisões prévias à implementação e de exercícios de red teaming. Esta abordagem incluiu a supervisão e análise de utilizações de IA de alto impacto e maior risco, abrangendo todos os modelos emblemáticos adicionados ao Azure OpenAI Service e todas as versões dos modelos Phi. Para reforçar a documentação associada à IA responsável nestas revisões, foi lançada uma ferramenta interna de gestão de fluxos de trabalho, concebida para centralizar os diversos requisitos definidos no Responsible AI Standard da empresa.
4. A empresa continuou a prestar apoio direto a utilizações de IA de alto impacto e maior risco, através da sua equipa de Sensitive Uses e Emerging Technologies. As aplicações de IA generativa, especialmente em áreas como a saúde e as ciências, destacaram-se como áreas de crescimento em 2024. Com base na análise de casos concretos e na colaboração com investigadores, a equipa forneceu orientações antecipadas sobre riscos emergentes e novas capacidades da IA, promovendo a inovação e incubando novas políticas e orientações internas.
5. A Microsoft continuou a apoiar-se em insights provenientes da investigação para aprofundar a sua compreensão das questões sociotécnicas associadas aos mais recentes avanços em IA. Para esse efeito, criou o AI Frontiers Lab, com o objetivo de investir em tecnologias fundamentais que expandem os limites do que os sistemas de IA conseguem alcançar em termos de capacidade, eficiência e segurança.
6. A empresa colaborou com stakeholders em todo o mundo para promover o desenvolvimento de abordagens de governação coerentes, que acelerem a adoção da IA e permitam que organizações de todos os tipos inovem e utilizem IA além-fronteiras. Este esforço incluiu a publicação de um livro que explora a governação em vários domínios e o apoio ao desenvolvimento de normas coesas para a testagem de sistemas de IA.
Perspetivas para a segunda metade de 2025 e além
À medida que a inovação e a adoção da IA continuam a evoluir, a Microsoft mantém o seu objetivo central: conquistar e merecer a confiança que considera essencial para promover uma adoção ampla, segura e benéfica da IA a nível global. Para dar continuidade a este compromisso, a empresa irá concentrar-se, ao longo do próximo ano, em três áreas estratégicas que reforçam a sua abordagem à governação da IA, assegurando simultaneamente uma resposta eficaz a um cenário em constante transformação:
1. Desenvolvimento de ferramentas e práticas de gestão de risco mais flexíveis e ágeis, promovendo competências para antecipar e acompanhar os avanços da IA. Para que pessoas e organizações em todo o mundo possam beneficiar do potencial transformador da IA, é essencial que a capacidade de antecipar e gerir riscos acompanhe o ritmo da inovação. Tal implica o desenvolvimento de ferramentas e práticas que se adaptem rapidamente às novas capacidades da IA e à crescente diversidade de cenários de implementação, cada um com perfis de risco distintos. Para isso, a Microsoft irá reforçar o investimento nos seus sistemas de gestão de risco, disponibilizando soluções para os riscos mais comuns e promovendo a partilha de conjuntos de testes, medidas de mitigação e boas práticas entre equipas internas.
2. Apoio a uma governação eficaz ao longo de toda a cadeia de valor da IA. Construir, conquistar e manter a confiança na IA é um esforço coletivo que exige o envolvimento de todos os intervenientes — desde os criadores de modelos, aos programadores de aplicações e utilizadores de sistemas — para garantir um design, desenvolvimento e operação responsáveis. As regulamentações de IA, como o AI Act da União Europeia, refletem esta necessidade de partilha de informação entre os diferentes atores da cadeia de valor. A Microsoft adota plenamente este princípio de responsabilidade partilhada, reconhecendo, no entanto, que clarificar os papéis e responsabilidades é um desafio, sobretudo num ecossistema em rápida evolução. Para promover uma compreensão comum sobre como esta colaboração pode funcionar na prática, a empresa está a aprofundar o seu trabalho interno e externo com vista à clarificação de funções e expectativas.
3. Promoção de um ecossistema dinâmico através de normas partilhadas e ferramentas eficazes para a medição e avaliação de riscos em IA. A ciência da medição e avaliação de riscos em IA é uma área em crescimento, mas ainda em fase inicial. A Microsoft está empenhada em apoiar o amadurecimento deste campo, continuando a investir em investigação que expanda os limites da medição de riscos e no desenvolvimento de ferramentas que permitam a sua operacionalização em larga escala. A empresa mantém o compromisso de partilhar os seus avanços mais recentes em ferramentas e boas práticas com o ecossistema mais alargado, contribuindo para o desenvolvimento de normas e padrões partilhados que promovam uma utilização segura e responsável da IA.
Saiba mais sobre o Responsible AI Transparency Report 2025.