Lisboa, 17 de outubro de 2023 – Numa era em que a inteligência artificial (IA) desempenha um papel mais preponderante no quotidiano dos utilizadores, torna-se mais importante do que nunca que a tecnologia seja criada, implementada e utilizada com responsabilidade. Em conformidade com os Princípios de IA Responsável, a Microsoft anuncia, hoje, a disponibilidade geral da plataforma Azure AI Content Safety.
Através desta plataforma, agora disponível ao público em geral, mais organizações podem detetar conteúdo ofensivo ou inapropriado em texto e imagens de forma rápida e eficiente. Quando os modelos avançados de linguagem e visão detetam conteúdo potencialmente inseguro ou inapropriado, atribuem automaticamente classificações de gravidade em tempo real. Estes indicadores permitem que empresas e organizações adaptem o serviço para bloquear ou sinalizar conteúdos com base nas suas políticas.
Eric Boyd, Corporate, Vice-Presidente da AI Platform da Microsoft, afirma que “à medida que a IA generativa se torna mainstream, a Microsoft pretende equipar as empresas com as ferramentas necessárias para a implementar de forma mais segura”.
"Estamos num momento bastante surpreendente, em que as empresas estão a ver o incrível poder da IA generativa. Lançar o Azure AI Content Safety como um produto autónomo significa que podemos dotar uma série de organizações com as ferramentas essenciais para o negócio”, refere.
Inicialmente introduzido como parte do serviço Azure OpenAI, o Azure AI Content Safety, anunciado durante o Microsoft Build 2023, em preview, é agora um sistema autónomo. Esta democratização da plataforma significa que as organizações podem usá-la para conteúdo gerado por IA a partir de modelos de código aberto e modelos de outras empresas, bem como para conteúdo gerado pelo utilizador como parte dos seus sistemas, expandindo a sua utilidade.
Com cerca de 350 profissionais a trabalhar em IA responsável, este é apenas um exemplo de como a Microsoft tem estado a colocar em prática os seus princípios para criar IA de forma responsável. Nos últimos anos, a Microsoft defendeu a governação responsável da IA e apoiou os compromissos voluntários de IA da Casa Branca dos EUA; alargou os limites da investigação responsável de IA para informar sobre o desenvolvimento de produtos; lançou o Responsible AI Standard para conceber, construir e testar sistemas de IA; e colocou ferramentas como o Responsible AI Dashboard do Azure Machine Learning ao controlo das organizações.
Personalizável para diferentes casos de utilização
Internamente, a Microsoft tem utilizado o Azure AI Content Safety para ajudar a proteger os utilizadores dos seus próprios produtos baseados em IA, como o Bing, o GitHub Copilot, o Microsoft 365 Copilot e o Azure Machine Learning.
Num mundo repleto de conteúdos, os problemas da IA responsável são transversais às empresas e aos sectores. É por isso que uma das principais vantagens do Azure AI Content Safety é a sua personalização. As políticas podem ser adaptadas para se adequarem ao ambiente e aos casos de utilização específicos de cada organização.
Criar confiança na era da IA
À medida que a IA generativa continua a proliferar, o mesmo acontece com as potenciais ameaças online. Para se manter à frente destas ameaças, a Microsoft melhorará continuamente a tecnologia através de investigações e do feedback dos clientes. Por exemplo, o trabalho em curso sobre modelos multimodais reforçará a deteção de combinações potencialmente questionáveis de imagens e texto que podem ser ignoradas por verificações individuais.
A Microsoft lida com moderação de conteúdo há décadas, criando ferramentas que ajudaram a proteger os utilizadores em todos os lugares, desde fóruns do Xbox até ao Bing. O Azure AI Content Safety baseia-se nessa experiência — e no Azure Content Moderator, o serviço anterior que permitiu às organizações aproveitar o poder dos recursos de deteção de conteúdo — e aproveita novos e poderosos modelos de linguagem e visão.
Ao pensar a segurança de forma holística, a Microsoft espera capacitar os utilizadores para adoptar de forma abrangente a Inteligência Artificial de forma confiável.
“A confiança é algo intrínseco às marcas Microsoft e Azure desde o princípio. À medida que embarcamos nesta jornada de IA continuamos a expandir o que podemos fazer para garantir que protegemos os clientes”, referiu Boyd.
Para mais informações sobre o serviço Azure AI Content Safety e casos de utilização de clientes empresariais ou na área da Educação consulte os links.