Boa tarde,
A Microsoft volta a dar mais um passo no universo da Inteligência Artificial (IA) ao anunciar várias atualizações para ajudar programadores a criar rapidamente soluções de IA com maior escolha e flexibilidade, tirando partido das ferramentas de IA do Azure. Conheça cada uma delas.
Utilizar a família de modelos Phi com mais linguagens e maior capacidade de processamento
A Microsoft introduziu um novo modelo na família Phi, o Phi-3.5-MoE, um modelo Mixture of Experts (MoE), que combina 16 experts mais pequenos num só, proporcionando melhorias na qualidade do modelo e menor tempo de latência. Embora o modelo tenha 42 mil milhões de parâmetros, uma vez que se trata de um modelo MoE, utiliza apenas 6,6 mil milhões de parâmetros ativos de cada vez, sendo capaz de especializar um subconjunto dos parâmetros (experts) durante o treino e, em seguida, em tempo de execução, utilizar os experts relevantes para a tarefa. Esta abordagem proporciona aos clientes a vantagem da velocidade e eficiência computacional de um pequeno modelo com o conhecimento do domínio e resultados com qualidade superior de um grande modelo. Leia mais sobre como utilizam uma arquitetura de MoE para melhorar o desempenho e a qualidade da tradução do Azure AI.
A tecnológica acaba de anunciar também um novo modelo mini, o Phi-3.5-mini, de 3,8 mil milhões de parâmetros. Tanto o novo modelo MoE como o modelo mini são multilíngues, suportando mais de 20 idiomas, incluindo a língua portuguesa, que permitem às pessoas interagir com o modelo na língua com a qual se sentem mais à vontade.
Para tornar as respostas mais previsíveis e definir a estrutura necessária para uma aplicação, a Microsoft está a incorporar no Phi-3.5-mini o Guidance, uma biblioteca Python de open-source (com mais de 18 mil estrelas no GitHub) que permite aos programadores expressar numa única chamada de API as restrições programáticas exatas que o modelo deve seguir para um output estruturado em JSON, Python, HTML, SQL, ou outro. Com o Guidance, é possível eliminar tentativas dispendiosas e pode-se, por exemplo, restringir o modelo para selecionar a partir de listas predefinidas (por exemplo, códigos médicos), restringir outputs a citações diretas do contexto fornecido ou seguir qualquer regex. O Guidance orienta o modelo token by token na stack de inferência, produzindo resultados de maior qualidade e reduzindo o custo e a latência até 30 a 50% ao utilizar cenários altamente estruturados.
Para além disso, a Microsoft está a atualizar o modelo Phi-3-vision com suporte para multi-frames. Isto significa que o Phi-3.5-vision (com 4.2 mil milhões de parâmetros) vai permitir o processamento de várias imagens de entrada, permitindo novos cenários como a identificação de diferenças entre imagens.
Os programadores que trabalham com modelos Phi podem avaliar a qualidade e a segurança, através de métricas incorporadas e personalizadas utilizando as avaliações do Azure AI, e informar acerca das medidas de correção necessárias. O Azure AI Content Safety fornece controlos e proteções incorporados, como escudos em prompt e deteção de material protegido. Estas funcionalidades podem ser aplicadas em todos os modelos, incluindo o Phi, utilizando filtros de conteúdo ou podem ser facilmente integradas em aplicações através de uma única API. Uma vez em produção, os programadores podem monitorizar a sua aplicação em termos de qualidade e segurança, ataques adversários e integridade de dados, fazendo intervenções atempadas com a ajuda de alertas em tempo real.
Apresentação dos modelos AI21 Jamba 1.5 Large e Jamba 1.5 como um serviço no Azure AI
Para além de fornecer acesso à mais vasta seleção de modelos aos programadores, a Microsoft apresenta dois novos modelos abertos, o Jamba 1.5 Large e o Jamba 1.5, disponíveis no catálogo de modelos do Azure AI. Estes modelos utilizam a arquitetura Jamba, combinando as camadas Mamba e Transformer para um processamento eficiente de contextos longos.
De acordo com a AI21, os modelos Jamba 1.5 Large e Jamba 1.5 são os mais avançados da série Jamba. Estes modelos utilizam a arquitetura Hybrid Mamba-Transformer, que conjuga velocidade, memória e qualidade ao aplicar camadas Mamba para dependências de curto alcance e camadas Transformer para dependências de longo alcance. Consequentemente, esta família de modelos destaca-se na gestão de contextos alargados, ideais para setores de atividade que incluem serviços financeiros, de saúde e ciências biológicas, bem como retalho e bens de consumo embalados.
Saiba mais sobre a família de modelos Jamba.
Simplificar a RAG para aplicações de IA generativa
Com a Retrieval Augmented Generation (RAG, é possível utilizar estratégias como a recuperação vetorial e híbrida para apresentar informações relevantes e esclarecidas a uma questão, com base nos dados. No entanto, para efetuar a pesquisa vetorial, é necessária uma preparação significativa dos dados. A aplicação tem, por isso, de receber, analisar, melhorar, incorporar e indexar dados de vários tipos, muitas vezes presentes em várias fontes, apenas para que possam ser utilizados no Copilot.
Hoje a Microsoft anuncia a disponibilização geral da vetorização integrada no Azure AI Search, que vem automatizar e simplificar esses processos num único fluxo. Com a indexação e consulta automáticas de vetores usando o acesso integrado a modelos de incorporação, a aplicação utilizada pela organização desbloqueia todo o potencial dos dados disponíveis.
Além de melhorar a produtividade do programador, a vetorização da integração permite às organizações disponibilizar sistemas RAG completos como soluções para novos projetos, para que as equipas possam criar rapidamente uma aplicação específica para os seus conjuntos de dados e necessidades, sem terem de criar sempre uma implementação personalizada.
Saiba mais sobre vetorização.
Extrair campos personalizados em Document Intelligence
Agora é possível extrair campos personalizados de documentos não estruturados com elevada precisão, criando e treinando um modelo generativo personalizado no Document Intelligence. Esta nova capacidade utiliza IA generativa para extrair campos especificados pelo utilizador de documentos numa grande variedade de modelos visuais e tipos de documentos. Durante a criação de um modelo generativo personalizado, a etiquetagem automática poupa tempo e esforço na anotação manual, e os resultados serão apresentados como fundamentados quando aplicáveis e as pontuações de confiança estão disponíveis para filtrar rapidamente dados extraídos de alta qualidade para processamento e reduzir o tempo de revisão manual.
Saiba mais sobre a preview a extração de campos personalizados.
Criar experiências envolventes com avatares pré-construídos e personalizados
A Microsoft anuncia também que o Avatar de Text to Speech (TTS), uma capacidade do serviço Azure AI Speech, já está disponível para todos. Este serviço dá vida a vozes com som natural e avatares, em diversos idiomas e vozes, melhorando o envolvimento do cliente e a experiência geral do utilizador. Com o TTS Avatar, os programadores podem criar experiências personalizadas e envolventes para os seus clientes e colaboradores, enquanto melhoram a eficiência e fornecem soluções inovadoras.
O serviço TTS Avatar fornece aos programadores uma variedade de avatares pré-construídos, com um portefólio diversificado de vozes naturais, bem como uma opção para criar vozes sintéticas personalizadas utilizando o Azure Custom Neural Voice. Além disso, os avatares podem ser personalizados para corresponder à marca de uma empresa.
À medida que a Microsoft tem introduzido esta tecnologia no mercado, a sua principal prioridade continua a ser garantir a utilização e o desenvolvimento responsável da IA. O Custom Text to Speech Avatar é um serviço de acesso limitado no qual foram integradas caraterísticas de proteção e segurança. Por exemplo, o sistema incorpora marcas de água nos resultados dos avatares, que permitem aos utilizadores aprovados verificar se um vídeo foi criado através da funcionalidade de avatar do Azure AI Speech. Além disso, a Microsoft fornece diretrizes para a utilização responsável do avatar TTS, incluindo medidas para promover a transparência nas interações dos utilizadores, identificar e mitigar potenciais parcialidades ou conteúdos sintéticos prejudiciais, e como se integrar na Azure AI Content Safety.
Saiba mais sobre o Azure TTS Avatar.
Utilizar os recursos do Azure Machine Learning no VS Code
A Microsoft anuncia ainda a disponibilidade geral da extensão VS Code para o Azure Machine Learning. A extensão permite criar, treinar, implementar, remover bugs e gerir modelos de machine learning com o Azure Machine Learning diretamente a partir da sua configuração favorita do VS Code, seja na versão desktop ou Web. Com recursos como suporte a VNET, IntelliSense e integração com a CLI do Azure Machine Learning, a extensão está agora pronta para uso em produção. Leia este blog da tech community para saber mais sobre a extensão.
Proteger a privacidade dos utilizadores
A Microsoft disponibilizou ainda o Conversational PII Detection Service no Azure AI Language, a fim de melhorar a capacidade do Azure AI de identificar e redigir informações confidenciais em conversas, começando com o idioma inglês. Este serviço tem como objetivo melhorar a privacidade e a segurança dos dados para os programadores que criam aplicações baseadas de IA generativa para a sua empresa. O serviço de redação de PII de conversação expande o Text PII redaction service, apoiando os clientes que procuram identificar, categorizar e redigir informações confidenciais, como números de telefone e endereços de e-mail em texto não estruturado. Este modelo de PII de conversação é especializado em entradas de estilo de conversação, particularmente aquelas encontradas em transcrições de fala de reuniões e chamadas.
Saiba mais sobre o serviço de redação Conversational PII.
Autoassistência às PTUs do Azure OpenAI Service
Recentemente, a Microsoft comunicou atualizações ao Azure OpenAI Service, incluindo a capacidade de gerir as implementações de quotas sem depender do suporte da sua equipa, permitindo-lhe solicitar PTUs (Provisioned Throughput Units) de forma mais flexível e eficiente. A Microsoft disponibilizou ainda o modelo mais recente do OpenAI, que introduziu Structured Outputs, como esquemas JSON, para os novos modelos GPT-4o e GPT-4o mini. As Structured Outputs são particularmente valiosas para os programadores que precisam de validar e formatar as saídas de IA em estruturas como esquemas JSON.
Leia mais sobre as Structured Outputs para os mini modelos GPT-4o e GPT-4o no Azure Blog.
Obrigada.