Boa tarde,
Desde que a Inteligência Artificial (IA) generativa se tornou popular no final de 2022, a maioria de nós adquiriu uma compreensão básica desta tecnologia e de como esta utiliza a linguagem natural para nos ajudar a interagir mais facilmente com os computadores. Alguns de nós até passámos a utilizar termos como "prompts" e "Machine Learning” durante um café com amigos. (Se ainda não está neste patamar, não se preocupe, pode começar com este artigo: 10 termos de IA que todos devem conhecer). Mas à medida que a IA continua a evoluir, o mesmo acontece com o seu léxico. Sabe qual é a diferença entre os grandes e pequenos modelos de linguagem? Ou o que significa "GPT" em ChatGPT? Ou o que é que um RAG?
Se não sabe, a Microsoft reuniu um conjunto de 10 novos termos avançados de IA que certamente vamos todos ouvir em breve.
Raciocínio/Planeamento
Os computadores utilizam a IA podem solucionar problemas e realizar tarefas utilizando padrões que aprenderam a partir de dados históricos para dar sentido à informação, algo semelhante ao raciocínio.
Os sistemas mais avançados estão a demonstrar a capacidade de dar um passo em frente, resolvendo problemas cada vez mais complexos através da criação de planos, elaborando uma sequência de ações para atingir um objetivo. Imagine pedir ajuda a um programa de IA para organizar uma viagem a um parque temático. O sistema pode simplesmente selecionar esse objetivo, planear uma visita que inclui seis diferentes atrações, dividi-la em etapas com um horário, utilizando o raciocínio para se certificar de que não estará a voltar para trás em nenhum momento e inclusivamente certificar-se de que a aventura aquática será realizada nas horas de mais calor – entre as 12h e as 15h.
Formação/inferência
Para criar e utilizar um sistema de IA, há duas etapas: formação e inferência. A formação é um tipo de educação do sistema, quando lhe é fornecido um conjunto de dados e aprende a executar tarefas ou a fazer previsões com base nesses dados. Por exemplo: pode ser-lhe fornecida uma lista de preços de casas recentemente vendidas num bairro, juntamente com o número de quartos e casas de banho de cada uma e uma multiplicidade de outras variáveis. Durante a formação, o sistema ajusta os seus parâmetros internos - que são valores que determinam o peso a dar a cada um desses fatores para influenciar o preço. A inferência ocorre quando o sistema usa esses padrões e parâmetros aprendidos para fazer uma previsão do preço de uma casa nova que está prestes a ser colocada no mercado.
SLMs/Pequenos Modelos de Linguagem
Os pequenos modelos de linguagem, ou SLMs, são “versões de bolso” dos grandes modelos de linguagem, ou LLMs. Ambos utilizam técnicas de machine learning para os ajudar a reconhecer padrões e relações na linguagem, de modo a poderem produzir respostas realistas e naturais. Mas, enquanto os LLMs têm uma maior dimensão e necessitam de uma grande dose de poder computacional e memória, os SLMs, como o Phi-3, são treinados em conjuntos de dados menores, selecionados e têm menos parâmetros. Por isso, são mais compactos e podem mesmo ser utilizados offline, sem ligação à Internet. Isto torna-os excelentes opções para aplicações em dispositivos como computadores portáteis ou telemóveis, onde se pode querer fazer perguntas básicas sobre cuidados a ter com animais de estimação, mas não é necessário mergulhar no raciocínio detalhado, que exige várias etapas, de como treinar cães-guia.
Fundamentação
Os sistemas de IA generativa podem compor histórias, poemas e piadas, bem como responder a perguntas de investigação. Mas, por vezes, têm dificuldade em separar os factos da ficção ou têm os dados desatualizados, pelo que podem dar respostas imprecisas, designadas por alucinações. Os programadores trabalham para ajudar a IA a interagir com o mundo real de forma precisa através do processo de fundamentação, que é quando ligam e ancoram o seu modelo a dados e exemplos tangíveis para melhorar a precisão e produzir resultados mais contextualizados, relevantes e personalizados.
Geração Aumentada de Recuperação (RAG)
Quando os programadores dão a um sistema de IA acesso a uma fonte de ligação à terra para o ajudar a ser mais preciso e atual, utilizam um método chamado Geração Aumentada de Recuperação ou RAG. O padrão RAG poupa tempo e recursos ao adicionar conhecimento extra sem ter de reprogramar o programa de IA. Imagine que o Sherlock Holmes já leu todos os livros da biblioteca, mas ainda não resolveu o caso que tem em mãos. Por isso vai ao sótão, desenrola uns pergaminhos antigos e encontra a peça que faltava no puzzle. Da mesma forma, se tiver uma marca de vestuário e quiser criar um chatbot que possa responder a perguntas específicas sobre a sua mercadoria, pode usar o padrão RAG no seu catálogo de produtos para ajudar os clientes a encontrar a camisola verde perfeita disponível na sua loja.
Orquestração
Os programas de IA têm muito que fazer enquanto processam os pedidos das pessoas. A camada de orquestração é o que os orienta através de todas as suas tarefas na ordem correta para obter a melhor resposta. Se perguntar ao Microsoft Copilot quem é Ada Lovelace, por exemplo, e depois lhe perguntar quando nasceu, o orquestrador da IA armazena o histórico de conversação para verificar se o "ela" na sua pergunta de seguimento se refere a Lovelace. A camada de orquestração também pode seguir um padrão RAG, pesquisando na Internet informações novas para adicionar ao contexto e ajudar o modelo a obter uma resposta melhor. É como um maestro que dá a dica aos violinos e depois às flautas e aos oboés, à medida que todos seguem a partitura para produzir o som que o compositor tinha em mente.
Memória
Os modelos de IA atuais não têm tecnicamente memória. Mas os programas de IA podem ter instruções orquestradas que os ajudam a "recordar" informações seguindo passos específicos em cada transação - como armazenar temporariamente perguntas e respostas anteriores num chat e depois incluir esse contexto no pedido atual do modelo, ou utilizar dados de base do padrão RAG para garantir que a resposta tem a informação mais recente. Os programadores estão a fazer experiências com o nível de orquestração para ajudar os sistemas de IA a saberem se precisam de se lembrar temporariamente de uma repartição de passos (por exemplo: memória de curto prazo, como anotar um lembrete numa nota adesiva) ou se seria útil lembrar-se de algo durante um período mais longo, armazenando-o numa localização mais permanente.
Modelos de transformação e modelos de difusão
Há décadas que se ensinam os sistemas de IA a compreender e a gerar linguagem, mas uma das descobertas que acelerou os mais recentes avanços foi o modelo transformador. Entre os modelos de IA generativa, os transformadores são os que melhor e mais rapidamente compreendem o contexto e as nuances. São contadores de histórias eloquentes, prestando atenção aos padrões nos dados e ponderando a importância de diferentes entradas para os ajudar a prever rapidamente o que se segue, o que lhes permite gerar texto. A fama de um transformador é o facto de ser o T em ChatGPT: Generative Pre-trained Transformer (Transformador generativo pré-treinado). Os modelos de difusão, geralmente utilizados para a criação de imagens, acrescentam ao fazerem um percurso mais gradual e metódico, difundindo os pixéis a partir de posições aleatórias até se distribuírem de forma a gerar uma imagem pedida num prompt. Os modelos de difusão continuam a fazer pequenas alterações até criarem algo que funcione.
Modelos de fronteira
Os modelos de fronteira são sistemas de grande escala que ultrapassam os limites da IA e podem executar uma grande variedade de tarefas com novas e maiores capacidades. Podem ser tão avançados que, às vezes, até nos surpreendem. As empresas de tecnologia, incluindo a Microsoft, formaram um Frontier Model Forum para partilhar conhecimentos, estabelecer padrões de segurança e ajudar todos a compreender estes poderosos programas de IA, para garantir um desenvolvimento seguro e responsável.
GPU
Uma GPU, que significa Graphics Processing Unit (Unidade de Processamento Gráfico), é basicamente uma calculadora "turbocharged". As GPUs foram originalmente concebidas para suavizar gráficos sofisticados em videojogos e, atualmente, são os "muscle cars" da computação. Os chips têm muitos núcleos minúsculos, ou redes de circuitos e transístores, que resolvem problemas matemáticos em conjunto, o chamado processamento paralelo. Uma vez que é basicamente isso que a IA é - resolver toneladas de cálculos em grande escala para poder comunicar em linguagem humana e reconhecer imagens ou sons - as GPU são indispensáveis para as ferramentas de IA, tanto para formação como para inferência. De facto, os modelos mais avançados da atualidade são treinados utilizando enormes clusters de GPUs interligadas - por vezes com dezenas de milhares espalhadas por data centers gigantes - como os que a Microsoft tem no Azure, que estão entre os computadores mais potentes alguma vez construídos.
Descubra mais sobre as últimas notícias de IA em Microsoft Source.
Obrigado