Bom dia,
As alucinações da Inteligência Artificial (IA) consistem na apresentação de conteúdos não fundamentados, ou seja, o modelo alterou os dados que lhe foram fornecidos ou acrescentou informações. As alucinações podem ser benéficas quando os utilizadores pretendem que a IA crie uma história de ficção científica ou forneça ideias não convencionais. No entanto, a maioria das organizações que desenvolvem assistentes de IA necessitam que estes sejam capazes de fornecer informações fiáveis e fundamentadas, como é o caso das instituições de saúde ou de ensino, nas quais a precisão dos dados é fundamental.
Com o propósito de combater o fenómeno das alucinações, a Microsoft criou uma tarefa de recuperação de texto e acompanhou o processo com o intuito de melhorar as respostas dos modelos. Este trabalho conduziu a uma nova forma de reduzir os casos em que os grandes modelos de linguagem (LLM) se desviam dos dados que lhes são fornecidos, pois sabe-se que estes tendem a alucinar mais com factos que estão menos disponíveis nos dados de treino da Internet.
Este é um exemplo de como a Microsoft, equipada com os especialistas e recursos necessários, está empenhada em criar soluções para medir, detetar e mitigar as alucinações da IA. Parte dos esforços da empresa está dedicada a desenvolver a IA com responsabilidade, para que esta opere de uma forma segura, confiável e ética, e por isso mesmo foi criado um conjunto abrangente de ferramentas cuja finalidade consiste em ajudar a resolver a falta de fundamentação com base na experiência do desenvolvimento dos seus próprios produtos de IA, como o Microsoft Copilot.
Os engenheiros da Microsoft passaram meses a fundamentar o modelo do Copilot com dados de pesquisa do Bing através da técnica retrieval augmented generation, que acrescenta conhecimentos a um modelo sem ter de o treinar novamente. As respostas, o índice e os dados de classificação do Bing estão a ajudar o Copilot a fornecer respostas mais precisas e relevantes, juntamente com citações que permitem aos utilizadores procurar e verificar informações.
Neste momento, a Microsoft está também empenhada em ajudar os seus clientes a fazer o mesmo com ferramentas avançadas. A funcionalidade On Your Data no Azure OpenAI Service apoia as organizações a fundamentar as suas aplicações de IA generativa com os seus próprios dados num ambiente seguro à escala empresarial. Outras ferramentas disponíveis no Azure AI ajudam os clientes a proteger as suas aplicações ao longo do ciclo de vida da IA generativa. Um serviço de avaliação ajuda os clientes a medir o fundamento em aplicações em produção e em relação a métricas de fundamento pré-criadas. Os modelos de mensagens do sistema de segurança facilitam aos engenheiros a instrução de um modelo para se concentrarem na obtenção de dados.
A Microsoft está também a desenvolver uma nova funcionalidade de mitigação para bloquear e corrigir instâncias não fundamentadas em tempo real, ou seja, quando é detetado um erro de conexão, a funcionalidade reescreve automaticamente as informações com base nos dados.
Porque é que estas alucinações acontecem? Como prever que poderão acontecer em momentos específicos e como evitá-las? Estas são questões que pendem sobre a comunidade científica e nas quais a Microsoft está focada e comprometida em desenvolver arquiteturas que libertem a futura geração de modelos deste problema premente.
Saiba mais sobre o trabalho da Microsoft em prol da Responsible AI.
Obrigada!