Como é que as empresas podem utilizar a pesquisa com IA de LLM para criar valor?

empresas

 

Artigo traduzido e adaptado de “How Companies Can Use LLM-Powered Search to Create Value

À medida que os modelos de linguagem avançam a um ritmo acelerado, muitos líderes de negócios ainda estão a tentar perceber como é que podem por esta tecnologia a funcionar. Por um lado, procuram áreas onde estas ferramentas de IA possam rapidamente provar o que valem. Por outro, querem criar os alicerces para uma transformação em larga escala.

A IA está a tornar-se uma parte natural de tudo o que fazemos e é intrínseco a cada área de negócios, integrando-se de maneira contínua nos diversos processos para aumentar a eficiência e a inovação. Uma área promissora que pode causar impacto imediato e ajudar a construir uma base sólida é a pesquisa e recuperação de informações com modelos de linguagem extensa (LLM). Esta abordagem pode transformar a forma como as empresas interagem com os seus próprios dados, desbloqueando insights, fomentando novas ideias e orientando para tomar decisões mais informadas.

Os utilizadores da web já adotaram esta competência, usando-a para melhorar a pesquisa com resumos e visões gerais geradas pela IA. Muito rapidamente, a pesquisa por links será substituída por interfaces conversacionais que permitirão aos utilizadores refinar as consultas e aprofundar o entendimento por meio de perguntas de acompanhamento. Estes modelos não se limitam ao texto – áudio, vídeo e imagens, também fazem parte desse novo paradigma de pesquisa e recuperação. Esta experiência multimodal é apenas umas das razões pelas quais os utilizadores continuam a procurar aplicações mais avançadas de pesquisa com a IA.

Agora, pense como estas poderosas capacidades podem ser utilizadas por toda a empresa: ferramentas de chat que permitem aos colaboradores consultar facilmente documentos de políticas, conduzir sessões de perguntas e respostas com os dados mais recentes das vendas da empresa ou manter conversas significativas com todo o conhecimento institucional. Mas há oportunidades ainda maiores. Essas capacidades avançadas de pesquisa e recuperação com a IA generativa podem auxiliar na criação de documentos, relatórios, códigos, sistemas de recomendação e muito mais.

Neste artigo, explora-se as técnicas mais recentes que impulsionaram a pesquisa e recuperação baseadas na IA generativa e partilhamos casos de uso inovadores e reais que têm retorno. Em seguida, discutiremos os riscos e os desafios associados a esses casos de uso e partilhamos seis táticas que as empresas podem adotar para aproveitar esta capacidade de modo eficaz e responsável.

A pesquisa com base na LLM está mais forte

Nos últimos anos, os modelos de linguagem extensos (LLM) evoluíram rapidamente, assim como os softwares mais amplos dos quais são parte integrante. Em particular, muits LLMs foram sendo aprimorados por uma inovação chamada “geração aumentada por recuperação” (RAG2), na qual o conteúdo é extraído de uma base de dados conhecida, o que torna a recuperação de informações mais confiável e reduz o recurso a ajuste fino (ou novo treino) dos LLMs. O uso de RAG e outras inovações técnicas recentes são respostas diretas a desafios anteriores, como as “alucinações” ou respostas incorretas que os sistemas possam ter recuperado. O ecossistema RAG está a melhorar rapidamente a precisão de recuperação e a criação de conteúdo usando o conteúdo recuperado. Estas melhorias permitem que as empresas aproveitem os seus próprios conjuntos de dados exclusivos, transformando processos de negócios e modos de trabalho, questionando a consulta de um conjunto de documentos conhecidos.

Os sistemas RAG também estão a ser utilizados em conjunto com a “aprendizagem por reforço com feedback humano” (RLHF3), que se refere à combinação de conhecimento recuperado com o feedback humano para refinar o comportamento do modelo e gerar respostas mais precisas e contextualmente relevantes. Isto permite que os utilizadores orientem o sistema a preferir determinados conteúdos dentro do índice de pesquisa ou vetorial, com base no feedback do utilizador. Dando prioridade ao conteúdo que consideram mais relevante para o seu caso. Esta abordagem tem implicações múltiplas. Por exemplo, os RH que utilizam a RAG com RLHF podem dar prioridade a exibir informações de políticas de RH que estejam alinhadas com as necessidades especificas de um colaborador ou com as suas consultas recorrentes. Com o tempo, o sistema aprende e adapta-se para preferir documentos e diretrizes que o funcionário frequentemente referencia ou considera particularmente útil, criando assim um processo de recuperação de informações mais personalizado e eficiente.

Estas melhorias desbloqueiam um novo potencial, quer para os humanos, quer para agentes baseados em LLM, projetados para realizar micro-tarefas e trabalhar em conjunto para alcançar um objetivo maior com a ajuda de um input humano no processo. Agora, um número cada vez maior de empresas procura resolver problemas no fluxo de dados, desde as próprias estruturas do banco de dados até como melhorar os canais de dados.

Obter melhores informações e mais rapidamente é sempre prioridade para os negócios. Nos motores de pesquisa públicos, os resumos gerados pela IA mudaram o ponto de partida dos utilizadores: em vez de clicar em links e tentar orientar, estes podem examinar uma resposta compilada dos principais resultados da pesquisa. Isso pode não ser perfeito, mas pelo menos, ajuda a orientar a pesquisa. Essa é a experiência que as empresas procuram incorporar nos seus próprios sistemas, trazendo respostas a consultas relevantes que abrangem questões internas, como as que estão relacionadas com as políticas empresariais, e sistemas interativos voltados para o cliente.

Já temos exemplos disso em vários setores. Por exemplo, uma empresa melhorou a forma como responde aos problemas dos clientes e a eficiência e eficácia das operações do call centre. Ao usar o RAG para inserir o LLM nas suas bases de dados internas, uma combinação de agentes de atendimento ao cliente, humanos e baseados na IA, encontra-se rapidamente as informações relevantes para o cliente e fornece-se resultados mais personalizados, vinculados e informações reais e confiáveis especificas da empresa. O RLHF aprimora ainda mais este processo.

Vejamos o setor da informação e tecnologia, onde abordagens semelhantes estão a ser utilizadas para melhorar o ciclo de vida do desenvolvimento do software (SDLC4). Com acesso às exigências dos negócios, documentação de produtos e repositórios de código, os sistemas de LLM e agentes estão a automatizar e a melhorar a qualidade da organização de acumulação de trabalho, produção de casos de teste, criação de códigos e outras áreas-chave do SDLC. Emboras estes casos possam não parecer casos de uso diretamente relacionados com a pesquisa e recuperação, na realidade, eles seguem os mesmos requisitos principais: processar uma consulta para entender a sua intenção principal, mapear informações relevantes existentes e recuperar o conteúdo conhecido que possa servir de forma eficaz à pesquisa.

Desafios e riscos

As soluções LLM e outros sistemas de pesquisa gerados por GenAI (Inteligência Artificial generativa) não estão isentos de potenciais falhas, nenhuma solução tecnológica o está. Embora a Geração Aumentada de Recuperação (RAG) e outras inovações permitam o acesso a melhores dados e mais relevantes, não eliminam o risco de falhas. Os sistemas de GenAI podem, e ainda o fazem, exibir informações pouco precisas. Por exemplo, um sistema projetado para recuperar políticas relevantes para uma consulta. O que acontece se houver várias versões do mesmo tipo de política no repositório? Ou se houver orientações conflituosas entre diferentes políticas?

As empresas têm de ser capazes de articular as respostas erradas que podem surgir e promover esta consciência entre os utilizadores e criadores.

Este projeto deve ser inserido num quadro de IA responsável, que forneça uma abordagem a toda a empresa para identificar, mitigar e monitorizar os vários riscos associados ao usa da IA, e o que é necessário para remediar essas questões. Por exemplo, desenvolver um entendimento compartilhado do que se acredita ser uma fonte de dados autorizada é essencial; os modelos por si só não têm consciência para saber disso, por isso eles devem ser instruídos, ou caso contrário, a informação errada espalha-se. O velho ditado “entra lixo, sai lixo” aplica-se ao domínio da GenIA. Portanto, dedicar tempo no início do processo para garantir dados bem organizados só traz benefícios a longo prazo em termos de precisão e consistência.

Outro risco dos sistemas de GenAI é a saída de dados e outros problemas de privacidade, e as implementações de tipo RAG não eliminam completamente esses problemas. Nos últimos 18 meses, houve uma grande pressão por parte dos utilizadores corporativos para ter uma base segura de modelos GenAI implementados nas suas instalações, sem que os dados (prompts, documentos, etc.) fossem enviados ao fornecedor ou à comunidade de código aberto. No entanto, essas implementações locais não impedem a saída de informação das organizações – um funcionário de vendas pode ter acesso a dados confidenciais dos Recursos Humanos se forem expostos ao mesmo modelo. Por essa razão, continuamos a defender práticas de gestão que exigem firewalls onde dados sensíveis são considerados e devem ser protegidos.

Além disso, há riscos como preconceitos e transparência, que persistem porque esses problemas derivam de várias fontes: o modelo de GEnAI subjacente, o uso pretendido da aplicação e as expetativas dos utilizadores. Embora os próprios fornecedores se estejam a esforçar para melhorar as capacidades de monitorização assíncrona para identificar de forma responsável informações potencialmente prejudiciais, as empresas ainda precisam de práticas internas para possibilitar o uso eficaz para a procura e recuperação. Estar consciente de como uma recuperação enviesada se pode manifestar e incorporar instruções adicionais para a sua mitigação no contexto de um uso específico, especialmente, quando se trata de informações sensíveis sobre pessoas ou comunidades, é uma capacidade empresarial que necessita de ser desenvolvida como parte de um quadro mais amplo de IA responsável.

Embora o uso interno nas empresas possa apresentar desafios de cibersegurança limitados, em comparação com as aplicações voltadas para os consumidores externos, as empresas ainda precisam de permanecer atentos quanto a possíveis ataques, como roubo de dados e de prompts, que podem comprometer a eficácia das soluções ao longo do tempo para uma ampla gama de utilizadores. A monitorização é necessária para cada caso de utilização e aplicação para entender como estão a ser utilizados ou abusados e onde é que o desempenho se pode deteriorar.

Seis táticas para melhorar esta competência eficazmente e responsavelmente

Embora os desafios persistam e possam continuar a evoluir ao longo do tempo, não há dúvida de que a transição para a pesquisa e recuperação habilitadas por modelos de linguagem extensa (LLM) e IA generativa continuará. Para fazer isso de forma eficaz, as organizações devem considerar seguir vários passos:

  1. Definir claramente os casos de uso.

Colabore com as equipas de negócios na definição dos requisitos e com as equipas técnicas ou fornecedores responsáveis pela construção e implementação para alinhar uma solução com resultados claramente mensuráveis, de modo a possibilitar uma avaliação futura.

  1. Estabelecer processos de triagem que considerem, quer o risco, quer o valor.

Considere não apenas o ROI (Retorno sobre o investimento) do caso de uso, mas também a sensibilidade dos dados utilizados, o potencial de danos que a aplicação pode causar, e os utilizadores-alvo ao dar prioridade aos casos que merecem investimento. Incorpore uma abordagem por níveis de risco na avaliação dos casos.

  1. Investir em práticas relacionadas com a coleta de dados, teste e validação para estabelecer uma base confiável.
    Reconheça que o uso eficaz de modelos de linguagem extensa (LLM), especialmente aqueles usados em tarefas de pesquisa e recuperação, ainda requer uma base de factos sólida. Por isso, os esforços de transformação de dados devem continuar, com foco, quer na qualidade dos dados que alimentam os modelos, quer nos fluxos de trabalho gerais para obtenção, rotulagem, armazenamento, acesso e processamento de dados.
  1. Incorporar práticas de teste padronizadas.
    Avaliações ad hoc são limitadas; alinhe-se a um processo padrão de desenvolvimento de modelos apoiado por guias práticos e práticas de teste predefinidas para possibilitar sistemas de qualidade, resilientes e bem testados.
  1. Estabelecer capacidades de monitorização.
    Considere que as coisas mudam; os dados mudam, a forma como os utilizadores interagem com os sistemas muda, a tecnologia muda, e as necessidades dos sistemas também mudam ao longo do tempo. Reconheça que esses sistemas precisam de monitorização contínua de desempenho e de métricas definidas para que exista algo (e alguma forma) para monitorizar.
  1. Implementar campanhas de formação, sensibilização e comunicação.
    Equipar os colaboradores com o conhecimento para construir, implementar e utilizar de forma eficaz e responsável as ferramentas de IA generativa é tão importante quanto a infraestrutura técnica e o controlo de gestão de risco necessários. Identifique as necessidades de aprendizagem e sensibilização sobre IA generativa em toda a organização e crie programas de educação e comunicação personalizados.

É provável que a procura continue a ser uma aplicação dominante para modelos de linguagem extensa e para IA generativa multimodal durante algum tempo. No entanto, esses sistemas ainda requerem dados eficazes, ferramentas e gestão para operar de forma eficaz, em grande escala. Práticas de IA responsável e gestão associada devem sustentar todas as implementações de IA. Com um panorama tecnológico em constante mudança, considere os casos de uso com base no impacto e no risco, e invista nas funções subjacentes que possibilitam uma expansão responsável em diversas áreas.

Sabe mais sobre outros temas AQUI!

Newsletter

Subscreva a nossa newsletter e fique sempre a par de todas as novidades

Formulário de dúvidas e denúncias

É importante para o Grupo Casais, conhecer as suas sugestões e reclamações, de forma a garantir que podemos melhorar continuamente.

Como colaborador, colaborador de um nosso parceiros, parte interessada ou testemunha pode denunciar situações de forma anónima, submeter informação sobre situações condenáveis ou denunciar ações ilegais, que violem políticas internas e/ou o nosso código de conduta de fornecedores.

As denúncias podem ser efetuadas de forma confidencial, indicando o nome e as informações de contacto ou, se quiser, de forma 100% anónima, deixando os campos em branco. Todas as denúncias serão tratadas de forma segura e confidencial.