Artigo traduzido e adaptado de “Embracing Gen AI at Work“
A inteligência artificial generativa deverá transformar radicalmente todos os tipos de empregos nos próximos anos. Deixando de ser domínio exclusivo dos tecnólogos, a IA pode agora ser utilizada por quase todas as pessoas, através de comandos em linguagem comum, em vez de códigos. Os dados da nossa pesquisa mostram que, a maioria das posições empresariais e mais de 40% de todas as atividades de trabalho nos EUA podem ser ampliadas, automatizadas ou reinventadas com IA generativa. As mudanças deverão ter maior impacto nos setores jurídico, bancário, de seguros e mercados de capitais, seguidos pelo comércio a retalho, turismo, saúde e energia.
Para as organizações e os seus colaboradores, esta mudança iminente traz implicações significativas. No futuro, muitos de nós perceberemos que o nosso sucesso profissional dependerá da capacidade de obter o melhor desempenho possível de modelos de linguagem avançados (LLMs) como o ChatGPT, e de aprender e evoluir em conjunto. Para se destacar nesta nova era de colaboração entre humanos e IA, a maioria das pessoas precisará de desenvolver uma ou mais das chamadas “competências de fusão”: questionamento inteligente, integração de juízo de valor e aprendizagem recíproca.
O questionamento inteligente consiste em instruir os LLMs, ou, simplesmente, dar-lhes comandos de modo a produzir raciocínios e resultados significativamente melhores. Resumindo, é a competência de pensar em conjunto com a IA. Por exemplo, um diretor de serviço ao cliente de uma empresa de serviços financeiros pode utilizá-lo para responder a uma consulta complicada de um cliente; um cientista farmacêutico, para investigar compostos de medicamentos e interações moleculares; e um profissional de marketing, para analisar bases de dados e encontrar o preço ideal para o retalho.
A integração de juízo de valor diz respeito a aplicar o discernimento humano quando um modelo de IA generativa mostra incerteza sobre o que fazer ou necessita do contexto empresarial ou ético necessário para o seu raciocínio. O objetivo é tornar os resultados das interações humano-máquina mais fiáveis. Esta competência exige perceber onde, quando e como intervir, sendo a sua eficácia medida pela fiabilidade, precisão e capacidade de explicação dos resultados da IA.
Com a aprendizagem recíproca, os utilizadores ajudam a IA a compreender as suas tarefas e necessidades empresariais, incorporando dados relevantes e conhecimento organizacional nos comandos dados à IA, treinando-a para ser uma cocriadora. Trata-se de ajustar a IA generativa ao contexto específico do negócio da empresa, para que possa atingir os resultados desejados. Ao fazer isso, os utilizadores também aprendem a treinar a IA para lidar com desafios mais complexos. Aquilo que era uma capacidade restrita a cientistas de dados e especialistas em análises, a aprendizagem recíproca tornou-se cada vez mais essencial em funções não técnicas.
Por que razão é necessário desenvolver sistematicamente estas novas competências de pensamento, construção de confiança e personalização? Os estudos empíricos mostram consistentemente que instruções improvisadas, que é a forma como a maioria dos colaboradores utiliza os LLMs atualmente, dão origem a resultados pouco fiáveis ou de baixa qualidade, especialmente em tarefas de raciocínio complexo. Isto aplica-se a diversas áreas, desde o atendimento ao cliente ao marketing, logística e investigação e desenvolvimento (I&D). É fundamental que todos adotem um uso mais rigoroso da IA generativa no trabalho. Neste artigo, explicamos como fazê-lo.
Questionar a IA de Forma Inteligente
Como melhorar os resultados de um sistema massivamente complexo, como um modelo de linguagem avançado (LLM), que é treinado com muitos dados e funciona com base em probabilidades, em vez de lógica humana? Existem várias técnicas que pode usar.
Pense passo a passo. Ao dar instruções a uma IA generativa, é importante decompor o processo que ela deve seguir em partes constituintes e otimizar cada passo, de forma semelhante ao que a primeira onda de gestão científica fez na produção industrial. Contudo, o processo da IA não envolve uma linha de montagem; envolve uma cadeia de pensamento para alcançar um determinado resultado. Os estudos mostram que, quando as ferramentas de IA generativa são instruídas a desmembrar tarefas de raciocínio desta forma, o seu desempenho melhora significativamente. Isto é especialmente verdadeiro para problemas mais difíceis, como demonstrou Jason Wei, o investigador da OpenAI que explorou pela primeira vez o raciocínio em cadeia.
Na verdade, acrescentar a simples frase “Vamos pensar passo a passo” às instruções de um LLM pode aumentar a precisão dos seus resultados três vezes mais, em tarefas que vão desde matemática ao raciocínio estratégico. Por exemplo, imagine que o seu comando para a IA é: ”O meu departamento tem um orçamento de 500.000 dólares. Gastámos 20% em equipamentos e alocámos 30% para uma nova contratação. Acabámos de receber um aumento de orçamento de 50.000 dólares. Qual é o orçamento restante? Vamos pensar passo a passo.” O modelo responderá: ”Inicialmente, o seu departamento tinha 500.000 dólares. Gastou 20%, ou seja 100.000 dólares, em equipamentos, restando 400.000 dólares. Alocou 30%, ou seja, 150.000 dólares, para uma nova contratação, o que reduziu o orçamento para 250.000 dólares. Por fim, recebeu recentemente um aumento de 50.000 dólares no orçamento. O orçamento restante é de 300.000 dólares.” Embora a maioria das pessoas consiga fazer este cálculo de cabeça, o ponto aqui é que os LLMs (que trabalham muito mais rápido) podem detalhar o seu raciocínio em problemas quantitativos muito mais complexos, como encontrar o caminho mais curto para um representante de vendas visitar várias cidades. Isso cria uma cadeia de raciocínio passível de rastrear, em vez de apresentar uma resposta no final de um processo “caixa negra” que permite verificar a precisão dos resultados.
Treinar LLMs por etapas. Para tarefas complexas que exigem colaboração entre humanos e máquinas e requerem especialização profissional e de domínio, como direito, medicina, investigação científica e desenvolvimento (I&D) ou gestão de inventário, é possível introduzir a IA de forma faseada para obter melhores resultados.
Por exemplo, os investigadores do MIT, Tyler D. Ross e Ashwin Gopinath, exploraram recentemente a possibilidade de desenvolver um “cientista de IA” capaz de integrar vários dados experimentais e gerar hipóteses testáveis. Descobriram que o ChatGPT 3.5-Turbo podia ser ajustado para aprender a biofísica estrutural do ADN quando a tarefa complexa era dividida numa série de sub-tarefas que o modelo tinha de dominar. Numa área não científica, como a gestão de inventário, as etapas de sub-tarefas poderiam incluir previsão de procura, recolha de dados sobre os níveis de inventário, projeções de reabastecimento, avaliação da quantidade de pedidos e avaliação de desempenho. Para cada sub-tarefa sucessiva, os gestores exercitavam, testavam e validavam o modelo com a sua experiência no domínio e informações.
Explorar criativamente com LLMs. Muitos processos de trabalho, desde o design de estratégias ao desenvolvimento de novos produtos, são abertos e iterativos. Para maximizar a interação humano-IA nessas atividades, é necessário orientar as máquinas para visualizarem múltiplos caminhos potenciais para uma solução e para responderem de formas menos lineares e binárias.
Este tipo de questionamento inteligente pode aumentar a capacidade dos LLMs de produzir previsões precisas sobre eventos financeiros e políticos complexos, como demonstraram recentemente os investigadores Philipp Schoenegger, Philip Tetlock e colegas. Eles emparelharam previsões de humanos com assistentes GPT-4, preparados com prompts detalhados para serem “super-previsores”, atribuindo probabilidades e intervalos de incerteza a resultados possíveis e oferecendo argumentos a favor e contra cada um. Descobriram que as previsões feitas por esses assistentes (sobre vários temas, desde o valor de fecho do Dow Jones Transportation Average numa determinada data até ao número de migrantes a entrar na Europa pelo Mediterrâneo em dezembro de 2023) foram 43% mais precisas do que as previsões geradas por LLMs não preparados.
Incorporar o seu julgamento
Introduzir discernimento humano especializado e ético será fundamental para gerar resultados de IA confiáveis, precisos, explicáveis e que tenham um impacto positivo na sociedade. Aqui estão algumas técnicas que pode usar:
Integrar RAG (Retrieval Augmented Generation). Além de poderem gerar informações erradas (hallucinate), os dados e conjuntos de informação nos quais os LLMs foram treinados são frequentemente antigos. Ao trabalhar com LLMs, as pessoas devem frequentemente avaliar em que medida é crucial ter informações confiáveis, relevantes e atualizadas nas respostas geradas. Se for o caso, pode usar RAG para adicionar informação de bases de conhecimento autorizadas às fontes de treino de um LLM existente. Isto pode ajudar a prevenir desinformação, respostas desatualizadas e imprecisões. Um investigador farmacêutico, por exemplo, poderia usar RAG para aceder a bases de dados do genoma humano, publicações científicas recentes, bases de dados de investigação pré-clínica e diretrizes da FDA (Food and Drug Administration). Para configurar o RAG, é comum precisar da ajuda das equipas de IT, que podem informar se esta tecnologia já foi ou pode ser integrada no fluxo de trabalho para acrescentar uma camada extra de qualidade ao trabalho.
Proteger a privacidade e evitar preconceitos. Se estiver a usar dados confidenciais ou informações proprietárias em prompts de IA, apenas deve utilizar modelos aprovados pela empresa e protegidos por firewalls corporativos, nunca LLMs de código aberto ou públicos. Se a política da empresa permitir, pode usar informações privadas quando os termos de serviço da API do LLM especificarem que estas não serão retidas para exercitar o modelo.
Preste atenção aos preconceitos que pode introduzir nos seus prompts. Por exemplo, um analista financeiro que peça a um LLM para explicar como o relatório trimestral de ontem sinaliza que a empresa está preparada para um ciclo de crescimento de cinco anos está a demonstrar um viés recente, a tendência de dar demasiado peso às informações mais recentes na previsão de eventos futuros.
Os fornecedores de LLMs estão a desenvolver formas de ajudar os utilizadores a lidar com esses problemas. A Microsoft e o Google estão a adicionar recursos que ajudam a verificar prompts e respostas problemáticas. A Salesforce desenvolveu uma arquitetura de IA que encobre quaisquer dados confidenciais dos clientes na construção de prompts, impede que esses dados sejam partilhados com LLMs de terceiros, avalia os resultados quanto a riscos como toxicidade, preconceito e privacidade, e recolhe feedback para melhorar os modelos de prompts. No entanto, no final do dia, será o humano no processo, cujo julgamento será o mais importante.
Escrutinar resultados suspeitos. Mantenha-se atento a erros, que, segundo a investigação atual, são inevitáveis, mesmo com uma engenharia de dados avançada e outras intervenções. Quando os utilizadores de LLMs se deparam com respostas que parecem erradas, muitas vezes reagem pedindo ao modelo para tentar novamente, repetidamente, o que pode diminuir gradualmente a qualidade da resposta. Isto foi demonstrado pelos investigadores da Universidade da Califórnia em Berkeley, Jinwoo Ahn e Kyuseung Shin. Em vez disso, os investigadores recomendam identificar o passo onde a IA cometeu o erro e pedir a um LLM diferente para realizar apenas esse passo, dividindo-o primeiro em problemas menores. O resultado gerado pode então ser usado para ajustar o primeiro LLM. Imagine um cientista que utiliza o ChatGPT da OpenAI para ajudar a desenvolver um novo polímero com uma série de cálculos passo a passo. Se encontrar um erro em algum ponto do processo, pode pedir ao Claude da Anthropic para dividir esse passo em problemas mais pequenos e explicar o raciocínio. Com essa informação, pode alimentar o ChatGPT e pedir-lhe para refinar a resposta. Essencialmente, esta técnica aplica princípios de chain-of-thought à correção de respostas que considere incorretas.
Transformar a IA no seu discípulo
À medida que os LLMs aumentam em tamanho e complexidade, podem exibir “propriedades emergentes” — novas capacidades poderosas, como raciocínio avançado, que não foram diretamente treinadas, mas que surgem ao adaptar os modelos com dados ou conhecimentos contextuais. Para potenciar o seu desenvolvimento, pode seguir os passos seguintes.
Mostre os modelos com demonstrações de pensamento. Antes de dar um problema ao LLM, pode prepará-lo para pensar de uma determinada forma. Por exemplo, pode ensinar-lhe raciocínio do “mais fácil para o mais difícil”, mostrando como dividir um desafio complexo em vários desafios mais pequenos e simples; resolver primeiro o menos difícil; usar a resposta como base para resolver o próximo desafio; e assim por diante. Denny Zhou e colegas da Google DeepMind demonstraram que a abordagem do “mais fácil para o mais difícil” aumenta a precisão das respostas da IA de 16% para 99%.
Considere um gestor de marketing de uma marca de roupa desportiva que quer ajuda para pensar numa nova linha. Pode estruturar o problema para o LLM da seguinte forma:
- Público-alvo. Identificar entusiastas do fitness que seriam potenciais clientes — uma tarefa relativamente simples, especialmente para um modelo treinado com dados de clientes da empresa.
- Mensagens. Criar mensagens que enfatizem desempenho, conforto e estilo — um problema mais desafiante e criativo que se baseia na identificação do público-alvo.
- Canais. Escolher redes sociais, blogs de fitness e parcerias com influenciadores para divulgar as mensagens ao público-alvo.
- Recursos. Alocar orçamento (frequentemente o tema mais sensível em qualquer organização) de acordo com a escolha dos canais.
Ensinar novos processos aos LLMs. Pode ensinar a IA a realizar uma tarefa orientando-a através de um conjunto de exemplos dentro de um contexto nos prompts. Este método é chamado de “aprendizagem em contexto” (in-context learning) e permite adaptar LLMs pré-treinados, como GPT-4, Claude e Llama, sem a necessidade de ajustar os seus parâmetros, o que pode ser um processo trabalhoso. Por exemplo, os investigadores relataram na Nature que os LLMs foram ensinados a resumir informações médicas através de prompts com exemplos de relatórios de radiologia, perguntas de pacientes, notas de progresso e diálogos entre médicos e pacientes. Posteriormente, verificaram que 81% dos resumos produzidos pelos LLMs eram equivalentes ou superiores aos resumos gerados por humanos.
Também pode treinar um LLM fornecendo-lhe informações contextuais e fazendo perguntas até que resolva o problema. Imagine duas empresas de software que desejam aumentar as vendas. Na empresa A, a equipa de vendas tem dificuldade em prever a procura de licenças de software. O gestor fornece ao LLM dados históricos de vendas e pergunta sobre a procura esperada para o próximo trimestre. Depois, adiciona informações sobre atualizações de recursos e orçamentos anuais dos clientes e questiona sobre os efeitos da sazonalidade. Finalmente, fornece estatísticas detalhadas de sistemas CRM (Costumer Relationship Management) e relatórios de marketing e pede ao modelo para analisar o impacto das campanhas de marketing nas vendas.
Na empresa B, a equipa quer melhorar a seleção de clientes. A gestão fornece dados financeiros específicos e solicita que o LLM classifique os clientes pela contribuição de receita. De seguida, faz perguntas sobre alcance geográfico, bases de clientes, expertise técnica e outros fatores. Em cada etapa, ambos os líderes estão a treinar o LLM e a refinar a sua capacidade de realizar tarefas no contexto da estratégia específica de vendas da empresa. À medida que o modelo acumula mais experiência com os processos específicos da empresa, gera respostas melhores.
A aprendizagem recíproca acontece quando os utilizadores avançam ao sair de questões simples e instruções básicas para descrever gradualmente a tarefa com maior complexidade e nuances. Podem adicionar contexto, ajustar a redação e observar como o modelo responde, experimentando até alcançar os resultados desejados.
Adquirir Novas Competências de Fusão
A aquisição generalizada de competências em inteligência artificial generativa (IA gen) exigirá não só um investimento significativo por parte das organizações, mas também iniciativa individual, estudo e dedicação. Embora algumas empresas já estejam a oferecer formação relevante, a maioria ainda não desenvolveu programas robustos. A nossa pesquisa de 2024, realizada com 7.000 profissionais, mostra que, embora 94% tenham afirmado estar prontos para aprender novas competências para trabalhar com IA gen, apenas 5% relataram que os seus empregadores estavam a oferecer formação significativa às suas equipas. Assim, muitos terão de assumir a responsabilidade por conta própria para acompanhar os rápidos avanços nos modelos de linguagem de grande escala (LLMs) e na pesquisa avançada que está a ser traduzida em práticas para diferentes empregos e indústrias. Pode inscrever-se em cursos online oferecidos por plataformas como Coursera, Udacity (recentemente adquirida pela nossa empresa), a Universidade do Texas em Austin, a Universidade do Arizona e a Universidade Vanderbilt. Também pode experimentar as técnicas de prompting que discutimos, bem como outras emergentes, e incentivar os seus empregadores a criar mais oportunidades para usar LLMs juntamente com formação em boas práticas.
O próximo passo? Adquirir competências para realizar prompting de raciocínio em cadeia (chain-of-thought) para fluxos de trabalho autónomos e modelos de linguagem multimodal de grande escala (MLLMs – Multimodal Large Language Models). Estes integram diferentes tipos de dados, como texto, áudio, vídeo e imagens, e também produzem saídas nesses formatos. Um grupo de investigadores descobriu que o chain-of-thought prompting melhorou o desempenho dos MLLMs até 100%. Os primeiros utilizadores já estão a testar estes métodos, mas eles ainda não estão suficientemente amadurecidos para uma adoção generalizada.
A revolução da IA não está a caminho; já chegou. Empresas líderes estão a usar esta tecnologia para reinventar processos em várias indústrias, funções e empregos. A IA generativa elevou dramaticamente o padrão, exigindo que pensemos com a IA, garantir confiança nela e a adaptá-la continuamente, e a nós próprios, para obter melhores resultados. Embora a IA generativa faça parte de um movimento mais amplo para criar relações mais simbióticas entre humanos e máquinas, é única nos anais da tecnologia. Nenhuma outra grande inovação na história avançou tão rapidamente. O trabalho intelectual está prestes a ser transformado de forma mais rápida e poderosa do que muitos de nós imaginamos. Prepare-se. O futuro dos negócios será impulsionado não apenas pela IA generativa, mas pelas pessoas que souberem usá-la da forma mais eficaz.
Sabe mais sobre outros temas AQUI!