Pular para o conteúdo
início » O ChatGPT e a inteligência artificial generativa: o que eles significam para os profissionais de investimento

O ChatGPT e a inteligência artificial generativa: o que eles significam para os profissionais de investimento

    Para obter mais informações sobre aplicações de inteligência artificial (IA) na gestão de investimentos, leia o “Manual de Aplicações de Inteligência Artificial e Big Data em Investimentos”, de Larry Cao, CFA, da CFA Institute Research Foundation. O ChatGPT lançou uma nova era na inteligência artificial (IA). O chatbot criado pela OpenAI e alimentado pelas famílias de modelos de linguagem (LLMs) GPT-3 e GPT-4 responde a comandos de linguagem natural como um assistente humano muito bem informado e tem evoluído continuamente com a introdução das APIs e plugins do GPT-4 e ChatGPT. Outros gigantes da tecnologia não ficaram parados. Google e NVIDIA, entre outros, mostraram seu compromisso com a tecnologia em rápida evolução, anunciando uma série de serviços inovadores de inteligência artificial generativa (GenAI) nos últimos meses. De fato, toda semana parece que a indústria de IA está experimentando um ano de progresso. Mas o que isso significa para a gestão de investimentos? Como todos os desenvolvimentos relacionados ao ChatGPT e LLM afetarão o trabalho dos profissionais de investimento?

    O ChatGPT é um modelo de linguagem de IA desenvolvido pela OpenAI usando uma técnica chamada aprendizado por reforço a partir do feedback humano (RLHF) que processa comandos de linguagem natural e fornece respostas detalhadas com base na entrada humana. GPT significa arquitetura Generative Pretrained Transformer. É um tipo de GenAI que pode gerar novos dados com base nos dados de treinamento recebidos. O salto do processamento de linguagem natural (PLN) para a geração de linguagem natural representa um avanço significativo na tecnologia de linguagem de IA. O modelo é pré-treinado em grandes quantidades de dados para aprender a responder rapidamente a consultas. Por exemplo, o GPT-3 tem mais de 175 bilhões de parâmetros. O GPT-4 tem ainda mais. No entanto, ambos os modelos são limitados pela data de corte de seus dados de treinamento e não podem incorporar informações novas e sensíveis ao tempo em tempo real. A arquitetura transformer é uma técnica de aprendizado profundo aplicada tanto pelo ChatGPT, para extrair e analisar dados textuais, quanto pelo modelo de linguagem Bidirectional Encoder Representations from Transformers (BERT), desenvolvido pelo Google. Os diferentes componentes da arquitetura GPT trabalham em sincronia para obter melhores resultados.

    O ChatGPT é um modelo de IA conversacional construído com base na série GPT, seja GPT-3.5 ou GPT-4, para uso em aplicações de conversação. Ajustado com dados de conversação, pode gerar respostas relevantes, envolventes e contextuais. O modelo GPT é primeiro treinado usando um processo chamado “afinação fina supervisionada” com uma grande quantidade de dados pré-coletados. Treinadores de IA humana fornecem ao modelo conversas iniciais entre um questionador e um respondente. Esse processo é como um treinamento pessoal para um assistente de IA. Após isso, o modelo passa por um aprendizado por reforço (RL), que envolve a criação de um mecanismo de recompensa e a coleta de dados de comparação que consistem em duas ou mais respostas do modelo classificadas por qualidade. Para refinar ainda mais o modelo, a OpenAI coletou dados de conversas entre treinadores de IA e o chatbot. Eles selecionaram aleatoriamente uma mensagem escrita pelo modelo, amostraram várias conclusões alternativas e pediram aos treinadores de IA para classificá-las. Usando esses modelos de recompensa, a OpenAI ajustou ainda mais o modelo com a Otimização de Política Proximal (PPO) e realizou várias iterações desse processo para melhorar o desempenho do modelo.

    As limitações do ChatGPT são bem conhecidas. Ele pode fornecer respostas plausíveis, mas incorretas ou sem sentido, devido às limitações do treinamento RL. A OpenAI reconhece que atualmente não há uma única fonte de verdade para o treinamento RL e que o ChatGPT é projetado para responder às perguntas da melhor maneira possível, em vez de deixá-las sem resposta. A qualidade de suas respostas depende da formulação da pergunta e das informações que o ChatGPT aprendeu por meio do treinamento supervisionado. O ChatGPT não tem valores da mesma forma que os humanos. Embora tenha sido treinado para fazer perguntas esclarecedoras para consultas ambíguas, muitas vezes ele adivinha o significado pretendido pelo usuário. A OpenAI tem feito esforços para evitar que o ChatGPT responda a solicitações prejudiciais ou inadequadas, mas o LLM pode apresentar comportamentos tendenciosos em alguns momentos. Por isso, é crucial evitar sugestões e previsões ilegais, antiéticas, agressivas ou tendenciosas. O ChatGPT também pode ser prolixo e usar certas frases em excesso, muitas vezes afirmando que é um “grande modelo de linguagem treinado pela OpenAI”. Os dados de treinamento usados para desenvolver o modelo possuem vieses e problemas de super otimização, e os treinadores podem preferir respostas mais longas que pareçam mais abrangentes. Embora o ChatGPT e outros modelos de linguagem sejam geralmente excelentes em resumir e explicar texto e gerar código de computador simples, eles não são perfeitos. Em seu pior, eles podem “alucinar”, produzindo prosa ilógica com fatos e referências inventadas ou código com erros.

    Os modelos GPT oferecem recursos exclusivos que os distinguem do BERT e de outros modelos de IA mainstream e refletem a evolução das aplicações de IA para o PLN. Como o GPT, o BERT é um modelo pré-treinado que aprende a partir de grandes quantidades de dados e depois é ajustado para tarefas específicas de PLN. No entanto, após o pré-treinamento, os modelos divergem. O BERT requer ajuste fino com dados específicos da tarefa para aprender representações e parâmetros específicos da tarefa, o que demanda recursos computacionais adicionais. Os modelos GPT usam a engenharia de prompts e o aprendizado de poucos exemplos (few-shot learning – FSL) para se adaptar à tarefa sem ajuste fino. Com os dados de pré-treinamento do GPT-4, os modelos GPT podem gerar saídas apropriadas para entradas desconhecidas quando são fornecidos exemplos de tarefas. As leis de escala, destacadas por Jared Kaplan et al., são características essenciais dos modelos GPT. O desempenho melhora à medida que o tamanho do modelo, o tamanho do conjunto de dados de treinamento e o poder computacional usado para o treinamento aumentam em conjunto. O desempenho empírico tem uma relação de lei de potência com cada fator individual quando não está limitado pelos outros. O GPT-4 segue essa lei e pode alcançar alto desempenho sem ajuste fino, às vezes superando modelos anteriores state-of-the-art. Além disso, as leis de escala funcionam com outras mídias e domínios, como imagens, vídeos e matemática. As características dos modelos GPT representam uma mudança de paradigma no desenvolvimento de IA, afastando-se dos modelos tradicionais treinados para cada tarefa específica. Os modelos GPT não requerem grandes recursos computacionais locais ou dados de treinamento adicionais, e as tarefas são resolvidas por meio de FSL, em vez de ajuste fino ou re-treinamento do modelo. No entanto, um número limitado de grandes empresas – Google, Amazon e outros – poderiam controlar o fornecimento de grandes modelos de linguagem (LLMs) em plataformas de computação em nuvem, o que poderia criar um oligopólio que limitaria a democratização do desenvolvimento de IA.

    O ChatGPT como um modelo de linguagem de IA não rouba empregos humanos no sentido tradicional. É uma ferramenta projetada para auxiliar os humanos em tarefas que envolvem processamento de linguagem, como gerar texto e responder perguntas. Embora o ChatGPT possa automatizar algumas funções e reduzir a necessidade de envolvimento humano nelas, também pode criar novos empregos que exigem habilidades em IA, análise de dados e programação. A IA ainda não consegue replicar o comportamento humano em várias dimensões, incluindo originalidade, criatividade, destreza, empatia, amor, etc. Esses são componentes essenciais de muitos empregos que exigem conexão humana, intuição e inteligência emocional. As ferramentas de IA funcionam melhor em tarefas repetitivas bem definidas onde a eficiência é importante. Isso inclui entrada de dados, transcrição e tradução de idiomas. O risco de substituição pelo ChatGPT ou outra IA é maior para cargos que dependem mais da linguagem natural ou envolvem tarefas repetitivas e automatizadas, como help desk de suporte ao cliente e assistentes de pesquisa. No entanto, cargos que exigem tomada de decisão única, criatividade e responsabilidade, como