Usuários do ChatGPT relataram nos últimos meses sobre a “preguiça” da inteligência artificial (IA). Para solucionar esse e outros pontos levantados pelos usuários, a OpenAI lançou atualizações para o chatbot. Dentre os pontos melhorados, estão a atualização do modelo de moderação, novo modelo de incorporação, a possível resolução da preguiça da IA, uma nova forma de gerenciar o uso da API e a diminuição de preços do GPT-3.5 Turbo.
Veja também: É oficial! ChatGPT rompe fronteiras com pesquisas em tempo real
Em relação aos novos modelos de incorporação, a OpenAI divulgou o text-embedding-3-small e text-embedding-3-large, que transformam o conteúdo em sequências numéricas. Com isso, o trabalho de aprendizado do chatbot é auxiliada em tarefas como recuperação e agrupamento. Além disso, o modelo de moderação atualizado, o text-moderation-007, também visa identificar textos que podem ser prejudiciais.
As atualizações divulgadas não ficaram apenas para os usuários. Os desenvolvedores também receberam melhorias em sua plataforma, com novas ferramentas para o gerenciamento de chaves API e um novo painel para o rastreio do uso da API. Além disso, os desenvolvedores poderão gerar permissões a chaves de API por meio da página de chaves, evitando o uso indevido da mesma.
ChatGPT volta a realizar comandos adequadamente
Com o lançamento do novo modelo GPT-4 Turbo (gpt-4-0125-preview), a OpenAI informou que solucionou o problema de “preguiça” da IA. Assim, o novo modelo irá fazer com que o chatbot volte a realizar tarefas de forma mais completa, como na geração de códigos.
O problema começou a ser relatado pelos usuários no lançamento do GPT-4 Turbo, em que o assistente não realizava corretamente as tarefas dadas, principalmente realizadas a códigos de programação. Segundo os usuários, o ChatGPT parou de ofertar a mesma profundidade e complexidade que era ofertada nas antigas versões do chatbot.
O Open AI anunciou o GPT-3.5 Turbo (gpt-3.5-turbo-0125), contando com melhorias na precisão para respostas em formatos solicitados. Além disso, a atualização solucionou um bug que causava problemas na codificação de texto para chamadas de função em outros idiomas que não fossem ingleses.
Por fim, o custo irá diminuir para os clientes, com o intuito de auxiliar no escalonamento dos servidos ofertados pelo ChatGPT. Assim, o preço dos tokens de entrada ficarão 50% mais baratos, enquanto os tokens de saída terão a redução de 25% no valor cobrado.