Pular para o conteúdo

Por que o ChatGPT está fazendo tanta onda no mercado de IA?

  • por

A OpenAI, empresa de pesquisa e implementação de Inteligência Artificial (IA), anunciou recentemente o lançamento oficial do ChatGPT, um novo modelo de IA conversacional. Segundo a OpenAI, o diálogo proporcionado por esta plataforma permite ao ChatGPT “responder a questões de seguimento, admitir os seus erros, contestar premissas incorretas e rejeitar pedidos inapropriados”.

Desde o seu lançamento, a mídia social está repleta de discussões sobre as possibilidades – e perigos – dessa inovação, desde sua capacidade de depurar código até seu potencial para escrever redações para estudantes universitários. Bern Elliot, VP Analyst do Gartner, responde algumas das principais questões sobre essa nova tecnologia e as etapas que os líderes de dados e análises (D&A) devem seguir para garantir o uso responsável de tais ferramentas.

Os modelos básicos de IA, como o GPT, representam uma grande mudança no campo da IA . Eles oferecem benefícios exclusivos, como grandes reduções no custo e no tempo necessários para criar um modelo específico de domínio

Por que o ChatGPT está gerando tanto burburinho e o que o torna diferente das inovações anteriores em IA de conversação?

O ChatGPT é a tempestade perfeita de dois tópicos atuais de IA ‘quentes’: chatbots e GPT3. Juntos, eles oferecem um método maravilhosamente intrigante de interagir e produzir conteúdo que soa incrivelmente humano. Cada um é o resultado de melhorias separadas e significativas nos últimos cinco anos em suas respectivas tecnologias.

Os chatbots permitem a interação de uma maneira conversacional aparentemente ‘inteligente’, enquanto o GPT3 produz uma saída que parece ter ‘entendido’ a pergunta, o conteúdo e o contexto. Juntos, isso cria um efeito de vale misterioso de ‘É humano ou é um computador? Ou é um computador parecido com um humano?’ A interação às vezes é bem-humorada, às vezes profunda e às vezes perspicaz.

Infelizmente, o conteúdo às vezes também é incorreto e o conteúdo nunca é baseado em uma compreensão ou inteligência humana. O problema pode estar nos termos ‘compreender’ e ‘inteligente’. Esses são termos carregados de significado implicitamente humano; portanto, quando aplicados a um algoritmo, podem resultar em graves mal-entendidos. A perspectiva mais útil é ver chatbots e modelos de linguagem grande (LLM) como GPT como ferramentas potencialmente úteis para realizar tarefas específicas, e não como truques de salão. O sucesso depende da identificação dos aplicativos para essas tecnologias que oferecem benefícios significativos para a organização.

Quais são os possíveis casos de uso do ChatGPT, especialmente na empresa?

Em alto nível, os chatbots, ou assistentes de conversação, fornecem uma interação selecionada com uma fonte de informação. Os próprios chatbots têm muitos casos de uso, desde o atendimento ao cliente até o auxílio aos técnicos na identificação de problemas.

Em alto nível, o ChatGPT é um caso de uso específico do chatbot em que o chatbot é usado para interagir (bate-papo) ou ‘conversar’ com uma fonte de informações do GPT. Nesse caso, a fonte de informações GPT é treinada para um domínio específico pela OpenAI. Os dados de treinamento usados ​​no modelo determinam como as perguntas serão respondidas. No entanto, conforme observado anteriormente, a capacidade da GPT de gerar informações falsas de forma imprevisível significa que as informações só podem ser usadas em situações em que os erros podem ser tolerados ou corrigidos.

Existem inúmeros casos de uso para modelos de fundação, como GPT, em domínios que incluem visão computacional, engenharia de software e pesquisa e desenvolvimento científicos. Por exemplo, modelos de fundação têm sido usados ​​para criar imagens a partir de texto; gerar, revisar e auditar código de linguagem natural, incluindo contratos inteligentes; e até mesmo na área da saúde para criar novos medicamentos e decifrar sequências genômicas para classificação de doenças.

Quais são algumas das preocupações éticas em torno do ChatGPT e outros modelos de IA semelhantes?

Os modelos básicos de IA, como o GPT, representam uma grande mudança no campo da IA . Eles oferecem benefícios exclusivos, como grandes reduções no custo e no tempo necessários para criar um modelo específico de domínio. No entanto, eles também representam riscos e preocupações éticas , incluindo aqueles associados a:

Complexidade: grandes modelos envolvem bilhões, ou mesmo trilhões, de parâmetros. Esses modelos são impraticavelmente grandes para treinar para a maioria das organizações, devido aos recursos de computação necessários, o que pode torná-los caros e hostis ao meio ambiente.

Concentração de poder: esses modelos foram construídos principalmente pelas maiores empresas de tecnologia, com grandes investimentos em P&D e significativo talento em IA. Isso resultou em uma concentração de poder em algumas entidades grandes e ricas, o que pode criar um desequilíbrio significativo no futuro.

Uso indevido potencial: os modelos de fundação reduzem o custo de criação de conteúdo, o que significa que fica mais fácil criar deepfakes que se assemelham muito ao original. Isso inclui tudo, desde representação de voz e vídeo até arte falsa, bem como ataques direcionados. As sérias preocupações éticas envolvidas podem prejudicar reputações ou causar conflitos políticos.
Natureza de caixa preta: esses modelos ainda requerem treinamento cuidadoso e podem fornecer resultados inaceitáveis ​​devido à sua natureza de caixa preta. Muitas vezes não está claro a quais modelos de base de fatos estão atribuindo respostas, o que pode propagar o viés downstream nos conjuntos de dados. A homogeneização de tais modelos pode levar a um único ponto de falha.

Propriedade intelectual: o modelo é treinado em um corpus de trabalhos criados e ainda não está claro qual pode ser o precedente legal para a reutilização desse conteúdo, se ele foi derivado da propriedade intelectual de terceiros.

Como os líderes de D&A podem integrar modelos de fundação de IA em suas organizações de maneira ética?

Comece com casos de uso de processamento de linguagem natural (NLP), como classificação, resumo e geração de texto para cenários não voltados para o cliente, e escolha modelos pré-treinados específicos de tarefas para evitar customização e treinamento caros. Os casos de uso em que a saída é revisada por humanos são os preferidos. Crie um documento de estratégia que descreva os benefícios, riscos, oportunidades e roteiro de implantação para modelos de base de IA como GPT. Isso ajudará a determinar se os benefícios superam os riscos para casos de uso específicos.

Use APIs baseadas em Nuvem para consumir modelos e escolha o menor modelo que fornecerá a precisão e o desempenho necessários para reduzir a complexidade operacional, diminuir o consumo de energia e otimizar o custo total de propriedade. Priorize os fornecedores que promovem a implementação responsável de modelos publicando diretrizes de uso, reforçando essas diretrizes, documentando vulnerabilidades e fraquezas conhecidas e divulgando proativamente comportamentos nocivos e cenários de uso indevido.

Serviço
www.gartner.com

Bern Elliot

Chatbot

ChatGPT

Gartner

GPT3

Inteligência Artificial

Você também pode gostar

Edição do mês

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *