Desenvolvido pela OpenAI, ChatGPT também utiliza tecnologias já existentes para funcionar, como o Transformer, lembra o cientista Yann LeCun
O ChatGPT ganhou os holofotes nos últimos tempos, levando a euforia da tecnologia para além dos entusiastas e pesquisadores de inteligência artificial (IA). Mesmo assim, a OpenIA não traz nada de muito revolucionário. É o que aponta o cientista chefe de IA da Meta, Yann LeCun, em uma conversa com a imprensa e executivos.
As falas do especialista feitas durante o evento Collective[i] Forecast foram reveladas pelo ZDNet nesta segunda-feira (23).
Na conversa, LeCun apontou que a software “não é nada revolucionário”. Para ele, trata-se mais de um trabalho bem feito do que algo realmente novo.
Claro, ao ler a fala dessa forma, faz parecer que a OpenIA não tem mérito algum com o seu produto. Mas não é nada disso: durante o discurso, o cientista ressaltou que o projeto em si é bem construído.
A empresa só não reinventou a roda.
ChatGPT utiliza tecnologias compartilhadas
De acordo com LeCun, o ChatGPT utiliza tecnologias já conhecidas e partilhada entre diversos laboratórios. “É realmente compartilhado, não há segredo por trás disso”, afirmou.
É o caso do Transformer. A arquitetura elaborada pelo Google em 2017 utiliza uma metodologia de aprendizagem auto-supervisionada que se tornou base de inúmeras IAs, incluindo o ChatGPT.
Essa metodologia, cabe ressaltar, é mais antiga do que a própria OpenIA.
Não à toa, o cientista aponta que a OpenAI “não é particularmente um avanço em comparação com os outros laboratórios”. Para LeCun, “há meia dúzia de startups que basicamente têm tecnologia muito semelhante a ela”.
O chefe de IA da Meta ainda aponta que os modelos de linguagem estão em estudo há décadas. Ou seja, nada disso saiu do nada, de repente: foram anos e mais anos de pesquisa até chegarmos até onde estamos.
Esta observação também não traz nenhuma observação chocante.
Afinal, nenhuma invenção científica é feita individualmente, muito menos de maneira repentina. No entanto, as razões do cientista são plausíveis: lembrar que, por trás do sucesso, há uma série de avanços significativos acumulados por várias empresas e pesquisadores por décadas.
É o caso de Yoshua Bengio, o cientista da computação que esteve por trás do primeiro modelo de linguagem de rede neural em larga escala. E tudo isso aconteceu há vinte anos, lá pelos anos 2000, quando inteligência artificial era mais tema de ficção científica do que algo palpável para o público em geral.
Hoje, nos anos 2020, a gente utiliza modelos de IA até mesmo ao passar o cartão para comprar o pão quentinho do café da manhã.
E a Meta nessa história toda?
A aparição do ChatGPT causou uma euforia gigantesca ao ponto de todo dia surgir uma publicação nova no LinkedIn para falar a mesma coisa que todo mundo já disse sobre a solução (eu não aguento maaaaais). Além disso, a Microsoft pensa em levar o chatbot ao Bing e ao Azure AI.
Enquanto isso, o Google segue preocupado com a novidade e quer criar uma resposta ao modelo da OpenAI.
Mas e a Meta? Na conferência, LeCun chegou a dizer que a empresa vai oferecer uma solução no mesmo patamar. E foi enfático: “e não apenas a geração de texto, mas também ajuda à criação”, disse.
A expectativa é de que a ferramenta da Meta garanta uma forcinha para pequenos negócios se promoverem ao criar artes automaticamente.
Mas será que os artistas vão gostar disso? Porque a recepção ao Dall-E, Stable Diffusion e Midjourney já não foi muito boa.
Cenas para o próximos capítulos.
Fonte: TecnoBlog