Artigo
BERT coloca pré-treinamento bidirecional no centro do NLP
Ao abrir o código do BERT, o Google acelera uma mudança profunda em processamento de linguagem natural baseado em modelos pré-treinados.
Abrir resultadoBusca
Use termos como IA aplicada, ERP, requisitos, garantia, SEO, desktop, mobile, orçamento ou sistemas web.
Resultados organizados por relevância, combinando artigos, soluções e páginas do site.
Artigo
Ao abrir o código do BERT, o Google acelera uma mudança profunda em processamento de linguagem natural baseado em modelos pré-treinados.
Abrir resultadoArtigo
O trabalho da OpenAI combina Transformers e pré-treinamento não supervisionado para melhorar múltiplas tarefas de linguagem com ajuste supervisionado.
Abrir resultadoArtigo
A nova arquitetura Hopper e a GPU H100 combinam Tensor Cores de quarta geração, Transformer Engine, HBM3, NVLink e recursos de isolamento para cargas de IA, HPC e analytics.
Abrir resultadoArtigo
A OpenAI apresenta o GPT-2, um modelo de linguagem de 1,5 bilhão de parâmetros, e limita a liberação completa para abrir debate sobre uso indevido e governança.
Abrir resultado