...
...
A técnica TF-IDF majora a importância de um termo que aparece muitas vezes em um documento e poucas vezes nos outros documentos de um mesmo corpus.
Julgue o item que se segue, em relação a grandes modelos de linguagem (LLMs) e a redes neurais.
A aplicação da função de ativação softmax na camada de saída foi o fator determinante pela grande evolução da capacidade de visão computacional em redes neurais multicamadas.
Julgue o item que se segue, em relação a grandes modelos de linguagem (LLMs) e a redes neurais.
O uso de tokenizadores subword permite que LLMs aprendam palavras fora do vocabulário de treinamento, otimizando a compreensão sem estar restrito a um único idioma.
Com relação ao gerenciamento de projetos, julgue o próximo item.
Na teoria do Scrum, o Lean Thinking é uma abordagem em que o conhecimento aplicado aos projetos e a tomada de decisão são oriundos da experiência das equipes.
Com relação ao gerenciamento de projetos, julgue o próximo item.
O Scrum diário, ou daily standup, é uma reunião de equipe de projeto, na qual é feita uma análise do progresso do dia anterior e são definidas ações para o dia em que ocorre referida reunião.
No que se refere à ciência de dados, julgue o item seguinte.
No treinamento de modelos generativos em deep learning, o modelo remove, gradualmente, ruído dos dados reais; em seguida, o modelo aprende a reverter esse processo, adicionando ruído aos ponchos para gerar dados semelhantes aos originais.
No que se refere à ciência de dados, julgue o item seguinte.
No processamento de linguagem natural, para transformar texto bruto em um formato mais estruturado e padronizado, utilizam-se técnicas como a remoção de pontuação, a normalização dos dados, a tokenização e a eliminação de stop words.
Julgue o item subsequente, a respeito de LLM e IA generativa.
O RAG (retrieval-augmented generation) reduz a necessidade de contextualizar prompts, pois o LLM, sozinho, consegue acessar, dinamicamente, informações externas sem qualquer integração prévia com sistemas de recuperação.
Julgue o item subsequente, a respeito de LLM e IA generativa.
No processo de inferência, o LLaMA utiliza decodificação paralela em vez de decodificação sequencial, gerando todos os tokens simultaneamente, sem depender do contexto anterior, o que elimina a necessidade de otimizações como layer-wise quantization.