A única maneira de se evitar o underfitting em um modelo de machine learning é reduzir a quantidade de dados de entrada, pois isso impede que o modelo fique sobrecarregado de informações irrelevantes.
A única maneira de se evitar o underfitting em um modelo de machine learning é reduzir a quantidade de dados de entrada, pois isso impede que o modelo fique sobrecarregado de informações irrelevantes.
O uso de GPUs e TPUs acelera os cálculos necessários para operações matriciais e retropropagação em modelos de deep learning.
O deep learning elimina completamente a necessidade de pré-processamento de dados, pois as redes neurais são capazes de aprender todas as características automaticamente.
Julgue o item a seguir, relativos a redes neurais artificiais.
Nas redes neurais multicamadas, quando se aumenta significativamente a dimensão da rede neural, o esforço computacional para sua implementação tem um aumento insignificante.
Julgue o item a seguir, relativos a redes neurais artificiais.
Os nós de origem na camada de entrada da rede neural, isto é, na primeira camada oculta, fornecem os respectivos elementos do padrão de ativação (vetor de entrada), que constituem os sinais de entrada aplicados aos neurônios (nós de computação) na segunda camada.
Julgue o item a seguir, relativos a redes neurais artificiais.
Uma rede neural feedforward se distingue das demais pela presença de uma ou mais camadas ocultas, cujos nós de computação são chamados de neurônios ocultos ou unidades ocultas, devido ao fato de que essa parte da rede neural não é vista diretamente da entrada ou saída da rede.
Para aplicações do mundo real, como geração de imagens, as distribuições são extremamente complexas, e o aprendizado profundo não conseguiu melhorar o desempenho dos modelos generativos, por isso se tem optado por investir em uma classe importante de modelos de linguagem de grande escala (LLMs — large language models) autorregressivos baseados em transformadores.
Uma IA generativa cujo aprendizado é realizado a partir da distribuição de probabilidade conjunta p(x,y), em que x é o dado de entrada e y é o rótulo que se queira classificar, pode gerar mais amostras por si só artificialmente, com base em suposições a respeito da distribuição de dados.
Uma vez que uma GAN (generative adversarial network) é treinada, a rede discriminadora é descartada e a rede geradora pode ser utilizada para sintetizar novos exemplos no espaço de dados por amostragem do espaço latente e propagação dessas amostras pela rede geradora treinada.
O aprendizado nas IAs discriminativas é realizado a partir da probabilidade condicional p(x|y).