Dimensionality reduction cos’è e a cosa serve? vantaggi?
• Comprime i dati di input riducendo la dimensionalità delle features,
conservando quante più informazioni possibili.
• Ciò riduce i tempi di elaborazione e/o memorizzazione dei dati
• Permette una migliore visualizzazione dei dati
Metodi shallow, come faccio a fare dimentionality reduction?
PCA
PCA
k-means
come EM migliora k-means (expectation maximization)
* È un’algoritmo di clustering SOFT
normalizzazione, perchè è importante normalizzare le features prima di darle a k-means?
• La normalizzazione è necessaria in caso di dati con scale differenti
Density estimation, esempio di modello per farlo
* GAN (implicito)
mi scrive la loss del K-Means?
• Minimizzare la varianza di ogni set
K-means converge? come funziona l’algoritmo di K-means
Come si misura la distanza tra i punti in k-means?
• Distanza euclidea
PCA, come calcolo la FPC con l’eigenvalue decomposition?
risposta
differenza tra k means e hierarchical clustering
• Produce una serie di cluster annidati organizzati come un albero gerarchico chiamato dendrogramma
Quali altri problemi ci sono in unsupervised learning?
Perché in K-means ogni tanto la distanza euclidea non è la migliore scelta?