- English |
Main
Frame (acces to all the site)
|
Cursul de Echipamente Periferice si Interfata Om Masina
1. Introducere
2. Limitari si particularitati cognitive ale procesului de achizitionare a informatiei
3. Faze de lucru in recunoasterea de paternuri
3.1.
Blocul de achizitie a datelor
3.2. Blocul de preprocesare/procesare
3.3. Blocul de extragere a trasaturilor
3.4. Clusterizarea
3.5. Clasificarea
3.5.1. Introducere
3.5.2. Suprafata de decizie
3.5.3. Functii discriminant
3.5.3. Metrica
4. Clasificatori elementari
4.1. Clasificatorul de tip sablon
4.2. Clasificatorul de minima distanta
4.3. Limitari ale clasificatorilor simpli
4.3.1. Trasaturile pot fi inadecvat alese pentru procesul de clasificare
4.3.2. Trasaturile alese sunt foarte puternic corelate
4.3.3. Suprafetele de decizie nu mai sunt liniare
4.3.4. Existenta unor subclase distincte in setul de date
4.3.5. Spatiul trasaturilor este prea complex
5. Clasificatori statistici
5.1. Elemente de statistica
5.1.1. Vectori aleatori si caracterizarea lor
5.1.2. Estimatori statistici si momente
5.1.3. Functia gaussiana densitate de probabilitate
5.1.4. Transformari liniare ale vectorilor aleatori
5.1.5. Diagonalizarea matricilor de corelatie si covarianta prin transformata unitara
5.1.6. Diagonalizarea matricilor prin descompunere in matrici triunghiulare
5.2. Clasificatorul bazat pe metrica Mahalanobis
5.2.1. Media si varianta
5.2.2. Metrica Mahalanobis. Clasificatorul bazat pe metrica Mahalanobis.
5.3. Clasificatorul Bayesian
5.3.1 Alegerea optima a suprafetei de decizie bazata pe modelul statistic al datelor
5.3.2. Un exemplu bidmensional de recunoastere de paternuri
5.3.3. Sensibilitatea functiilor disriminant functie de marimea setului de date
5.3.4. Selectia trasaturilor bazate pe functia densitate de probabilitate
5.4 Metode neparametrice de estimare si clasificare
5.4.1. Estimarea functiei densitate de probabilitate
5.4.2. Fereastra de tip Parzen. Estimarea Parzen.
5.4.3. Estimarea densitatii pe baza celor mai apropiate k-esantioane
5.4.4. Regula de clasificare utilizand cele mai apropiate k esantioane (k-NN) in ipoteza binara (doua clase)
5.4.5. Clasificarea pe baza celui mai apropiat esantion (NN)
5.4.6. Clasificarea pe baza celor mai apropiate k esantioane in ipoteza multipla (M>2)
5.4.7. Evaluarea probabilitatii de eroare pentru algoritmul k-NN
5.4.8. Regula de decizie condensata a celui mai apropiat esantion (CNN)
6. Retele Neuronale Artificiale
6.1. Introducere
6.2. Perceptronul
6.2.1. Capacitatea elementului de procesare de tip McCulloch-Pitts de a recunoaste trasaturile6.3. Reteaua neuronala cu un singur strat ascuns
6.2.2. Perceptronul
6.3.1. Functiile discriminant
6.3.2. Antrenarea retelelor neuronale cu un strat ascuns
6.3.3. Efectul numarului de neuroni ascunsi
6.4. Reteaua neuronala cu doua straturi ascunse
6.4.1. Functiile discriminant
6.4.2. MLP-ul drept clasificator universal
6.5. Proiectarea si antrenarea retelelor neuronale
6.5.1. Controlul procesului de invatare
6.5.2. Metode de imbunatatire a procedurii de adaptare
6.5.3. Criterii de oprire a retelei
6.5.5. Criteriul de eroare
6.5.6. Complexitatea retelei si capacitatea de generalizare
Bibliografie
Bibliografie online: