Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę

autor :  Norbert Jankowski

format :  B5
objętość :  308 str. (+ 8 str. kolorowych)

ISBN  83-87674-65-6

Streszczenie
Spis treści



STRESZCZENIE

Sztuczne sieci neuronowe nawiązują koncepcyjnie do sposobu działania mózgu. Cechą ontogenicznych sieci neuronowych jest ich zdolność do kontroli swojej struktury i złożoności, dzięki czemu mogą elastycznie dopasowywać się do zadanego problemu.

W książce przedstawiono wiele typów sieci ontogenicznych, które korzystając z różnych algorytmów uczenia mogą zwiększać lub zmniejszać swoją strukturę oraz wpływać na funkcje realizowane przez neurony. Metody kontroli złożoności struktury sieci neuronowych w istotny sposób wpływają na ostateczne możliwości tych sieci. Duży wpływ na możliwości i złożoność sieci neuronowych mają też neurony, a dokładniej funkcje jakie one realizują. Opisano różnorodne funkcje, które mogą być realizowane przez neurony. Zaprezentowano wybrane algorytmy uczenia sieci radialnych funkcji bazowych (RBF). Jeden z rozdziałów książki poświęcono metodom typu support vector machines (SVM), czyli maszynom wektorów podpierających. Przedstawiono także szereg metod budowania komitetów modeli, w tym takich modeli, które nadzorują swoje podmodele. Opisano metody przygotowywania danych, używane techniki porównywania algorytmów uczenia i sposoby interpretacji rezultatów.


SPIS TREŚCI

Wprowadzenie

1. Funkcje transferu

1.1. Funkcje realizowane przez neuron
1.2. Funkcje aktywacji
1.3. Funkcje wyjścia
1.4. Funkcje transferu

2. Sieci z radialnymi funkcjami bazowymi (RBF)

2.1. Sieci z radialnymi funkcjami bazowymi i regularyzacją
2.2. Uogólniona sieć z radialnymi funkcjami bazowymi (GRBF)
2.3. Metody inicjalizacji i uczenia bez nadzoru sieci typu RBF
2.4. Uczenie z nadzorem sieci RBF
2.5. Rozszerzenia sieci RBF
2.6. Porównywanie sieci RBF z sieciami MLP
2.7. Probabilistyczne sieci neuronowe

3. Support Vector Machines (SVM)

3.1. Funkcje jądrowe
3.2. Konstrukcja optymalnej hiperpłaszczyzny
3.3. Konstrukcja hiperpłaszczyzny dla przypadków nieseparowalnych
3.4. v-SVC
3.5. Problem regresji
3.6. Problem regresji dla v-SVM
3.7. Optymalizacja problemów programowania kwadratowego
3.8. Zbieżność algorytmów dekompozycji QP
3.9. SVM a RBF
3.10. Meta-SVM

4. Ontogeniczne modele sieci neuronowych

4.1. Modele zmniejszające strukturę
4.2. Modele o strukturach rozrastających się
4.3. Sieć IncNet ze statystyczną kontrolą złożoności sieci
4.4. Sieć neuronowa optymalnych funkcji transferu

5. Komitety modeli

5.1. K-klasyfikatorów
5.2. K2-klasyfikatorów
5.3. Maszyna liniowa
5.4. Sposoby podejmowania decyzji przez komitet
5.5. Bootstrap Aggregating
5.6. Boosting i AdaBoost
5.7. Inne komitety
5.8. Komitety heterogeniczne
5.9. Komitety z lokalną kompetencją

6. Wstępne i końcowe przetwarzanie danych

6.1. Transformacje danych
6.2. Wartości nietypowe i brakujące
6.3. Metody selekcji i ważenia cech
6.4. Regularyzacja danych
6.5. Przedziały ufności jako narzędzie analizy danych i wizualizacji wyników

7. Zastosowanie sieci neuronowych

7.1. Techniki porównywania różnych modeli
7.2. Medyczne zastosowania sieci IncNet
7.3. Aproksymacja

8. Zakończenie

Bibliografia

Skorowidz

Ilustracje kolorowe


Powrót do strony głównej  |   e-mail  |   Zamówienie