Informações

Curriculo...

Publicações

Pesquisa

Projetos

Eventos

Ensino de Graduação

Ensino de Pós Graduação

Informações para Candidatos à Orientação

Cursos

Fotografias de Florianópolis Antiga

Você lê?
 
 
 
 

SEN3: Incremental Learning of Classificators

Jürgen Rahmel, Aldo v. Wangenheim

Überblick

Das SEN3 (Self-Editing Nearest Neighbor Net) kombiniert die inkrementelle Konstruktion einer Netzwerkstruktur mit der Intention des Editing-Konzepts, wie es schon früh für die Nearest-Neighbor-Klassifikation verwendet wurde. Verbindendes Element ist das Ausnutzen einer Nachbarschaftsbeziehung von Neuronen, wie sie im Kohonen-Netz oder in den GCS (Growing Cell Structures) vorkommt. Ein wichtiger Punkt bei der Entwicklung der SEN3-Netzwerke war die Notwendigkeit eines nicht iterativen und damit online einsetzbaren Lernverfahrens, das auf unveränderten Trainingsbeispielen operiert. Eine Heuristik, die in SEN3 Anwendung findet, ist die Aussage, daß es bei beabsichtigter Reduktion der Repräsentanten (Prototypen) besser ist, die Dichte der Repräsentanten im Zentrum von Clustern zu verringern und die Klassengrenzen möglichst so gut wie bisher zu beschreiben.

Konstruktion: Sei die Menge T der N Trainingsbeispiele gegeben, sei Tm eine m-elementige Teilmenge der Trainingsmenge T, und sei Tn = T - Tm. Jedem Neuron r sei eine Menge Nr ausgewählter Nachbarn zugeordnet. Abbildung 1 zeigt die Konstruktion des Netzwerks an einem einfachen Beispiel. Sei |T| =10, m=5, es gibt 2 Klassen und für jedes eingefügt Neuron r werden dessen zwei nächste Nachbarn in die Menge Nr aufgenommen. Teilbild a) zeigt bereits alle t in T, obwohl im ersten Schritt nur die t in Tm betrachtet werden.
 
 

Abb.1: Konstruktion des SEN3-Netzwerkes


Zunächst werden die Nr für die Neuronen r in Tm mit den jeweils zwei nächsten Nachbarn initialisiert, wobei durch die Symmetrie dieser Nachbarschaftsrelation manche Neuronen mehr als zwei Nachbarn haben können (Teilbild b): 

Nachdem die m Neuronen aus Tm initialisiert sind, werden für die Elemente der Trainingsmenge die weiteren Neuronen gemäß der Auswahlbedingung angefügt, d.h. jeweils mit den zwei nächsten, bereits vorhandenen Nachbarn verknüpft. (Teilbild c) zeigt dies für eine willkürlich gewählte Reihenfolge der t in Tn.

Editing: Das Durchführen eines Editing-Schrittes verringert die Zahl der in der Netzstruktur vorhandenen Neuronen. Dabei werden alle Neuronen gelöscht, die nur mit Neuronen der gleichen Klasse benachbart sind. Dies hat zur Folge, daß vornehmlich die Neuronen in der Nähe der Klassengrenzen bestehen bleiben und weiterhin als Klassifikatoren dienen können. Die Klassifizierungsgüte bleibt daher weitgehend erhalten, obwohl z.T. eine erhebliche Reduktion der Repräsentanten stattgefunden hat. Somit wird die Zahl der Berechnungen in der Klassifikationsphase wesentlich verringert. 

Rechnerisch kann gezeigt werden, daß, wenn m möglichst klein gewählt wird, nur noch etwas mehr als die Hälfte der Distanzberechnungen durchgeführt werden müssen, als es für alle N Trainingsbeispiele auf einmal der Fall ist. Versuche mit verschiedenen Datenmengen zeigten, daß die Wahl von m unkritisch ist und daher von Effizienzkriterien abhängig gemacht werden kann. Die Einsparung kann noch größer werden, wenn während des Einfügens der Neuronen für Tn ein Editier-Schritt durchgeführt wird und sich so die Zahl der Neuronen in der Netz-Struktur möglicherweise weiter verringert. Zukünftige Untersuchungen müssen den Zusammenhang zwischen dem Einsatz der Editier-Schritte und der theoretischen und praktischen Klassifikationsfähigkeit des Netzes klären. 

Resultate: Für die Daten der HOM-Skala zur Graduierung von Hirntumoren wurden verschiedene Netzwerkmodelle trainiert. Von den 679 zur Zeit verfügbaren Datensätzen wurden 113 für das Training benutzt. Tabelle 1 zeigt die Ergebnisse.
 
 

Tabelle 1: Lernen der HOM-Skala, ein Vergleich


Neben der Klassifikationsleistung ist insbesondere das Zeitverhalten des SEN3-Netzwerks interessant. Es verbleiben nur 42 Neuronen im Netzwerk. Das Multi Layer Backpropagation Netzwerk zeigt zwar die besten Resultate, die zwei verborgenen Schichten mit 20 bzw. 50 Neuronen lassen den Berechnungsaufwand jedoch in untragbare Höhen klettern. 

Performancevergleiche auf der Basis verschiedener anderer Datenmengen zeigten, daß die SEN3-Netzwerke Resultate erzielten, die mit konventionellen Netzwerkarchitekturen mindestens vergleichbar sind, wobei meist weniger Neuronen benötigt werden und der Rechenaufwand stets um Größenordnungen reduziert wurde. 

Literatur

    Jürgen Rahmel: KoDiag: Eine Methodik zur Erstellung konnektionistischer Expertensysteme, Diplomarbeit, Universität Kaiserslautern, 1994 (Kapitel 5: Inkrementelle Lernverfahren) 

    RAHMEL, Juergen; WANGENHEIM, Aldo Von. KoDiag: A Connectionist Expert System. In: ISIKNH´94 - INTERNATIONAL SYMPOSIUM ON INTEGRATING KNOWLEDGE AND NEURAL HEURISTICS, PENSACOLA, FLORIDA, 1994