Benutzer-Werkzeuge

Webseiten-Werkzeuge


history_in_a_nutshell

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
history_in_a_nutshell [2024/01/21 13:12] torsten.roehlhistory_in_a_nutshell [2024/01/21 13:24] (aktuell) torsten.roehl
Zeile 1: Zeile 1:
 ====== History in a nutshell  ====== ====== History in a nutshell  ======
  
-Diese sehr kurze Übersicht über die Geschichte der neuronalen Netze soll hauptsächlich von Personen und deren Leistungen erzählen, die in den noch folgenden Lernabschnitten zu neuronalen Netzen besprochen werden.+Diese sehr kurze Übersicht über die Geschichte der neuronalen Netze soll hauptsächlich von Personen und deren Leistungen erzählen, die in hier behandelten Lernabschnitten zu neuronalen Netzen besprochen werden.
  
 | <color #00a2e8>**1943**</color>|Warren McCulloch und Walter Pit| <WRAP>{{ :inf:ki:mcculloch.jpg? |}} | <color #00a2e8>**1943**</color>|Warren McCulloch und Walter Pit| <WRAP>{{ :inf:ki:mcculloch.jpg? |}}
  
  
-Warren McCulloch (1898-1969).+Warren McCulloch (1898-1969).\\
  
 Einer der Gründungsväter der"Neuroinformatik". Einer der Gründungsväter der"Neuroinformatik".
 </WRAP>| </WRAP>|
-| | | |+| | |<WRAP>{{ :inf:ki:pitts.jpg? |}} 
 + 
 +Walter Pitts. \\ Entwickelte mit McCulloch eines der ersten Neuronenmodelle.(1923-1969) 
 +</WRAP>
 +|<color #00a2e8>**1949**</color> |**Donald O. Hebb** beschrieb in seinem Buch ''The Organization of Behaviour'' die mittlerweile klassische Hebb'sche Lernregel als einfaches universelles Lernkonzept individueller Neurone. Die Hebb'sche Lernregel bildet bis heute die Grundlage fast aller Lernverfahren für neuronale Netze. |<WRAP>{{ :inf:ki:hebb.jpg? |}} 
 +Donald Hebb (1904-1985) berühmt durch seine Hebbsche Lernregel. 
 +</WRAP>
 +|<color #00a2e8>**1958**</color> |**Rosenblatt** entwickelte  das Perzeptron ein sehr bekanntes neuronales Netz. Desweiteren lieferte Rosenblatt  auch den Beweis dafür, dass das Perzeptron alles repräsentieren kann, was es mit dem von ihm angegebenen Lernverfahren lernen kann. Dies ist als Perzeptron-Konvergenz-Theorem bekannt. |<WRAP>{{ :inf:ki:rosenblatt.jpg? |}} 
 +Frank Rosenblatt (1928–1969) 
 +bekannt durch das 
 +Perzeptron-Konvergenz-Theorem. 
 +</WRAP>
 +| <color #00a2e8>**1969**</color>|**Marvin Minsky** und **Seymour Papert** führten in ihrem Klassiker //„Perceptrons“// eine genaue mathematische Analyse des Perzeptrons durch und zeigten, dass das Modell viele wichtige Probleme wie z.B. das ''XOR-Problem'' nicht lösen kann. Leider folgerten sie daraus, dass auch mächtigere Modelle als das Perzeptron die gleichen Probleme aufweisen und bezeichneten das gesamte Gebiet der neuronalen Netze als //„research dead-end“//. Dies erwies sich als falsch, war aber dennoch der Auslöser dafür, dass Forschern auf diesem Gebiet in den nächsten 15 Jahren nur wenige Forschungsgelder zur Verfügung standen.|<WRAP>{{ :inf:ki:papert.jpg? |}} 
 +Seymour Papert 
 +</WRAP>
 +| <color #00a2e8>**1982**</color> |**John Hopfield** (Physiker) beschrieb in seinem berühmten Artikel //„Neural networks and physical systems with emergent collective computational abilities“// ein Modell das jetzt als Hopfield-Netz bekannt ist. Das Hopfield-Netz ist ein neuronales Äquivalent des Ising-Modells aus der statistischen Physik, was uns hier aber nicht weiter zu interessieren braucht.  Später erweiterte er das Modell auf kontinuierliche Hopfield-Netze und zeigte in seinem Artikel //„Neurons with graded response have collective computational properties like those of twostate neurons“//, dass diese Netze mit Hilfe einer Energiefunktion untersucht werden können. 1985 veröffentlichte er einen Artikel //"Neural Computation of Decisions in Optimization Problems"// und stellte dar, wie diese Netze  Optimierungsaufgaben, darunter das berühmte Travelingsalesman-Problem, lösen können. Damit überzeugte er viele Forscher von der Wichtigkeit des Forschungsgebiets. |<WRAP>{{ :inf:ki:hopfield.jpg? |}} 
 +Hopfield übertrug Methoden der statistischen Physik auf die Theorie der neuronalen Netze. 
 +</WRAP>
 +| |**Teuvo Kohonen** ist vor allem für seine Arbeiten über Netzwerke, die als Self-Organizing-Maps (**Selbstorganisierende Karten**) oder  eben Kohonennetze bezeichnet werden, bekannt geworden.  Diese Netzwerktypen sind biologisch gut motiviert. |<WRAP>{{ :inf:ki:kohonen.jpg? |}} 
 +Teuvo Kohonen und seine //"Self-Organizing Maps"// (Kohonennetze) weisen interessante Analogien zu den neuronalen Karten (Homunculus) des menschlichen Gehirns auf. 
 +</WRAP>
history_in_a_nutshell.1705842724.txt.gz · Zuletzt geändert: 2024/01/21 13:12 von torsten.roehl