Guten Morgen. Das, was wir uns heute anschauen wollen, ist ja auch eine Analyse der sogenannten
Partikelschwammoptimierung. Deswegen habe ich nochmal dieses Grundgerüst der Partikelschwammoptimierung
angeschrieben. Also wir haben halt eine Gruppe hier von Individuen, das sind jetzt S-Individuen.
Diese Individuen besitzen halt zwei Werte. Einmal einen Vektor, der eine Position im
d-dimensionalen Raum beschreibt. Das sehen Sie halt da oben. Diese x1 bis xs. Eben Positionen und
Positionen heißt jetzt in diesem Zusammenhang, dass das eine mögliche Lösung unserer Aufgabe ist.
Unsere Aufgabe ist, wir haben eine Blackbox gegeben, die ein funktionales Verhalten an den Tag legt.
Wir suchen eine Position, wo der Funktionswert möglichst klein ist. Wir haben jetzt eben S von
diesen Funktionswerten und ein Individuum hat eben nicht nur diese Position, sondern ein Individuen
hat auch einen Geschwindigkeitsvektor. Wir fliegen irgendwie durch diesen d-dimensionalen Raum und
suchen jetzt eben nach Lösungen und wir haben eben auch eine Geschwindigkeit, weil wir uns ja
durch diesen Raum bewegen. Nach der Initialisierung, da wird jetzt was ausgewürfelt, laufen wir jetzt
eben in Generationen vorwärts und eben nicht wie bei den genetischen Algorithmen, wo wir auch noch
zu kommen werden in dieser Vorlesung. Es ist so, dass da neue Individuen erzeugt werden und alte
absterben, sondern wir haben jetzt, wir haben diese S-Individuen und die bleiben auch da und die
berechnen jetzt neue Lösungen auf eine Art und Weise. Wir haben ja schon beim letzten Mal davon
gesprochen, wir haben die global beste Lösung. Sie sind jetzt alles die Individuen und sie sind
jetzt alle auf der Suche nach diesem Punkt, wo das Minimum angenommen wird. Jeder hat jetzt so einen
Punkt und jetzt global ist, ich frage Sie, was haben Sie und die beste Lösung, die jetzt von
allen gefunden wird, das ist dann PG, also G wie global. Das, was dann auch noch gemacht wird,
dass jeder guckt, wo war ich denn schon mal überall und was ist denn meine bisher überhaupt beste
Lösung. Also Sie müssen ja nicht an Ihrer bisher besten Lösung sein, sondern da hinten haben Sie
irgendwo eine gute Lösung gefunden, jetzt sind Sie an der Position, wo keine so gute Lösung ist,
das heißt Sie wissen immer noch, da hinten, da war es, wo ich meine beste Lösung gefunden habe.
Also das hier, deswegen auch hier das I, das ist eine individuelle Lösung und das ist eine,
die für alle gleich ist. Ja und die Sache, die halt, das was die Partikelschwammoptimierung ist,
überhaupt ausmacht, das sind diese beiden Gleichungen, das sind die Bewegungsgleichungen.
Das ist das, wo die Partikelschwammoptimierung sozusagen mit steht oder fällt, das ist das,
was es ausmacht. Also das andere ist nur so das Initialisierungs drum herum gedöhnt,
das hier ist jetzt das, was Partikelschwammoptimierung ist, nämlich eine Aktualisierung der Geschwindigkeit
und dann wird die Geschwindigkeit auf diesen Ortsvektor, auf diese Position drauf addiert.
Wir haben ja beim letzten Mal schon das als Grafik mal dargestellt, wenn wir also hier den
Koordinaten Ursprung haben und hier jetzt die Position XI ist, kann ich auch schön als X,
ist gleich auch der Punkt, dann ist das ja hier ein Vektor, der zu dem XI führt. So,
wir sind jetzt irgendwie schon mittendrin, also dieses K, das sind, kann man sagen,
die Generationen, wir sind jetzt hier irgendwo mittendrin, das heißt, also XI in der Kartengeneration,
das ist der Weg, das war mal X0 und das ist jetzt der Weg, den XI genommen hat und das hier ist der
bisher beste gefunden Punkt in unserer Schreibweise, ist das dann eben das PI, also der beste gefunden
Punkt von diesem Partikel hier, das heißt, das hier ist der Ortsvektor, die Position des besten
gefundenen Punkt von XI. Ja, und dann sind ja noch andere Partikel unterwegs und der global beste,
das ist der hier, das ist dann dieser Vektor. Ja, und dann haben wir eben noch die Geschwindigkeit
von dem Punkt XI, von dem Partikel XI. So, und der neue Geschwindigkeitsvektor ist jetzt eben eine
Linearkombination von, von, ja, der, hatte ich aber am letzten Mal schon gesagt, der hier ruft,
komm nach hier, das heißt, hier ist jetzt dann auch tatsächlich ein Vektor wieder natürlich
zu berechnen, der sagt, komm nach hier, das ist also der Vektor von da, wo ich bin, zu dem, wo ich
bisher am besten gewesen bin. Dann haben wir diese Sache eben nach hier unten, der global beste sagt,
komm nach hier, hier ist was Gutes, hier ist bestimmt noch in der Umgebung was Gutes, dann
haben wir noch diesen Vektor. So, und jetzt haben wir eben diese drei Vektoren, den hier,
dann haben wir den hier und den hier und diese drei Vektoren, die werden jetzt linear kombiniert,
also der Vektor ist halt diese Differenz hier und der, dieser Vektor ist diese Differenz,
Presenters
Zugänglich über
Offener Zugang
Dauer
01:29:10 Min
Aufnahmedatum
2013-04-30
Hochgeladen am
2019-04-29 03:19:18
Sprache
de-DE
Unter Organic Computing (OC) versteht man den Entwurf und den Einsatz von selbst-organisierenden Systemen, die sich den jeweiligen Umgebungsbedürfnissen dynamisch anpassen. Diese Systeme zeichnen sich dadurch aus, dass sie die sog. Self-*-Eigenschaft besitzen, d.h. sie sind selbst-konfigurierend, selbst-optimierend, selbst-heilend, selbst-schützend, selbst-erklärend, ...
Als Vorbild für solche technischen Systeme werden Strukturen und Methoden biologischer und anderer natürlicher Systeme gewählt.
Literatur:
- Ch. Müller-Schloer, Ch. von der Malsburg, R. P. Würt. Organic Computing. Informatik-Spektrum, Band 27, Nummer 4, S. 332-336. (LINK)
-
I. C. Trelea. The particle swarm optimization algorithm: convergence analysis and parameter selection. Information Processing Letters 85 (2003) 317-325. (LINK)
-
J. M. Kleinberg. Authoritative sources in a hyperlinked environment. Journal of the ACM 46 (1999) 604-632. (LINK)
-
M. Dorigo. V. Maniezzo. A Colorni. Ant system: an autocatalytic optimizing process. Technical Report 91-016, Politecnico di Milano, 1991. (LINK)
-
A. Badr. A. Fahmy. A proof of convergence for Ant algorithms. Information Sciences 160 (2004) 267-279.
-
M. Clerc. J. Kennedy. The particle swarm - Explosion, stability, and convergence in a multidimensional complex space. IEEE Transactions on Evolutionary Computation 8 (2002) 58-73.