3 - Organic Computing [ID:10829]
50 von 587 angezeigt

Guten Morgen. Das, was wir uns heute anschauen wollen, ist ja auch eine Analyse der sogenannten

Partikelschwammoptimierung. Deswegen habe ich nochmal dieses Grundgerüst der Partikelschwammoptimierung

angeschrieben. Also wir haben halt eine Gruppe hier von Individuen, das sind jetzt S-Individuen.

Diese Individuen besitzen halt zwei Werte. Einmal einen Vektor, der eine Position im

d-dimensionalen Raum beschreibt. Das sehen Sie halt da oben. Diese x1 bis xs. Eben Positionen und

Positionen heißt jetzt in diesem Zusammenhang, dass das eine mögliche Lösung unserer Aufgabe ist.

Unsere Aufgabe ist, wir haben eine Blackbox gegeben, die ein funktionales Verhalten an den Tag legt.

Wir suchen eine Position, wo der Funktionswert möglichst klein ist. Wir haben jetzt eben S von

diesen Funktionswerten und ein Individuum hat eben nicht nur diese Position, sondern ein Individuen

hat auch einen Geschwindigkeitsvektor. Wir fliegen irgendwie durch diesen d-dimensionalen Raum und

suchen jetzt eben nach Lösungen und wir haben eben auch eine Geschwindigkeit, weil wir uns ja

durch diesen Raum bewegen. Nach der Initialisierung, da wird jetzt was ausgewürfelt, laufen wir jetzt

eben in Generationen vorwärts und eben nicht wie bei den genetischen Algorithmen, wo wir auch noch

zu kommen werden in dieser Vorlesung. Es ist so, dass da neue Individuen erzeugt werden und alte

absterben, sondern wir haben jetzt, wir haben diese S-Individuen und die bleiben auch da und die

berechnen jetzt neue Lösungen auf eine Art und Weise. Wir haben ja schon beim letzten Mal davon

gesprochen, wir haben die global beste Lösung. Sie sind jetzt alles die Individuen und sie sind

jetzt alle auf der Suche nach diesem Punkt, wo das Minimum angenommen wird. Jeder hat jetzt so einen

Punkt und jetzt global ist, ich frage Sie, was haben Sie und die beste Lösung, die jetzt von

allen gefunden wird, das ist dann PG, also G wie global. Das, was dann auch noch gemacht wird,

dass jeder guckt, wo war ich denn schon mal überall und was ist denn meine bisher überhaupt beste

Lösung. Also Sie müssen ja nicht an Ihrer bisher besten Lösung sein, sondern da hinten haben Sie

irgendwo eine gute Lösung gefunden, jetzt sind Sie an der Position, wo keine so gute Lösung ist,

das heißt Sie wissen immer noch, da hinten, da war es, wo ich meine beste Lösung gefunden habe.

Also das hier, deswegen auch hier das I, das ist eine individuelle Lösung und das ist eine,

die für alle gleich ist. Ja und die Sache, die halt, das was die Partikelschwammoptimierung ist,

überhaupt ausmacht, das sind diese beiden Gleichungen, das sind die Bewegungsgleichungen.

Das ist das, wo die Partikelschwammoptimierung sozusagen mit steht oder fällt, das ist das,

was es ausmacht. Also das andere ist nur so das Initialisierungs drum herum gedöhnt,

das hier ist jetzt das, was Partikelschwammoptimierung ist, nämlich eine Aktualisierung der Geschwindigkeit

und dann wird die Geschwindigkeit auf diesen Ortsvektor, auf diese Position drauf addiert.

Wir haben ja beim letzten Mal schon das als Grafik mal dargestellt, wenn wir also hier den

Koordinaten Ursprung haben und hier jetzt die Position XI ist, kann ich auch schön als X,

ist gleich auch der Punkt, dann ist das ja hier ein Vektor, der zu dem XI führt. So,

wir sind jetzt irgendwie schon mittendrin, also dieses K, das sind, kann man sagen,

die Generationen, wir sind jetzt hier irgendwo mittendrin, das heißt, also XI in der Kartengeneration,

das ist der Weg, das war mal X0 und das ist jetzt der Weg, den XI genommen hat und das hier ist der

bisher beste gefunden Punkt in unserer Schreibweise, ist das dann eben das PI, also der beste gefunden

Punkt von diesem Partikel hier, das heißt, das hier ist der Ortsvektor, die Position des besten

gefundenen Punkt von XI. Ja, und dann sind ja noch andere Partikel unterwegs und der global beste,

das ist der hier, das ist dann dieser Vektor. Ja, und dann haben wir eben noch die Geschwindigkeit

von dem Punkt XI, von dem Partikel XI. So, und der neue Geschwindigkeitsvektor ist jetzt eben eine

Linearkombination von, von, ja, der, hatte ich aber am letzten Mal schon gesagt, der hier ruft,

komm nach hier, das heißt, hier ist jetzt dann auch tatsächlich ein Vektor wieder natürlich

zu berechnen, der sagt, komm nach hier, das ist also der Vektor von da, wo ich bin, zu dem, wo ich

bisher am besten gewesen bin. Dann haben wir diese Sache eben nach hier unten, der global beste sagt,

komm nach hier, hier ist was Gutes, hier ist bestimmt noch in der Umgebung was Gutes, dann

haben wir noch diesen Vektor. So, und jetzt haben wir eben diese drei Vektoren, den hier,

dann haben wir den hier und den hier und diese drei Vektoren, die werden jetzt linear kombiniert,

also der Vektor ist halt diese Differenz hier und der, dieser Vektor ist diese Differenz,

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

01:29:10 Min

Aufnahmedatum

2013-04-30

Hochgeladen am

2019-04-29 03:19:18

Sprache

de-DE

Unter Organic Computing (OC) versteht man den Entwurf und den Einsatz von selbst-organisierenden Systemen, die sich den jeweiligen Umgebungsbedürfnissen dynamisch anpassen. Diese Systeme zeichnen sich dadurch aus, dass sie die sog. Self-*-Eigenschaft besitzen, d.h. sie sind selbst-konfigurierend, selbst-optimierend, selbst-heilend, selbst-schützend, selbst-erklärend, ...
Als Vorbild für solche technischen Systeme werden Strukturen und Methoden biologischer und anderer natürlicher Systeme gewählt.

Literatur:

 

  • Ch. Müller-Schloer, Ch. von der Malsburg, R. P. Würt. Organic Computing. Informatik-Spektrum, Band 27, Nummer 4, S. 332-336. (LINK)
  • I. C. Trelea. The particle swarm optimization algorithm: convergence analysis and parameter selection. Information Processing Letters 85 (2003) 317-325. (LINK)

  • J. M. Kleinberg. Authoritative sources in a hyperlinked environment. Journal of the ACM 46 (1999) 604-632. (LINK)

  • M. Dorigo. V. Maniezzo. A Colorni. Ant system: an autocatalytic optimizing process. Technical Report 91-016, Politecnico di Milano, 1991. (LINK)

  • A. Badr. A. Fahmy. A proof of convergence for Ant algorithms. Information Sciences 160 (2004) 267-279.

  • M. Clerc. J. Kennedy. The particle swarm - Explosion, stability, and convergence in a multidimensional complex space. IEEE Transactions on Evolutionary Computation 8 (2002) 58-73.

Einbetten
Wordpress FAU Plugin
iFrame
Teilen