4 - Organic Computing [ID:10830]
50 von 531 angezeigt

Guten Morgen, nachdem wir beim letzten Mal uns angeschaut hatten, wie man bei der Partikelschwammoptimierung

die Parameter behält, um den Schwamm konvergieren zu lassen, wollen wir heute mal so einen kleinen

Sprung machen, weg von der Optimierung zu einem anderen großen organischen System, mit dem

wir tagtäglich umgehen, nämlich dem World Wide Web. Und naja, eine der Sachen, die wir da ganz

häufig machen, ist der Websuche. Und da hat sich ja unglaublich viel getan. Sie sind ja alles so

junge Leute. Ich kann mich noch an eine Zeit vor dem World Wide Web erinnern, als dann die ersten

Suchmaschinen kamen, so was wie Alta Vista, da wurde man halt zugemüllt mit den Ergebnissen der

Suche, aber die waren dann halt so, dass man seitenweise Ergebnisse hatte, aber sich dann auf

Seite drei halt dann endlich den richtigen Link raussuchen konnte, der dann relevant war für das,

wonach man gefragt hatte. Heutzutage ist es halt so, dass so Maschinen halt wie der Marktführer

Google da ganz anders die Sachen zurückgeben. Da gibt es ja dann die relevanten Seiten fast immer,

auch direkt oben. Was hat sich da getan? Und das, was sich da getan hat, das möchten wir nämlich

heute mal ein bisschen untersuchen. Ich werde Ihnen einen Algorithmus vorstellen, der ganz

ähnlich zu dem PageRank-Algorithmus von Google ist. Den PageRank-Algorithmus werden wir in den

Übungen auch dann noch uns weiterhin anschauen. Das, was ich Ihnen vorstellen möchte, ist der

Hitz-Algorithmus, der ist in mathematischer Hinsicht sogar etwas stärker als der PageRank-Algorithmus.

Das, was wir natürlich machen werden, ist nicht das ganze Graffel, was Google noch weiter drum

rum macht mit irgendwie Pre-Processing und so was, das werde ich natürlich alles nicht vorstellen,

sondern es gibt halt den Kern aller dieser Suchmaschinen und diesen Kern, den möchte

ich Ihnen vorstellen und auch mathematisch vorstellen, warum das funktioniert.

Also es geht diesmal um Web-Suche und insbesondere dabei um das Data Mining. Ja, und das World Wide

Web, das wollen wir eben uns als Beispiel eines organischen Systems, ja und jetzt auch wirklich

in dieser Bedeutung des von Menschen konstruierten organischen Systems, also jetzt nicht ein organisches

System aus der freien Wildbahn, also das ein Beispiel des organischen Systems und definieren

wir es mal ein bisschen, was das genau sein soll. Zum Besten, wenn es um unsere Web-Suche geht,

das World Wide Web ist ein Hypertext-Korpus. Das sind also Seiten, die beschrieben sind,

wer schon mal in so eine HTM-Eltert rein geguckt hat, der hat schon mal gesehen, wie so eine Seite

wirklich aufgebaut ist, dann gibt es halt dann so Latig ähnlich, HTM-El ist ja tatsächlich von den

Leuten, die die gut Latiche konnten, haben dann auch entwickelt worden, ist so latigmäßig, HTM-El

fängt an, HTM-El, Kopfzeile und Body, Bodyende und all diese Sachen. Also das ist, dass man den

Text, den man anzeigt, vorher auch beschreibt, was was ist und zusätzlich, was das Schöne daran ist,

sind die Links und die sind natürlich dann auch das, was wir zusätzlich später noch auswerten

werden. Das ist also ein Hypertext-Korpus. Da ist auch wieder eins unserer nächsten und unserer

weiteren Schlüsselwörter. Das ist sehr komplex. Es gibt ja oft diese Bildchen, die dann das World

Wide Web darstellen, die sind in dem Moment, wo man sie anzeigt, schon wieder völlig veraltet,

aber da sieht man eigentlich in Wirklichkeit gar nichts. Das sind halt irgendwie die Knoten des

World Wide Web, die dann durch die Links untereinander verbunden sind und das, was man sieht,

ist einfach ein riesiges wirres Netz. Also diese Komplexität ist sehr groß und eben das Ganze ist

untereinander verlinkt. Und wer tummelt sich in diesem Netz? Das sind User mit ganz verschiedenen

gegensätzlichen Zielen. Und diese User in diesem Netzwerk, die erzeugen, das ist halt jeder ist Teil

des World Wide Web und kann halt Webseiten auch dann generieren. Die User mit diesen auch zum

Teil gegensätzlichen Zielen, die erzeugen eben diesen Inhalt und wie machen die das? Auf sehr

lokaler Ebene. Nicht lokal ist, sie machen eine Webseite und legen ihre Links. Also da editieren

weder andere Webseiten, noch nehmen sie irgendwie Teile aus dem Web raus. Das, was sie machen,

ist sie nehmen ihre Webseite und hängen die ins Netz. Es gibt halt die Webseite zur Partikelschwamm-

optimierung bei uns in der Gruppe und das ist auch etwas sehr Lokales. Und wenn man nach Partikelschwamm-

optimierung in Deutschland sucht, ist das dann trotzdem etwas, was gleich ausgespuckt wird. Das

haben wir aber niemandem gesagt, sondern wir haben einfach nur diese Seite mit den Links dahin gemacht

und wir haben einfach Links auf unsere Aufsätze, Links auf andere Webseiten da reingepackt und

dadurch ist etwas entstanden, was insgesamt größeren Inhalt erzeugt. Sie können jetzt hier

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

01:30:35 Min

Aufnahmedatum

2013-05-07

Hochgeladen am

2019-04-28 19:49:03

Sprache

de-DE

Unter Organic Computing (OC) versteht man den Entwurf und den Einsatz von selbst-organisierenden Systemen, die sich den jeweiligen Umgebungsbedürfnissen dynamisch anpassen. Diese Systeme zeichnen sich dadurch aus, dass sie die sog. Self-*-Eigenschaft besitzen, d.h. sie sind selbst-konfigurierend, selbst-optimierend, selbst-heilend, selbst-schützend, selbst-erklärend, ...
Als Vorbild für solche technischen Systeme werden Strukturen und Methoden biologischer und anderer natürlicher Systeme gewählt.

Literatur:

 

  • Ch. Müller-Schloer, Ch. von der Malsburg, R. P. Würt. Organic Computing. Informatik-Spektrum, Band 27, Nummer 4, S. 332-336. (LINK)
  • I. C. Trelea. The particle swarm optimization algorithm: convergence analysis and parameter selection. Information Processing Letters 85 (2003) 317-325. (LINK)

  • J. M. Kleinberg. Authoritative sources in a hyperlinked environment. Journal of the ACM 46 (1999) 604-632. (LINK)

  • M. Dorigo. V. Maniezzo. A Colorni. Ant system: an autocatalytic optimizing process. Technical Report 91-016, Politecnico di Milano, 1991. (LINK)

  • A. Badr. A. Fahmy. A proof of convergence for Ant algorithms. Information Sciences 160 (2004) 267-279.

  • M. Clerc. J. Kennedy. The particle swarm - Explosion, stability, and convergence in a multidimensional complex space. IEEE Transactions on Evolutionary Computation 8 (2002) 58-73.

Einbetten
Wordpress FAU Plugin
iFrame
Teilen