Wie immer erstmal eine Wiederholung über die alten Slides. Ich erwarte eigentlich, dass Sie Fragen haben.
Und jetzt ist die Gelegenheit, die zu stellen. Ich glaube, dass es wichtig ist, dass wir diskutieren.
Ich glaube, dass es wichtig ist, dass Sie die Gelegenheit haben, Fragen zu stellen.
Und ich kann sehr gut verstehen, dass, wenn das Ganze in Ihnen vorbeirauscht, dass Sie dann die Fragen noch nicht wirklich formulieren können.
Deswegen würde ich gerne haben, dass Sie sich nach der Vorlesung, in der Nachbereitung die Slides oder etwaige Aufschrieve oder vielleicht das Buch nochmal angucken und für sich Fragen formulieren.
Das ist das Wichtigste an einer Präsenzveranstaltung meiner Ansicht nach.
Weniger, dass ich Ihnen irgendetwas vorlese, was Sie auch sonst in dem Buch finden können,
sondern eher, dass wir miteinander diskutieren können.
Okay, es ging darum, im Wesentlichen immer noch Einführung, was ist überhaupt künstliche Intelligenz.
Und es gibt irgendwie zwei Arten, künstliche Intelligenz zu betreiben.
Einmal mit statistischen Methoden über Maschinenlernen und die andere ist über symbolische Methoden, also über Methoden, wo vorausgesetzt wird,
dass wir in unseren Gehirnen und deswegen auch in unseren Maschinen Objekte haben, die wir Symbole nennen, die irgendwie für Konzepte in der realen Welt stehen.
Also etwas wie das Konzept Stuhl, da steht für Dinge wie dieses hier und mit denen wird dann manipuliert in der symbolischen KI.
In der subsymbolischen KI sagt man, ach, das ist alles Quatsch, wer hat schon Symbole, wir sehen irgendetwas durch unsere Augen und das verarbeiten wir irgendwie.
Und irgendwann machen wir dann was Hübsches und dann nennen wir das auch KI.
Diese beiden Strömungen gibt es einerseits und zum anderen gibt es diese, so ein bisschen so eine Idee, einen Unterschied in der Idee, wie man künstliche Intelligenz machen will.
Es gibt einerseits die Leute, die sagen prima, wir lösen ein Problem, was man allgemein als intelligenzbehaftet versteht.
Schachspielen, Go spielen, selbstfahrendes Auto, Roboter, alles so ein Krempel und die lösen wir, wie auch immer wir das können.
Entweder durch massiven Maschinenansatz oder durch clevere Tricks oder so.
Und dann gibt es die Leute, die jetzt nennt man die starke KI, die sagen, nein, wir sind daran interessiert, Intelligenz zu erzeugen, im Wesentlichen, wie es beim Menschen passiert.
Also etwas ganz Allgemeines und dann fängt das an zu lernen und dann irgendwann kann es so viel wie ein Thermostat, dann kann es so viel wie eine Katze und dann kann es so viel wie ein Delfin und hinterher kann es so viel wie ein Mensch.
Und nach kurzer Zeit kann es so viel, wie kein Mensch kann.
Es gibt so eine Diskussion über Hyperintelligenz im Moment, wo verschiedene Leute Sorge haben, dass irgendwann die Roboter übernehmen und wir alle arbeitslos werden und wir alle in die Matrix kommen.
Oder vielleicht, dass wir schon in der Matrix sind und so etwas und das macht vielen Leuten Sorge.
Das nennt man Hyperintelligenz und immer wenn sich irgendwo in der KI was tut, kommt so eine Welle der Diskussion, ist es das jetzt?
Und bisher hat sich das immer herausgestellt, nein.
Und obwohl ich selber KIler bin, habe ich keine große Sorge.
Ich persönlich, ich habe noch nichts gesehen, was auch nur ansatzweise an Hyperintelligenz erinnert.
Natürlich können Maschinen in einigen Dingen besser als wir.
Ja, große Zahlen multiplizieren, Go spielen viel besser als ich.
Ich kann fast gar nicht Go spielen, Schach spielen kann ich auch fast nicht, sind die Maschinen viel besser als ich.
Aber das ist nichts Erstaunliches.
Wir haben schon immer Maschinen gebaut als Menschen, mit denen wir Sachen besser können als vorher.
Ich erinnere nur an einen, ach, Crowbar, an eine Brechstange, genau.
Das ist ein langer Stahlstab, der hat so unten einen kleinen Haken.
Wenn ich den unter den Schrank stelle, den ich nicht heben kann oder unter den Safe, dann mache ich einmal so und schon ist er hoch.
Mit dem Werkzeug kann ich mehr als ohne das Werkzeug, gar nicht erstaunlich.
Hyperintelligenz, etwas was uns besser denken kann als wir, sieht man nicht.
Trotzdem ist das eine Forschungsrichtung, die aktiv betrieben wird.
Es gibt da diese AGI Richtung, die man allerdings nach meiner Einschätzung relativ wissenschaftlich mit Vorsicht genießen sollte.
Also so Proponenten wie Ray Kurzweil, der jetzt bei Google ist und vorher bei irgendwelchen anderen Firmen, Chief Futurologist ist,
der behauptet irgendwann dann mal wieder, dass die Singularität erreicht sei und das jetzt aber die Maschinen übernehmen.
Und schreibt darüber sehr spannende Bücher, aber das ist nicht wirklich alles durch echte Wissenschaft gedeckt.
Aber es muss natürlich auch Leute geben, die über sowas nachdenken und es gibt Leute, die über sowas Romanisch schreiben.
Die nennen sich aber typischerweise nicht Wissenschaftler.
Also das muss man so ein bisschen mit meiner Ansicht nach mit Vorsicht genießen.
Gut, Fragen?
Okay, vor dieser, wir haben auch kurz gesagt, was meine Gruppe macht.
Also wir machen künstliche Intelligenz oder zumindest betrachten wir das als künstliche Intelligenz.
Es geht dabei nicht um AGI, also wir wollen schon irgendwie verstehen, wie Menschen denken.
Presenters
Zugänglich über
Offener Zugang
Dauer
01:29:15 Min
Aufnahmedatum
2016-10-24
Hochgeladen am
2019-04-19 10:39:02
Sprache
de-DE
Dieser Kurs beschäftigt sich mit den Grundlagen der Künstlichen Intelligenz (KI), insbesondere formale Wissensrepräsentation, Heuristische Suche, Automatisches Planen und Schliessen unter Unsicherheit.
Lernziele und Kompetenzen:
- Wissen: Die Studierenden lernen grundlegende Repräsentationsformalismen und Algorithmen der Künstlichen Intelligenz kennen.
-
Anwenden: Die Konzepte werden an Beispielen aus der realen Welt angewandt (Übungsaufgaben).
-
Analyse: Die Studierenden lernen die über die modellierung in der Maschine menschliche Intelligenzleistungen besser einzuschätzen.
Sozialkompetenz
-
Die Studierenden arbeiten in Kleingruppen zusammen um kleine Projekte zu bewältigen