3 - NVIDIA Corporation – Grafikprozessoren und Chipsätze für PCs und Spielkonsolen [ID:6329]
50 von 789 angezeigt

Herzlich willkommen zu unserem heutigen Vortrag im Rahmen des RLZE Campus Treffen.

Für diejenigen, die uns noch nicht kennen, kurze Personenvorstellungen.

Einmal Herr Axel Köller, Solution Architect für Professional Solution.

Und meine Wenigkeit Ralf Hinschl, Business Development Manager für Tesla und GPU Computing.

Zunächst möchte ich mal kurz auf unsere heutige Agenda eingehen, damit Sie wissen, was Sie jetzt erwarten.

Einmal die kurze Begrüßung durch mich und eine kurze Einführung in das Thema Deep Learning.

Dauert etwa eine Viertelstunde.

Danach wird Herr Köller dann auf unser aktuelles Produkt Tesla P100 in Detail eingehen.

Also basiert auf unserer neuen Pascal-Architektur.

Ich selbst werde dann im Anschluss basierend auf Pascal unsere neue DJX-1, unsere Deep Learning Appliance vorstellen.

Und danach wenden wir uns dann dem Thema zu, wie man effizient diese Technologie dann auch einsetzen kann.

Also wir werden einmal auf OpenACC als Software-Paradigma eingehen.

Und einige Anwendungs-Performancewerte präsentieren im Zusammenhang mit Beschleunigung von Applikationen durch GPU.

Zum Schluss dann ist ich auch recht herzlich im Anschluss zu einem kurzen Get-Together einladen.

Wir werden nachher dann durch Catering noch ein bisschen Fingerfood bekommen und Getränke dazu.

Und da haben wir dann auch die Möglichkeit uns dann nochmal im Detail dann zu unterhalten und Fragen in dem Zusammenhang dann auch zu beantworten.

Gehen wir einfach mal jetzt auf das Thema Deep Learning kurz ein.

Deep Learning, sicherlich haben Sie das ja alles auch schon aus der Presse entnehmen können, sorgt dafür ein bisschen VIRBL in der letzten Zeit.

Insbesondere das letzte Ereignis mit dem Ereignis, dass der Go-Weltmeister, der amtierende Go-Weltmeister von einer Maschine geschlagen worden ist.

Also das ist denke ich schonmal der Bestbeweis dafür.

Weil ja Go von der Komplexität her ja deutlich über Schach hinausgeht, ist das der Bestbeweis dafür,

dass selbst solche komplexen Aufgaben mittlerweile von Maschinen gelöst werden können.

Oder zumindest in einer Form gelöst werden können, dass sie super jungen Performance liefern.

Das ganze Thema Artificial Intelligence ist ja mittlerweile schon seit einigen Jahren auf dem Vormarsch.

Jetzt auch gerade im Hinblick auf Verwendung von GPUs.

Begonnen hat das ganze sicherlich auch im Rahmen zum Beispiel einer ImageNet Competition,

wo seit 2012 durch die erstmalige Verwendung von GPUs durch eine Gruppe der University of Vancouver

ja doch deutliche Fortschritte in der Error-Rate erzielt worden sind.

Das ganze dann begleitend mit den großen Erfolgen von Google DeepMind, Facebook, Microsoft,

die sich mit dem Thema Deep Learning intensiv beschäftigen.

Dann das Aufkommen von dementsprechend passenden Frameworks wie Café Torch und Tejano,

die etwa vor zwei, drei Jahren von sich reden gemacht haben.

Die Unterstützung dann durch unsere optimierten Libraries, insbesondere die CUDA DNN Library,

anfänglich ausgerichtet auf Convolutional Neural Networks,

mittlerweile in der letzten Variante allerdings auch schon mit Unterstützung von RNNs und LSTMs.

Dann Ereignisse wie Machine Learning Beats Humans, da gehe ich jetzt gleich in den folgenden Folien noch ein bisschen drauf ein.

Das ist jetzt also nicht nur jetzt im Rahmen des Spieles Go, sondern auch in anderen Anwendungsfällen.

Und da können wir in den folgenden Folien noch kurz eingehen.

The Big Bang in Machine Learning.

Eigentlich ist das, was heute jetzt als Deep Learning wiederum größere Bekanntheit gerade erreicht hat,

in meinen Augen eine Renaissance der Artificial Intelligence aus dem letzten Jahrhundert.

Man hat nur eigentlich drei treibende Faktoren im Moment, die das Ganze wieder zu einem Thema haben werden lassen.

Zum einen sind das die verbesserten Algorithmen, die verbesserten Strukturen, die verbesserten Verfahren.

Eigentlich all das, was mit dem Thema neuronale Netzwerke zu tun hat.

Der zweite treibende Faktor, und dem messe ich eigentlich den größten Grad bei,

ist die Verfügbarkeit von riesigen Datenmengen, die ich ja benötige, um ein neuronales Netzwerk vernünftig zu trainieren.

Nur mit einer sehr großen Menge von Tag Data bin ich tatsächlich in der Lage, ein Netzwerk, ein neuronales Netzwerk,

was anfänglich ja gar keine Intelligenz besitzt, in einem ausreichenden Maße intelligent zu gestalten.

Dieses zur Verfügung stehen von Big Data, sprich also eigentlich auch das Internet hat seine Spuren hier hinterlassen.

Durch das Internet selber haben wir mittlerweile Zugriff auf immense Mengen von Daten, sei es jetzt Images, sei es jetzt Videos,

Teil einer Videoserie :

Presenters

Axel Köhler Axel Köhler
Ralph Hinsche Ralph Hinsche

Zugänglich über

Offener Zugang

Dauer

01:50:34 Min

Aufnahmedatum

2016-05-12

Hochgeladen am

2016-05-17 10:39:37

Sprache

de-DE

Leistungsfähige Grafikkarten werden nicht nur für anspruchsvolle Spiele sondern seit einigen Jahren in zunehmendem Maße auch zur Beschleunigung technisch-wissenschaftlicher Berechnungen genutzt. Die Firma NVIDIA wird im Rahmen des Campustreffens einen Überblick über kommende Consumer- und Enterprise-Hardware geben und Anwendungsbeispiele sowohl aus dem Bereich Scientific Computing (CFD, Molekulardynamik, ...) als auch für Deep Learning und neuronale Netzwerke zeigen.

Tags

it-spezialist campustreffen nvidia grafikkarten molekulardynamik dienstleistung hardware software rrze
Einbetten
Wordpress FAU Plugin
iFrame
Teilen