6 - Francis Bach: On the convergence of gradient descent for wide two-layer neural networks/ClipID:16039 vorhergehender Clip nächster Clip

Die automatischen Untertitel, die mit Whisper Open AI in diesem Video-Player (und im Multistream-Video-Player) generiert werden, dienen der Bequemlichkeit und Barrierefreiheit. Es ist jedoch zu beachten, dass die Genauigkeit und Interpretation variieren können. Für mehr Informationen lesen Sie bitte die FAQs (Absatz 14)
Aufnahme Datum 2020-05-18

Zugang

Frei

Sprache

Englisch

Einrichtung

Lehrstuhl für Angewandte Mathematik

Produzent

Lehrstuhl für Angewandte Mathematik

Many supervised learning methods are naturally cast as optimization problems. For prediction models which are linear in their parameters, this often leads to convex problems for which many guarantees exist. Models which are non-linear in their parameters such as neural networks lead to non-convex optimization problems for which guarantees are harder to obtain. In this talk, I will consider two-layer neural networks with homogeneous activation functions where the number of hidden neurons tends to infinity, and show how qualitative convergence guarantees may be derived. I will also highlight open problems related to the quantitative behavior of gradient descent for such models.

Mehr Videos aus der Kategorie "Naturwissenschaftliche Fakultät"

2024-04-17
Studon
geschützte Daten  
2024-04-16
Studon
geschützte Daten  
2024-02-08
Studon
geschützte Daten  
2024-02-08
Studon
geschützte Daten  
2024-02-07
Studon
geschützte Daten