11 - Rechnerarchitektur [ID:10879]
50 von 1101 angezeigt

МУЗЫКАЛЬНАЯ ЗАСТАВКА

Ну, мы были с ГПУ.

И, может быть, еще раз, для повторки.

Такая ГПУ – это подавляющая карта.

Она подходит к тому, чтобы CPU поддерживала.

И она должна помогать, так сказать, на ногах для определенной формы программы.

И, да, мы еще раз в это поговорим.

Такая ГПУ – это довольно комплексное образование,

в связи с спайкером, аэрористическим спайкером.

Или мы сначала идем к этому стандартному образованию.

Этот стандартный образ, вы должны заметить.

Я тогда, вы, наверное, уже знаете,

из-за границы, я обычно в последней, в последней неделе,

но это уже в правильном случае,

я делаю все фольги и даю все темы,

и еще раз спонсирую специально для проверки.

Так что, конечно, эта фольга будет важна для проверки.

Как ГПУ в общем-то создана?

Это собрание многих мультипроцессоров.

Мультипроцессоры сами вверху поделены,

в отдельные шейтер-процессоры,

на которых в случае ввести кубик-программы.

Эти отдельные шейтер-процессоры у нас есть локальный спайкер.

И вне локального спайка есть GDDR-RAM-спайкер.

И это глобальный спайкер.

Хорошо.

Почему так темно-думно?

Может, я в шоке?

Я как-то не верю.

Ты можешь просто выключить сверчок.

Да, это понятно.

Они еще младше, поэтому это понятно.

Хорошо, теперь у нас эта спайкер-процессора.

Вздуху на этой график-карте

ходят много-много стретов.

И в один момент все время

у нас один стрет.

В ходе изображения программы

стреты можно, конечно, сменить.

Но в определенный момент у нас один стрет.

Это значит, что один лейтверк достаточно.

И этот один лейтверк может все шейтер-процессоры

хорошо с инструкцией обеспечить.

Хорошо.

И спайкер-херхи мы уже делали.

Мы делали shared memory, L1-cache.

Это SM-спайкер, который на этом

мульти-процессорном части.

И он можно конфигурировать.

Это shared memory или L1-cache.

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

01:27:55 Min

Aufnahmedatum

2018-01-15

Hochgeladen am

2019-05-01 07:39:02

Sprache

de-DE

Die Vorlesung baut auf die in den Grundlagen der Rechnerarchitektur und -organisation vermittelten Inhalte auf und setzt diese mit weiterführenden Themen fort. Es werden zunächst grundlegende fortgeschrittene Techniken bei Pipelineverarbeitung und Cachezugriffen in modernen Prozessoren und Parallelrechnern behandelt. Ferner wird die Architektur von Spezialprozessoren, z.B. DSPs und Embedded Prozessoren behandelt. Es wird aufgezeigt, wie diese Techniken in konkreten Architekturen (Intel Nehalem, GPGPU, Cell BE, TMS320 DSP, Embedded Prozessor ZPU) verwendet werden. Zur Vorlesung werden eine Tafel- und eine Rechnerübung angeboten, durch deren erfolgreiche Beteiligung abgestuft mit der Vorlesung 5 bzw. 7,5 ECTS erworben werden können. In den Tafelübungen werden die in der Vorlesung vermittelten Techniken durch zu lösende Aufgaben vertieft. In der Rechnerübung soll u.a. ein einfacher Vielkern-Prozessor auf Basis des ZPU-Prozessors mit Simulationswerkzeugen aufgebaut werden. Im Einzelnen werden folgende Themen behandelt:
  • Organisationsaspekte von CISC und RISC-Prozessoren

  • Behandlung von Hazards in Pipelines

  • Fortgeschrittene Techniken der dynamischen Sprungvorhersage

  • Fortgeschritten Cachetechniken, Cache-Kohärenz

  • Ausnutzen von Cacheeffekten

  • Architekturen von Digitalen Signalprozessoren

  • Architekturen homogener und heterogener Multikern-Prozessoren (Intel Corei7, Nvidia GPUs, Cell BE)

  • Architektur von Parallelrechnern (Clusterrechner, Superrechner)

  • Effiziente Hardware-nahe Programmierung von Mulitkern-Prozessoren (OpenMP, SSE, CUDA, OpenCL)

  • Leistungsmodellierung und -analyse von Multikern-Prozessoren (Roofline-Modell)

Empfohlene Literatur
  • Patterson/Hennessy: Computer Organization und Design
  • Hennessy/Patterson: Computer Architecture - A Quantitative Approach

  • Stallings: Computer Organization and Architecture

  • Märtin: Rechnerarchitekturen

Einbetten
Wordpress FAU Plugin
iFrame
Teilen