Also dann, willkommen heute mal in einer anderen Umgebung, die eigentlich viel schöner ist, oder?
Jetzt, wo mal heute die Sonne scheint, zur letzten Vorlesung lassen wir nochmal richtig die Sonnenstrahlen rein.
Gut, wir haben uns ja im Kapitel 3 immer noch mit den eingebetteten Systemen beschäftigt, eingebetteten Prozessoren.
Und ich bin auf das Beispiel eingegangen beim autonomen Fahren, habe also erstmal ein paar Dinge allgemein erklärt, was beim autonomen Fahren da so wichtig ist.
Das sind also diese drei Dinge.
Ach ne, bitte nicht, ich habe mich die ganze Zeit angelassen.
Also, das Aufnehmen von Daten mit Sensoren, dann die Wahrnehmung und dann die Entscheidungsfindung.
Und ja, speziell zwei Beispiele, ein Beispiel hatte ich hier etwas ausführlicher gezeigt, das war die Objekterkennung, und zwar von Fußgängern.
Also nicht von spezifischen Fussgängern, sondern von Fussgängern allgemein.
Das haben wir uns ja angeguckt mit dem Hock.
Und da kommt jetzt nochmal ein Beispiel, was man auch machen kann.
Zum Beispiel gehört auch das Erarbeiten von Auswerten von Radar-Daten.
Das machen wir jetzt nochmal kurz.
Das hat man schon gemacht.
Den Hock haben wir uns ja ausführlich angeguckt.
Am Ende klassifiziert man das Ganze mit einer Support Vector Maschine.
Das hatte ich Ihnen auch noch gesagt.
Also letztendlich läuft das Ganze darauf hinaus, dass man dann einen Vector bekommt
bei diesem Hockverfahren mit 36 Dimensionen.
Der Hock hat nur bestimmte Eigenschaften, wenn er etwas detektiert hat,
wo es um einen Gegenstand ging, in dem Fall eine Person, die aufrecht steht.
Das haben wir dann auch erweitert, auch Fahrzeughecks.
Damit habe ich dann aufgehört.
Nun ist es so, mit einer optischen Kamera kann man natürlich viele Dinge erfassen.
Hier ist noch etwas frei.
Man kann also diese Person direktieren, aber man hat natürlich nicht immer so einen schönen Tag wie heute,
dass deine Kamera wunderbar funktioniert, sondern ich fahre zum Beispiel durch einen Tunnel oder so etwas
und dann klappt das eben nicht mehr. Dann bin ich etwas eingeschränkt.
Und all diese Sensoren, die man da braucht für dieses autonome Fahren, der LIDAR, der Radar, die Optik,
die haben alle ihre Vor- und Nachteile und man möchte die Vorteile der Einzelnen,
der einen Vorteil oder der anderen Nachteil, und ich möchte die Vorteile irgendwie miteinander kombinieren.
Und eine andere Möglichkeit, das zu tun, um Objekte zumindest zu erkennen, da ist irgendetwas,
was einem vorausfährt oder was dann unmittelbar umgeben ist, ist der Radar.
Und auch da geben sich dann entsprechende Anforderungen fürs autonome Fahren.
Und man macht das wie folgt, also dass man über eine bestimmte Zeit so eine Frequenzrampe hier startet.
Das ist dieses FMC-V, also das ist mehr oder weniger Frequency Mode Current.
Also ich verändere die Continuous Wave, ich verändere die Frequenz über einen bestimmten Zeitraum.
Und zwar hier kontinuierlich. Und dann werde ich eben das Signal, das zurückkommt, aus.
Und wie macht man das Ganze?
Kurz zeige ich das Ihnen mal nur, ein bisschen ausfülle ich es in der C2, weil es da ganz gut passt.
Und zwar, genau, ja man weiß jetzt natürlich, hier ist noch etwas frei,
ich müsste leider hier raufgehen in der BIMA-Runden nicht gewollt.
Und nebenan war auch der Raum belegt.
Ja, man weiß ja, also so ein Signal, das ich los schicke, das breitet sich dann mit Lichtgeschwindigkeit aus,
elektromagnetische Welle, mehr oder weniger im freien Raum.
Und R ist die Entfernung. Also das R durch C, die Zeit, die das braucht,
um mit Lichtgeschwindigkeit eine Entfernung von R zurückzulegen.
Da muss ich hin und zurück laufen, also kommt der Faktor 2 dazu.
Und jetzt kommt noch eine Besonderheit, die ich hier auswerten kann, das leite ich jetzt hier nicht geometrisch her.
Dann sehe ich nochmal hier diesen Zacken.
Presenters
Zugänglich über
Offener Zugang
Dauer
01:47:27 Min
Aufnahmedatum
2018-02-05
Hochgeladen am
2019-05-01 08:09:02
Sprache
de-DE
-
Organisationsaspekte von CISC und RISC-Prozessoren
-
Behandlung von Hazards in Pipelines
-
Fortgeschrittene Techniken der dynamischen Sprungvorhersage
-
Fortgeschritten Cachetechniken, Cache-Kohärenz
-
Ausnutzen von Cacheeffekten
-
Architekturen von Digitalen Signalprozessoren
-
Architekturen homogener und heterogener Multikern-Prozessoren (Intel Corei7, Nvidia GPUs, Cell BE)
-
Architektur von Parallelrechnern (Clusterrechner, Superrechner)
-
Effiziente Hardware-nahe Programmierung von Mulitkern-Prozessoren (OpenMP, SSE, CUDA, OpenCL)
-
Leistungsmodellierung und -analyse von Multikern-Prozessoren (Roofline-Modell)
- Patterson/Hennessy: Computer Organization und Design
-
Hennessy/Patterson: Computer Architecture - A Quantitative Approach
-
Stallings: Computer Organization and Architecture
-
Märtin: Rechnerarchitekturen