32498.jpg

Texas Instruments

Durchgesetzt haben sich DSPs erstmals in der Audio-, Sprach- und Medienverarbeitung vor etwa zehn bis 15 Jahren. Im letzten Jahrzehnt haben DSPs dann den Grundstein für Fahrerassistenzsysteme gelegt, für die in der Anfangszeit häufig ein Baustein aus der DSP-Familie C5000 von Texas Instruments verwendet wurde. Heute finden sich aufgrund gestiegener Anforderungen fast ausschließlich DSPs der C6000-Architektur in diesen Applikationen.

Das Wachstumspotential für DSPs im Automobil ist beachtlich. Insbesondere komplexe Systeme wie Infotainment und Fahrerassistenz mit hohem Anspruch an Echtzeitverhalten und Multitasking sind auf die Prozessoren angewiesen. Das Infotainment-System integriert heute eine Vielzahl von Anwendungen im Auto:  es stellt die Navigation dar, gleichzeitig laufen eine Radio-Decodierung, eine Audioverarbeitung und ein Telefongespräch, bei dem Geräusche sowie Echos unterdrückt werden, und zusätzlich läuft noch ein Unterhaltungsprogramm für die Passagiere auf den Rücksitzen.

ADAS und Infotainment

Bei Fahrerassistenzsystemen ist ein ähnlicher Trend zu beobachten: immer mehr Funktionen und Sensoren werden in einem Steuergerät (ECU) zusammengefasst, so dass ein einziger Rechner Radar-, Kamera- und Ultraschalldaten auswertet. Selbstverständlich sind diese Systeme heute im Fahrzeug miteinander sowie mit vielen anderen Systemen wie z.B. dem ESP vernetzt. Das erhöht die Komplexität und den Kommunikationsaufwand erheblich.

Die Entwicklung neuer Funktionen im Infotainment- und Fahrerassistenzumfeld wird sich künftig noch beschleunigen, so dass der Bedarf an leistungsfähigen und energieeffizienten DSP-Architekturen weiter steigen wird. Im Infotainment spielt insbesondere das Thema Connectivity eine entscheidende Rolle, um Innovationen des Cloud-Computing ins Fahrzeug bringen zu können.

Damit der Fahrer die zusätzlichen Informationen sicher einsehen kann, dient die Instrumentenanzeige zukünftig als zentrale Anzeigeeinheit. Das heute meist kleine Display in der Mitte des Instrumentenblocks wird sich daher bald auf das komplette Kombi-Instrument ausdehnen. Der Trend zum vollgraphischen Kombi-Instrument ist schon jetzt sichtbar. Die Integration in das Infotainment-System ist nur der nächste logische Schritt, der sich in den nächsten fünf bis zehn Jahren vollziehen dürfte.

Bedienkonzepte

Diese Entwicklung wird außerdem neue Bedienkonzepte hervorbringen, welche die Möglichkeiten hochauflösender Displays nutzen. Natürliche Spracherkennung, Sprachsteuerung sowie Gestenerkennung ergänzen die Systeme. Die Umsetzung dieser Trends stellt neue Herausforderungen an das Infotainment-System. So erfordert die Internetverbindung ein robustes Sicherheitskonzept, um mögliche Hacker-Angriffe aus dem Netz abzuwehren. Die Integration sicherheitskritischer Anwendungen in das Kombi-Instrument erfordert ein SIL-zertifizierbares Gesamtsystem, dem nicht zuletzt die Chiparchitektur gerecht werden muss. Des Weiteren benötigt man eine logische Trennung der Systeme, beispielsweise durch Virtualisierung der Hardware, die es dann ermöglicht mehrere Betriebssysteme auf demselben Prozessor auszuführen.

ADAS in der Headunit

Führt man diesen Gedanken weiter, kann man sich auch die Integration sicherheitskritischer Fahrerassistenzsysteme in die Headunit vorstellen.

Bild 1: Beispiel für einen heterogenen Applikationsprozessor mit integriertem DSP.

Bild 1: Beispiel für einen heterogenen Applikationsprozessor mit integriertem DSP.Texas Instruments

Langfristig führen all diese Integrationsschritte zu einem autonomen Fahrzeug, das mit Hilfe der Navigationsdaten, der Cloud und einigen meist kamerabasierten Sensoren selbständig sein Ziel findet und ansteuert, während gleichzeitig Musik, Videos und andere Dienste für die Unterhaltung der Insassen sorgen.

Bis es soweit ist, werden aber wohl noch mindestens 15 Jahre vergehen – aber nur unter der Voraussetzung, dass die rechtlichen Hürden bis dahin verschwunden sind. Bisher ist zum Beispiel nicht klar, wer bei einem Unfall eines autonom fahrenden Fahrzeugs die Verantwortung trägt.

Leistungsanforderungen steigen immer schneller

Was treibt die Anforderungen für Infotainment- und Fahrerassistenzsysteme und im Speziellen deren Prozessoren und DSPs in der Zukunft? Infotainment-Systeme werden auch künftig von der Unterhaltungselektronik getrieben sein, im Speziellen von Smartphone- und Tablet-Trends. Die Innovationsgeschwindigkeit dieses Marktes wird der Headunit immer mehr Rechen- und Graphikleistung abverlangen. Zusätzlich treibt die Integration mehrerer Funktionen (Headunit, Kombi-Instrument, Fahrerassistenzsysteme) die Anforderungen an die Rechenleistung weiter nach oben.

Immer mehr Rechenleistung heißt im Umkehrschluss aber auch mehr Leistungsaufnahme und Verlustleistung in Form von Wärme! Automobilanwendungen sind durch thermische Gegebenheiten sehr limitiert in ihrer maximalen Leistungsaufnahme, und zusätzliche Kühlung ist teuer. Die Energieeffizienz schlägt sich natürlich auch im Benzinverbrauch, CO2-Ausstoß oder der Reichweite elektrisch betriebener Fahrzeuge nieder. Wie kann man also die Rechenleistung eines Systems bei minimaler Leistungsaufnahme und unter Einhaltung der thermischen Randbedingungen des Gesamtsystems maximieren?

Smart-Multicore-Integration

Ein Ansatz, der wohl am besten geeignet ist, diesen vielen Anforderungen gerecht zu werden, ist die Hochintegration mit leistungsfähigen System-on-Chip-Architekturen, bei denen alle notwendigen Rechenressourcen und Peripherie-Schnittstellen integriert sind. Multicore-Architekturen versprechen immer mehr Rechenleistung. Hier ist allerdings Vorsicht geboten: Bei SMP-Architekturen wissen wir dank Amdahl’s Law, dass der zusätzliche Performance-Gewinn mit jedem addierten Prozessorkern abnimmt, während die Verlustleistungsaufnahme gleichzeitig linear ansteigt. Eine mit den Kernen nicht schritthaltende Speicheranbindung verschärft dieses Problem zusätzlich. Das einfache Addieren von Prozessorkernen in SMP-Architekturen führt somit in eine Sackgasse – und zwar sowohl in punkto Performance-Steigerung als auch in Bezug auf die Energieeffizienz.

Einen Ausweg aus diesem Dilemma bieten heterogene Multicore-Architekturen, wie Texas Instruments sie seit vielen Jahren beispielweise in den Plattformen OMAP und Jacinto einsetzt, bei denen sich verschiedene Prozessorkerne und Hardware-Beschleuniger auf demselben SoC befinden. Das bietet den Vorteil, dass die verschiedenen Anwendungen in einem komplexen System auf die am besten dafür geeigneten Kerne verteilt werden können. Dadurch verbessern sich die Gesamt-Performance, die Energieeffizienz sowie das Echtzeitverhalten des Systems.

Ziel ist es, den Haupt-Applikationsprozessor, auf dem ein HLOS läuft, weitestgehend von echtzeitkritischen und interrupt-lastingen Aufgaben zu befreien, um die Applikations-Performance zu verbessern. Echtzeitkritische Anwendungen wie Audio- und Radioverarbeitung lassen sich auf einem DSP effizienter rechnen als auf einem Standardprozessor. Auch das Management mehrerer angeschlossener Displays, Kameras und großer Videodaten hat Echtzeitanforderungen und erzeugt eine sehr hohe Interrupt-Last auf dem Prozessor. Eigens hierzu integriert TI ein für den Anwender transparentes Subsystem, das diese Aufgaben übernimmt.

Die Integration von leistungsfähigen DSPs kann ihre Stärken beispielsweise bei der Integration von SDR (Software Defined Radio) für AM/FM/DAB+/HD/DRM sowie bei kamera- und radarbasierten Fahrerassistenz-Algorithmen ausspielen, da hier – bei voller Software-Flexibilität – die VLIW-Architektur des DSP ausgenutzt werden kann. Für Standardanwendungen wie zum Beispiel H.264-Videodecoder, ist ein Hardware-Beschleuniger das Mittel der Wahl, da hier aufgrund fehlender Differenzierungsmöglichkeiten wenig Flexibilität erforderlich ist, was die Energieeffizienz optimiert.

Auf einen Blick

DSPs
Digitale Signalprozessoren werden auch künftig im Auto, oft als flexibler Coprozessor eines SoC, Ihre Arbeit verrichten, um die Lücke zwischen steigender Rechenleistung und geringer Leistungsaufnahme zu schließen.