Welche Aktivitäten hat ST bei 77-GHz-Radarchips?

Wir sind beim 77-GHz-Radar mit zwei Technologie-Optionen bereits in der zweiten Generation. Wenn der Kunde eine rein analoge Lösung haben möchte, die aus einem Transmitter und einem Empfänger oder mehreren integrierten Transmittern/Empfängern besteht, dann verwenden wir eine BiCMOS-Technologie. Wenn unser Kunde eine Lösung wünscht, bei der Empfänger, Transmitter und Basisband auf einem Chip integriert sind, dann nutzen wir die Option FD-SOI RF.

Wie sehen die Pläne von ST bei Lidar aus?

Marco Monti, STMicroelectronics: „Wir arbeiten aktuell mit einigen OEMs, um Lidar-Lösungen zu bezahlbaren System­kosten zu ermöglichen.“

Marco Monti, STMicroelectronics: „Wir arbeiten aktuell mit einigen OEMs, um Lidar-Lösungen zu bezahlbaren System­kosten zu ermöglichen.“ Alfred Vollmer

Wir wollen unsere Time-of-Flight-Technologie auch in Applikationen jenseits des Smartphones bringen – und eine dieser Applikationen ist Lidar. Den Namen unseres Kunden können wir nicht nennen, aber bei uns läuft ein großes Lidar-Programm mit einem deutschen Tier-1, mit dem wir bereits an einer Prototypen-Lösung arbeiten. Im Laufe dieses Jahres sollten wir das Silizium haben, und Ende 2019 dann ein Produkt, wobei das Kundensystem dann in 2020 fertig sein wird. Wir arbeiten aktuell mit einigen OEMs, die sehr an unseren Technologien interessiert sind, um Lidar-Lösungen zu bezahlbaren Systemkosten zu ermöglichen.

ST fertigt ja auch den EyeQ-Chip für Mobileye …    

Das ist unser am besten in der Öffentlichkeit bekanntes Kundenprogramm. Mobileye ist dabei für die Architektur verantwortlich, ST für die Integration. Das bedeutet, dass wir für Design und Engineering des physikalischen Designs genauso verantwortlich sind wie für Qualifizierung und Fertigung des Chips. Bei den EyeQ-ICs handelt es sich um Full-Custom-Chips, die ST herstellt, die man aber nur von Mobileye kaufen kann. Wir haben das gleiche Geschäftsmodell mit anderen Kunden und Projekten.

2017 begannen wir mit der Produktion des EyeQ-Chips der vierten Generation, der auf unserer 28-nm-FD-SOI-Plattform basiert. Beim Design von EyeQ5 sind wir bereits in einem sehr weit fortgeschrittenen Stadium, wobei dieser Chip dann in 7-nm-FinFET-Technologie gefertigt wird. Das ist das erste Mal, dass wir gemeinsam mit Intel eine Entwicklung durchführen, nachdem Intel Mobileye übernommen hat. Auch mit den Arbeiten an EyeQ6 haben wir schon begonnen – mit Hinblick auf einen Produktionsbeginn in 2022, immer noch auf FinFET-Basis.

Inwiefern wirkt sich Intel als neuer Eigentümer von Mobileye auf Ihre EyeQ-Aktivitäten aus?

Das Geschäftsmodell ist nach wie vor unverändert, aber es gibt eine Veränderung auf der Produktebene. In den ersten fünf Mobileye-Generationen kam ein MIPS-Core zum Einsatz. Da EyeQ6 das erste, gemeinsam mit Intel entwickelte Design ist, wird es das erste Produkt sein, in dem wir einen Intel-Core verwenden, den Atom.

Wie sehen die nächsten Schritte bei EyeQ aus?

Die stärkste treibende Kraft bei der EyeQ-Familie ist der Kamerasensor. Dann ermöglichte EyeQ4 die Sensorfusion, wobei dieser Prozessor ein Signal vom Radar und vielleicht auch vom Lidar empfängt. EyeQ5 wird noch mehr Sensorfusion ermöglichen, und EyeQ6 wird dem gleichen Konzept folgen.

Treten Sie dabei in direkten Wettbewerb mit Nvidia?

In punkto Applikationsklasse steht Mobileye in Wettbewerb mit Nvidia. Bei ST laufen übrigens zwei weitere Programme mit unterschiedlichem Performance-Level. In einem weiteren wesentlichen Programm, das wir mit einem japanischen Tier-1 haben, entwickeln wir das Design einer ADAS-Applikation für das maschinelle Sehen inklusive Sensorfusion. Der Chip ist in der Lage, eine 360-Grad-Sicht, Vogelperspektive und Front-/Rückkamera-Management etc. zu verarbeiten. Weil der Kamerasensor hier der wichtigste Sensor ist, will unser Kunde einen Prozessor, der in der Lage ist, die proprietäre Kunden-IP für das Videosignal-Management zu integrieren – beispielsweise mit Deep-Learning. Daher stellen wir eine Art offene Plattform mit all den Support-Systemen wie Input, Output, ASIL-D und Multi-Core-Verarbeitung zur Verfügung; das Unternehmen integriert dann auf unserem IC seine Verarbeitung von Videodatenströmen.

Derzeit läuft auch noch ein weiteres Programm, das ich auch bereits kurz zuvor angesprochen habe und dessen Verarbeitungsleistung geringer ist. Dieses Projekt, das wir mit chinesischen Partnern realisiert haben, zielt auf hochvolumige Aftermarket-Anwendungen für den Entry-Level ab. Es kombiniert einen Kamerasensor und einen Prozessor für Basis-ADAS-Funktionalitäten – sowohl für die Frontkamera als auch für die rückwärts gerichtete Kamera. Auch die Implementierung eines Systems zur Kollisionsvermeidung, für LDW und Objekterkennung ist damit möglich. Einige OEMs in China setzen das System bereits ein.

Auf der nächsten Seite sind STs Aktivitäten bei Leistungshalbleitern, Außenlicht und Security Thema.

Seite 2 von 3123