Die Ära der Expansion: 1992 bis 1999

Die FPGA-Startups operierten als Fabless-Hersteller – für die damalige Zeit eine Novität. Doch als Fabless-Anbieter hatten sie bis in die frühen 90er Jahre kaum Zugriff auf die führenden Silizium-Technologien. Damit lagen die FPGAs am Beginn des Zeitalters ihrer Expansion auf der IC-Prozesskurve weit zurück. Doch im Verlauf dieser Dekade erkannten die IC-Foundries allmählich, dass die FPGAs ideale Prozesstreiber darstellten und die Evolution der Technologien beschleunigten.

Die Foundries waren nun in der Lage, SRAM-basierte FPGAs zu bauen, sobald sie in einer jeweils neuen Prozesstechnologie genügend hohe Ausbeuten an Transistoren und deren Verdrahtung erzielen konnten. Mit jeder neuen Prozessgeneration verdoppelte sich die Zahl der Transistoren auf den größten verfügbaren FPGAs. Das halbierte die Kosten pro Funktion und verdoppelte die Größe der Bausteine. Chemisch-mechanisches Polieren (CMP) ermöglichte den Foundries das Stacking von mehr metallischen Layern auf einem IC. Und das erlaubte den FPGA-Anbietern die aggressive Vergrößerung des On-chip-Interconnects zur Unterbringung der höheren LUT-Kapazitäten. Diese Entwicklung verdeutlicht Bild 2.

Bild 2: Die Zunahme der FPGA LUTs und der Anschlusspfade über die Zeit. Die Anschlusslänge ist ausgedrückt in Millionen von Transistor-Pitches.

Bild 2: Die Zunahme der FPGA LUTs und der Anschlusspfade über die Zeit. Die Anschlusslänge ist ausgedrückt in Millionen von Transistor-Pitches. Xilinx

Die Chipfläche war in dieser Phase nicht mehr so kostbar, wie sie im Zeitalter der Erfindung der FPGAs gewesen war. Sie ließ sich nun eintauschen gegen Performance, Funktionalität und Einfachheit im Einsatz. Größere FPGA-basierte Designs erforderten Synthese-Tools mit automatischem Placement und Routing. Zum Ende der 1990er Jahre wurden automatisierte Synthese, Platzierung und Routing zu notwendigen Schritte im Design-Prozess. Das Überleben eines FPGA-Herstellers hing nun ebenso von den Fähigkeiten seiner EDA-Tools ab wie von den Fähigkeiten seiner FPGAs.

Die wichtigste unter allen diesen Bedingungen: Der einfachste Weg zur Verdoppelung der Kapazität und zur Halbierung der Kosten für die On-chip-FPGA-Logik war die rechtzeitige Erschließung des jeweils nächsten Node der Prozesstechnologie. Somit lag ein außerordentlicher Wert im frühen Zugang zu den neuen Nodes. SRAM-basierte FPGAs realisierten in dieser Zeit einen signifikanten Produktvorteil. Denn sie waren die ersten, die jeden neuen Node aufgriffen: SRAM-basierte Bausteine konnten die neueren, dichteren Prozesse sofort einsetzen. Hingegen brauchte es zusätzliche Monate oder Jahre, die Antifuse-Technik für neue Nodes zu qualifizieren. Somit verloren die Antifuse-basierten FPGAs ihren Wettbewerbsvorsprung. Architektur-Innovationen waren nun weniger wichtig als die Migration der Prozesse in Richtung höherer Geschwindigkeiten und von Kostenvorteilen.

Die Ära der Akkumulation: 2000 bis 2007

Zu Beginn des neuen Millenniums waren die FPGAs weithin eingesetzte Bausteine in digitalen Systemen. Kapazität und Designumfang wuchsen schnell und die FPGAs fanden einen riesigen Markt in der Datenkommunikation. Der Dotcom-Crash nach 2000 löste allerdings eine desperate Suche nach niedrigeren Fertigungskosten aus – was viele eher beiläufige ASIC-Anwender eliminierte. Kundenspezifische Silizium-Entwicklungen waren viel zu riskant für die Erfolgsaussichten kleinerer Entwickler-Teams. Wenn diese feststellten, dass sie ihre Anwendungen problemlos in ein FPGA verlagern konnten, wurden sie sofort überzeugte FPGA-Anhänger.

Die FPGAs boten nun mehr Platz als der typische Problemumfang ihrer Anwendungen und die gesteigerte Kapazität allein reichte nicht für ein garantiertes Marktwachstum aus. Die FPGA-Hersteller gingen diese Herausforderung auf zwei Wegen an. Am unteren Ende des Marktes fokussierten sie verstärkt auf die Effizienz und auf Produktfamilien mit geringerer Kapazität und geringerer Performance. Beispiele dafür sind „Low-Cost”-FPGAs wie die Spartan FPGA-Familien von Xilinx. Im High-End des Marktes arbeiteten die FPGA-Anbieter intensiv daran, den Anwendern das Füllen der größten FPGAs zu erleichtern, indem sie Soft-Logik-Bibliotheken (IP) für wichtige Funktionen schufen. Die bekanntesten dieser Soft-Logik-Funktionen waren Speicher-Controller, diverse Kommunikations-Steuerblöcke einschließlich Ethernet MACs und sogar Soft-Mikroprozessoren wie der Microblaze-Prozessor von Xilinx.

Meilensteine der FPGA-Entwicklung

  • Xilinx führte 1984 die ersten FPGAs ein.
  • Die Bezeichnung FPGA wird 1988 popularisiert.
  • Die Ära der Erfindung: 1984 bis 1992
  • Die Ära der Expansion: 1992 bis 1999
  • Die Ära der Akkumulation: 2000 bis 2007
  • Die Ära des SoCs: 2008 bis 2017
  • Die Ära der adaptiven Rechner-Beschleunigung (ACAP): ab 2018

Nach 2000 änderte sich die Design-Charakteristik. Die großen FPGAs konnten nun sehr umfangreiche Designs aufnehmen, die komplette Subsysteme darstellten. Die FPGA-Anwender befassten sich nicht länger nur mit der Implementierung von Logik. Sie mussten ihre FPGA-Designs auf System-Standards ausrichten. Diese Standards waren primär Kommunikations-Standards für Signaling und Protokoll, mit Schnittstellen für externe Komponenten oder zwischen internen Blöcken. Die Verarbeitungsstandards adressierten vor allem die wachsende Rolle der FPGAs in rechenintensiven Applikationen. Zum Ende des Zeitalters der Akkumulation waren die FPGAs nicht mehr nur Arrays von Gates. Sie umfassten große Gruppen komplexer Funktionen, die mit der programmierten Logik integriert waren. Damit wurden sie zum System.

Thema auf der nächsten Seite: Die Ära des SoCs und die Ära der Rechner-Beschleunigung.

Seite 2 von 3123