ECK-DATEN

Seitdem die ersten Field Programmable Gate Arrays (FPGAs) 1984 am Markt erschienen, hat sich die Speicherkapazität dieser bemerkenswerten Komponenten um mehr als das 10.000-fache erhöht, und ihre Geschwindigkeit ist um den Faktor 100 gestiegen. Gleichzeitig verringerte sich ihr Energieverbrauch pro Funktionseinheit um mehr als das 10.000-fache. In zwei Jahren, um 2020, werden über 50 Milliarden dieser Bausteine in Maschinen eingesetzt und vernetzt sein, um die steigenden Anforderungen der Endanwender zu erfüllen und ein exponentiell wachsendes Datenaufkommen zu verarbeiten. All das bei geringstmöglichem Leistungsverbrauch.

Seit ihrer Einführung haben die FPGA-Bausteine mehrere distinktive Phasen ihrer Entwicklung durchlaufen. Jede dieser Phasen wurde durch die Fortschritte der Prozesstechnologie getrieben und im gleichen Maß durch die steigenden Anforderungen ihrer Applikation. Dieser zweifache Druck hat die vielen deutlich erkennbaren Änderungen in der Charakteristik der Bausteine und der eingesetzten Tools bewirkt. Die vier Zeitalter der FPGA-Evolution sind: Erfindung, Expansion, Akkumulation, Systeme (SoCs).

Xilinx brachte 1984 die ersten FPGAs heraus. Allerdings wurden sie damals noch nicht FPGAs genannt, bis Actel um 1988 diese Bezeichnung popularisierte. In den folgenden 30 Jahren wuchs die Speicherkapazität der Bausteine, die wir heute FPGAs nennen, um mehr als das 10.000-fache, und ihre Geschwindigkeit nahm um den Faktor 1000 zu. Gleichzeitig sanken die Kosten und der Energieverbrauch pro Funktionseinheit um mehr als das 10.000-fache (Bild 1).

Bild 1: Die funktionalen Eigenschaften von Xilinx-FPGAs bezogen auf 1988. Erkennbar sind die Veränderungen im Preis und in der Leistung um den Faktor 10.000.

Bild 1: Die funktionalen Eigenschaften von Xilinx-FPGAs bezogen auf 1988. Erkennbar sind die Veränderungen im Preis und in der Leistung um den Faktor 10.000. Xilinx

Diese Fortschritte wurden größtenteils durch die Entwicklung der Prozesstechnologie getrieben. Deshalb liegt es nahe, die Evolution der FPGAs als simple Progression ihrer Kapazität zu betrachten, wie sie aus der laufenden Skalierung der Prozesse erwuchs. Doch diese Ansicht ist allzu einfach. Die wirkliche Geschichte ist viel interessanter.

Die Ära der Erfindung der FPGAs 1984 bis 1992

Der erste FPGA-Baustein, der Xilinx XC2064, umfasste nur 64 Logikblöcke. Jeder von ihnen enthielt zwei Look-up-Tabellen (LUT) mit drei Eingängen und ein Register. Nach heutiger Zählweise entspräche das etwa 64 Logikzellen – also weniger als 1000 Gates. Trotz dieser geringen Kapazität war das Die des XC2064 außerordentlich groß – größer als die damaligen Mikroprozessoren – und die dabei eingesetzte 2,5-µm-Prozesstechnologie war kaum in der Lage, den Baustein mit hinreichenden Ausbeuten zu fertigen.

Chipfläche und Kosten pro Funktion waren damals von vitaler Bedeutung. Der XC2064 enthielt zwar nur 64 Flip-Flops, doch er kostete Hunderte von Dollar – weil sein Chip so groß war. Die Ausbeuten für sehr große Die-Formate zeigen einen superlinearen Verlauf. Somit würde eine Vergrößerung der Chipfläche um 5 Prozent die Fertigungskosten verdoppeln und könnte zugleich die Ausbeute auf Null reduzieren. Also hätte Xilinx als eben gegründetes Unternehmen kein marktfähiges Produkt entwickeln können. Kostenbegrenzung war somit nicht nur eine Frage der reinen Optimierung. Es war eine Frage des Überlebens.

Als Konsequenz des Kostendrucks nutzten die FPGA-Entwickler die aktuellen Innovationen der Architektur und der Prozesse, um die Design-Effizienz der FPGAs zu maximieren. SRAM-basierte FPGAs waren zwar reprogrammierbar, doch das On-chip-SRAM beanspruchte den größten Teil der Chipfläche dieser FPGAs. Antifuse-basierte FPGAs eliminierten diesen Nachteil des großen Flächenbedarfs für die SRAM-Speicherung auf dem Chip – unter Verlust der Reprogrammierbarkeit.

Um 1990 war der Actel 1280 auf der Basis der Antifuse-Technik der FPGA-Baustein mit der größten Kapazität. Quicklogic und Crosspoint folgten Actel und entwickelten ebenfalls Antifuse-basierte FPGAs. Im Bestreben, die Effizienz zu steigern, reichten deren Architekturen von komplexen LUT-Strukturen über NAND-Gates bis herab zur Ebene der einzelnen Transistoren.

Im Zeitalter der Erfindung waren die FPGAs sehr viel kleiner als die Applikationen, in denen die Anwender sie einzusetzen gedachten. Als Ergebnis wurden Systeme mit mehreren FPGAs populär und automatisiert. Multi-Chip-Partitioning-Software wurde zu einem wichtigen Element der FPGA-Design-Suite, im Gegensatz zur automatischen Platzierung und Routing. Grundlegend verschiedene FPGA-Architekturen verhinderten den Einsatz universeller Design-Tools. Deshalb übernahmen die FPGA-Anbieter den zusätzlichen Aufwand der EDA-Entwicklung für ihre eigenen Bausteine. Das manuelle Design mit FPGAs, sowohl logisch wie physisch, war wegen der relativ einfachen Problematik akzeptabel. Manuelle Entwicklung und Optimierung waren oft erforderlich, weil die begrenzten Routing-Ressourcen auf den Chips signifikante Herausforderungen der Entwicklung mit sich brachten.

Lesen Sie auf der nächsten Seite: Die Ära der Expansion 1992 bis 1999 und Die Ära der Akkumulation 2000 bis 2007

Seite 1 von 3123