Speichertechnologien: DRAM, NAND und HBM im Überblick
Speichertechnologien entwickeln sich zunehmend zu einem zentralen Faktor moderner Elektroniksysteme. Steigende Datenmengen, KI-Anwendungen und neue Systemarchitekturen verändern sowohl die technischen Anforderungen an DRAM, NAND und HBM als auch die Dynamik des globalen Speichermarktes.
Martin ProbstMartinProbstMartin ProbstOnline-Redakteur
Arbeitsspeicher bildet eine zentrale Ebene der Speicherhierarchie in Computersystemen. Seine Bandbreite, Latenz und Energieeffizienz bestimmen zunehmend die Leistungsfähigkeit datenintensiver Anwendungen.Mentor56 @ AdobeStock
Anzeige
Speichertechnologien als Schlüssel zur Systemleistung
Speichertechnologien sind entscheidend für die Leistungsfähigkeit heutiger elektronischer Systeme. Sie beeinflussen die Geschwindigkeit, Energieeffizienz und Kosten von Rechenzentren, Industrie-PCs und KI-Beschleunigern. Die Leistungsgrenze verschiebt sich zunehmend in Richtung Speicherbandbreite und Latenz.
Die Entwicklung von Speichertechnologien ist das Ergebnis technischer und wirtschaftlicher Faktoren. Exponentiell steigende Datenvolumina und physikalische Grenzen der Halbleitertechnik führen zu einer Transformation auf Bauelemente- und Architekturebene. Speicherhierarchien sind ein Grundprinzip digitaler Systeme und stellen einen Kompromiss zwischen Geschwindigkeit und Dichte dar.
High Bandwidth Memory (HBM) bietet eine Lösung für Bandbreitenengpässe in rechenintensiven Anwendungen. Durch die physikalische Nähe zwischen Logik und Speicher und eine breite Schnittstelle werden hohe Datenraten bei niedrigen Takten erreicht. Die Integration ist jedoch komplex und erfordert fortschrittliche Fertigungstechniken.
Diese Infobox wurde von Labrador AI generiert und von einem Journalisten geprüft.
Speichertechnologien, wie etwa HBM, DRAM, DDR oder SRAM, stehen heute im Zentrum nahezu aller leistungsfähigen elektronischen Systeme. Ob Rechenzentrum, Industrie-PC, Automotive-Controller oder KI-Beschleuniger, die Fähigkeit, große Datenmengen mit hoher Geschwindigkeit und vertretbarem Energieaufwand bereitzustellen, bestimmt maßgeblich die Leistungsfähigkeit des Gesamtsystems. Während sich in der öffentlichen Wahrnehmung vieles um Prozessorarchitekturen und Strukturgrößen dreht, verlagert sich die eigentliche Leistungsgrenze in vielen Anwendungen zunehmend in Richtung Speicherbandbreite, Latenz und Energieeffizienz.
Diese Entwicklung ist kein kurzfristiger Trend, sondern das Ergebnis mehrerer technischer und wirtschaftlicher Faktoren. Zum einen steigen die Datenvolumina exponentiell, etwa durch hochauflösende Sensorik, maschinelles Lernen oder Simulationen. Zum anderen stoßen klassische Skalierungsmechanismen der Halbleitertechnik an physikalische und ökonomische Grenzen. Die Folge ist eine tiefgreifende Transformation sowohl auf Bauelemente als auch auf Architekturebene.
Anzeige
Was ist eine Speicherhierarchie – und warum ist sie unvermeidbar?
Prinzipielle Organisation eines DRAM-Arrays: Speicherzellen sind in Zeilen (Wordlines) und Spalten (Bitlines) angeordnet. Durch das Aktivieren einer Zeile kann auf die gespeicherten Ladungen der einzelnen Zellen zugegriffen werden.By Cyferz at English Wikipedia, CC BY 2.5, https://commons.wikimedia.org/w/index.php?curid=4571172
Digitale Rechensysteme sind grundsätzlich hierarchisch aufgebaut. Direkt im Prozessor befinden sich Register und mehrere Cache-Ebenen, die meist als SRAM realisiert sind. Diese Speicher zeichnen sich durch extrem geringe Zugriffszeiten im Bereich weniger Taktzyklen aus, sind jedoch flächenintensiv und daher in ihrer Kapazität stark begrenzt. Bereits ein L1-Cache benötigt signifikante Siliziumfläche und trägt spürbar zur Verlustleistung des Prozessors bei.
Unterhalb der Cache-Ebene befindet sich der externe Hauptspeicher, typischerweise DRAM. Er bietet deutlich höhere Kapazitäten zu geringeren Kosten pro Bit, allerdings mit höherer Latenz. Noch eine Ebene tiefer folgen nichtflüchtige Speicher wie NAND-Flash oder SSDs, die große Datenmengen persistent speichern können, jedoch mit nochmals höheren Zugriffszeiten arbeiten.
Anzeige
Diese Hierarchie ist Ausdruck eines fundamentalen Zielkonflikts. Geringe Latenz erfordert physikalische Nähe und schnelle Schaltvorgänge, was die Zellfläche erhöht und die Dichte reduziert. Hohe Speicherdichte erfordert kleine Strukturen und komplexe Zellarchitekturen, was wiederum die Zugriffsgeschwindigkeit und die Zuverlässigkeit beeinflusst. Jede Speicherebene ist daher ein Kompromiss zwischen Geschwindigkeit, Energieverbrauch, Integrationsaufwand und Kosten.
Top 10: Diese zehn Unternehmen prägen den globalen Speichermarkt
Die folgende Auswahl basiert nicht ausschließlich auf Umsatz oder Marktanteilen, sondern auf einer Kombination aus technologischer Führungsrolle, Produktionskapazität, strategischer Bedeutung für KI- und Rechenzentrumsanwendungen sowie geopolitischer Relevanz. Der Speichermarkt ist stark konzentriert, innovationsgetrieben und politisch sensibel. Entsprechend dominieren einige wenige Akteure die globale Entwicklung.
Anzeige
10. Everspin Technologies
Everspin steht stellvertretend für den Bereich Emerging Memories. Als einer der wenigen kommerziell erfolgreichen MRAM-Anbieter zeigt das Unternehmen, dass alternative Speichertechnologien Marktrelevanz erreichen können. MRAM findet zunehmend Einsatz in Embedded-Systemen und industriellen Anwendungen, bei denen Nichtflüchtigkeit und hohe Zyklenfestigkeit entscheidend sind. Auch wenn der Umsatz im Vergleich zu DRAM-Giganten gering ist, symbolisiert Everspin die technologische Diversifizierung des Marktes.Everspin
9. Macronix Macronix ist ein führender Anbieter von NOR-Flash und Speziallösungen für Automotive und industrielle Anwendungen. Während NAND und DRAM häufig im Fokus stehen, bleibt NOR-Flash für Code-Speicherung und sicherheitskritische Systeme unverzichtbar. Macronix besetzt damit ein strategisch stabiles Segment mit vergleichsweise geringerer Volatilität.Timon @ AdobeStock
8. Winbond Winbond ist vor allem im Bereich Spezial-DRAM und NOR-Flash aktiv und stark im Embedded- und Automotive-Umfeld vertreten. Das Unternehmen profitiert von Anwendungen mit langen Produktlebenszyklen und hohen Zuverlässigkeitsanforderungen. In Märkten wie Industrieelektronik oder Automobil ist Winbond ein wichtiger Akteur, auch wenn die absoluten Stückzahlen unterhalb der großen DRAM-Hersteller liegen.Winbond
7. Nanya Technology Nanya ist ein bedeutender taiwanesischer DRAM-Anbieter mit Fokus auf Spezial- und Nischenmärkte. Zwar erreicht das Unternehmen nicht die Skalierung der drei Marktführer, spielt jedoch in bestimmten Segmenten eine wichtige Rolle. Die starke Konzentration von Speicherfertigung in Taiwan verleiht Unternehmen wie Nanya zusätzliche geopolitische Relevanz.Nanya
6. YMTC Yangtze Memory Technologies ist Chinas bedeutendster NAND-Hersteller. Trotz technologischer Fortschritte unterliegt das Unternehmen Exportrestriktionen, insbesondere im Hinblick auf fortgeschrittene Fertigungstechnologien. YMTC steht exemplarisch für die geopolitische Dimension des Speichermarktes. Der Aufbau einer eigenständigen chinesischen Speicherindustrie ist industriepolitisch erklärtes Ziel und beeinflusst globale Wettbewerbsstrukturen.Koshiro K @ AdobeStock
5. Western Digital Western Digital agiert im NAND-Bereich sowohl als Technologiepartner als auch als Systemanbieter mit starker SSD-Kompetenz. Die Kombination aus Flash-Produktion und Systemintegration verschafft dem Unternehmen eine besondere Marktstellung. Strategisch relevant ist die mögliche Neuausrichtung oder Abspaltung einzelner Geschäftsbereiche, die Auswirkungen auf die Marktstruktur haben könnte.Western Digital
4. Kioxia Kioxia, ehemals Toshiba Memory, ist einer der zentralen Akteure im NAND-Segment. In enger Kooperation mit Western Digital betreibt das Unternehmen hochmoderne 3D-NAND-Fabs. Die technologische Weiterentwicklung in Richtung sehr hoher Layerzahlen ist kapitalintensiv und komplex. Kioxia steht exemplarisch für die zunehmende Konsolidierung und Kooperationsnotwendigkeit im Flash-Markt.Tomasz @ AdobeStock
3. Micron Technology Micron ist der einzige große US-amerikanische DRAM-Hersteller und damit industriepolitisch von besonderer Bedeutung. Das Unternehmen investiert massiv in neue Fertigungskapazitäten in Nordamerika. Technologisch verfolgt Micron ambitionierte Roadmaps bei DRAM und 3D-NAND und positioniert sich zunehmend auch im HBM-Markt. Für westliche Rechenzentrumsbetreiber und Regierungsprogramme ist Micron ein strategisch wichtiger Lieferant.Ascannio @ AdobeStock
2. SK hynix SK hynix hat sich in den vergangenen Jahren als technologischer Taktgeber im HBM-Segment positioniert. Das Unternehmen war frühzeitig mit HBM3 am Markt präsent und zählt zu den wichtigsten Lieferanten für KI-GPU-Hersteller. Die Übernahme des NAND-Geschäfts von Intel stärkte zusätzlich die Position im Flash-Segment. Strategisch profitiert SK hynix stark vom KI-Boom, ist jedoch zugleich eng in globale Lieferketten eingebunden, die von Exportkontrollen und Handelskonflikten beeinflusst werden.Beautiful Korea @ AdobeStock
1. Samsung Electronics Samsung ist sowohl bei DRAM als auch bei NAND weltweit führend und verfügt über eine außergewöhnlich hohe vertikale Integration. Das Unternehmen deckt die gesamte Wertschöpfung vom Wafer über das Packaging bis hin zu kompletten SSD-Lösungen ab. Besonders strategisch ist der Ausbau der HBM-Kapazitäten für KI-Beschleuniger. Gleichzeitig investiert Samsung massiv in neue Fertigungsstandorte außerhalb Südkoreas, um geopolitische Risiken zu diversifizieren. Technologisch treibt das Unternehmen sowohl fortgeschrittene DRAM-Nodes als auch hochlagiges 3D-NAND voran.Samsung
Diese Top 10 verdeutlicht die Struktur des Speichermarktes. Wenige Großkonzerne dominieren DRAM und NAND, während Spezialanbieter und Emerging-Memory-Unternehmen gezielt Nischen besetzen. Der KI-Boom verschiebt Investitionen in Richtung HBM und Hochleistungs-DRAM. Gleichzeitig beeinflussen geopolitische Spannungen, Exportkontrollen und nationale Förderprogramme strategische Entscheidungen.
Der Speichermarkt ist damit nicht nur technologisch anspruchsvoll, sondern auch wirtschaftlich und politisch hochsensibel. Wer Systeme entwickelt, beschafft oder strategisch plant, muss diese Gemengelage berücksichtigen. Speicher ist längst nicht mehr bloß ein Bauteil, sondern ein industriepolitischer Faktor mit globaler Tragweite.
DDR5 & Co.: Woher kommen höhere Datenraten und was bleibt langsam?
Querschnitt einer DRAM-Speicherzelle: Ein Transistor steuert den Zugriff auf einen Kondensator, in dem die Information als elektrische Ladung gespeichert wird. Aufgrund unvermeidlicher Leckströme muss diese Ladung regelmäßig durch Refresh-Zyklen erneuert werden.By Cepheiden - Own work (Original text: selbstgezeichnet), CC BY-SA 2.0 de, https://commons.wikimedia.org/w/index.php?curid=7423130
Dynamic Random Access Memory bildet seit Jahrzehnten das Rückgrat des Arbeitsspeichers. Die klassische DRAM-Zelle besteht aus einem Transistor und einem Kondensator. Die Information wird als elektrische Ladung im Kondensator gespeichert. Aufgrund unvermeidlicher Leckströme muss diese Ladung in regelmäßigen Abständen aufgefrischt werden, was den charakteristischen Refresh-Zyklus von DRAM-Systemen erklärt.
Mit jeder Technologiegeneration wurden die Strukturgrößen reduziert, die Zellkapazität optimiert und die Datenraten gesteigert. Aktuelle DDR5-Speicher erreichen sehr hohe Transferraten durch verbesserte Prefetch-Mechanismen, größere Bankanzahlen und optimierte Signalführung. Dennoch wächst die Diskrepanz zwischen steigender Prozessorleistung und Speicherlatenz. Die absolute Latenz hat sich über mehrere Generationen hinweg nur moderat reduziert, während die Rechenleistung pro Takt deutlich zugenommen hat.
Anzeige
Row Hammer, Refresh, Leckströme: Welche Stabilitätsprobleme entstehen?
Mit sinkenden Strukturgrößen nehmen Variabilitätseffekte zu. Die Kapazität einzelner Speicherzellen wird kleiner, wodurch Störungen durch benachbarte Zellen stärker ins Gewicht fallen. Der als Row Hammer bekannte Effekt ist ein Beispiel dafür. Wiederholtes Aktivieren einer bestimmten Speicherzeile kann elektrische Störungen in benachbarten Zeilen auslösen und dort Bitfehler verursachen. Solche Effekte erfordern aufwendige Gegenmaßnahmen auf Controller- und Protokollebene.
Hinzu kommt die Herausforderung der Leckströme. Dünnere Gate-Oxide und kleinere Strukturen führen zu erhöhtem Tunneln von Ladungsträgern. Dies beeinflusst die Retentionszeit der gespeicherten Information und erhöht den Aufwand für Refresh-Operationen. Gleichzeitig steigt der Energiebedarf pro Speicherzugriff, da höhere Taktraten und komplexere Signalintegritätssicherungen erforderlich sind.
Die Weiterentwicklung von DRAM konzentriert sich daher nicht ausschließlich auf lithografische Skalierung, sondern zunehmend auf architektonische Verbesserungen. Dazu gehören optimierte Bankgruppenstrukturen, parallele Aktivierung von Subarrays und adaptive Refresh-Strategien. Die Speicherzelle selbst nähert sich physikalischen Grenzen, während die Systemarchitektur Spielraum für Effizienzsteigerungen bietet.
High Bandwidth Memory als Antwort auf Bandbreitenengpässe
In rechenintensiven Anwendungen wie dem Training neuronaler Netze wird deutlich, dass nicht allein die Rechenleistung limitiert, sondern vor allem die Fähigkeit, Daten schnell genug bereitzustellen. High Bandwidth Memory verfolgt einen grundlegend anderen Ansatz als konventionelles DDR-DRAM. Anstatt die Taktfrequenz weiter zu erhöhen, wird die physikalische Nähe zwischen Logik und Speicher maximiert und die Interface-Breite drastisch vergrößert.
Anzeige
Prinzipaufbau eines High-Bandwidth-Memory-Systems: Mehrere vertikal gestapelte DRAM-Dies sind über Through-Silicon-Vias (TSV) verbunden und kommunizieren über einen Silizium-Interposer mit dem Prozessor.By Shmuel Csaba Otto Traian, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=46385502
HBM besteht aus mehreren vertikal gestapelten DRAM-Dies, die durch Through-Silicon-Vias elektrisch verbunden sind. Diese Stapel werden auf einem Interposer neben dem Prozessor oder Beschleuniger platziert. Durch die extrem breite Schnittstelle mit mehreren tausend Signalleitungen können enorme Datenraten bei vergleichsweise niedrigen Takten erzielt werden. Dies reduziert die Energie pro übertragenem Bit und verbessert die Gesamteffizienz des Systems.
Die Integration ist jedoch komplex. Die Herstellung der TSVs erfordert präzise Tiefenätzprozesse und zuverlässige Metallisierung über mehrere Siliziumebenen hinweg. Zudem entstehen thermische Herausforderungen, da Logik und Speicher räumlich eng gekoppelt sind. Die Wärmeabfuhr muss so gestaltet sein, dass weder der Prozessor noch die Speicherdies thermisch überlastet werden. Packaging und Kühlkonzepte werden damit zu entscheidenden Innovationsfeldern.
HBM verschiebt die Systemgrenze deutlich, ist jedoch kostenintensiv und vor allem in Hochleistungsanwendungen wirtschaftlich sinnvoll. Für viele Embedded- oder Industrieanwendungen bleibt klassisches DDR-DRAM weiterhin die bevorzugte Lösung.
Nichtflüchtige Speicher haben sich in den vergangenen Jahren grundlegend gewandelt. Planare NAND-Strukturen stießen bei sehr kleinen Strukturgrößen auf fundamentale Probleme hinsichtlich Ladungsspeicherung und Störanfälligkeit. Die Industrie reagierte mit dem Übergang zu 3D-NAND. Hier werden Speicherzellen in vertikaler Richtung gestapelt, wodurch die Dichte erhöht werden kann, ohne die laterale Strukturgröße weiter drastisch zu reduzieren.
Diese vertikale Architektur erfordert hochpräzise Fertigungsprozesse. Tiefe Kanäle müssen durch zahlreiche Schichten geätzt und anschließend gleichmäßig mit leitfähigen und isolierenden Materialien beschichtet werden. Die Gleichmäßigkeit über Hunderte von Schichten hinweg ist entscheidend für die Zuverlässigkeit jeder einzelnen Speicherzelle.
Parallel dazu wird die Informationsdichte pro Zelle erhöht. Durch Mehrfachpegelkodierung können mehrere Bit in einer Zelle gespeichert werden. Dies erfordert jedoch eine sehr präzise Kontrolle der Ladungszustände. Kleine Variationen durch Temperatur, Alterung oder elektrische Störungen können die Fehlerrate signifikant erhöhen. Leistungsfähige Fehlerkorrekturverfahren sind daher integraler Bestandteil jeder NAND-Lösung. Der Speichercontroller übernimmt Aufgaben wie Wear Leveling, Bad Block Management und adaptive Spannungsanpassung. Die eigentliche Innovationsleistung verlagert sich damit teilweise vom Silizium in die Firmware und Systemarchitektur.
Anders als in kurzlebigen Konsumgütermärkten stehen hier Langzeitverfügbarkeit und Zuverlässigkeit im Vordergrund. Speicherbausteine müssen über viele Jahre hinweg lieferbar sein und in einem weiten Temperaturbereich stabil arbeiten. Elektromigration, thermische Zyklen und mechanische Belastungen durch Vibration stellen zusätzliche Anforderungen an Packaging und Materialauswahl. Die Qualifikation nach Automotive-Standards erfordert umfangreiche Tests und konservative Designentscheidungen.
Abgekürzt: Was das heißt
DDR5 (Double Data Rate 5) – aktuelle DRAM-Generation mit höherer Bandbreite, mehr Parallelität und verbesserter Effizienz.
DRAM (Dynamic Random Access Memory) – flüchtiger Hauptspeicher, dessen Zellen regelmäßig aufgefrischt werden müssen.
HBM (High Bandwidth Memory) – gestapelter Hochleistungsspeicher mit sehr breiter Schnittstelle und hoher Datenrate, vor allem für KI- und HPC-Anwendungen.
HPC (High Performance Computing) – Hochleistungsrechnen, etwa in Supercomputern, Simulationen oder KI-Trainingssystemen.
L1-Cache (Level-1-Cache) – kleinste und schnellste Cache-Ebene direkt am Prozessorkern.
NAND (Not AND) – Flash-Speicherarchitektur für nichtflüchtige Massenspeicher wie SSDs.
SRAM (Static Random Access Memory) – sehr schneller flüchtiger Speicher ohne Refresh, typischerweise für Cache-Speicher.
SSD (Solid State Drive – nichtflüchtiger Massenspeicher auf Basis von Flash-Speicher.
TSV (Through-Silicon Via) – senkrechte elektrische Verbindung durch Silizium für 3D-Integration, etwa bei HBM.
OTA (Over-the-Air) – drahtlose Aktualisierung von Software, etwa im Fahrzeug.
Energieverbrauch und Datenbewegung als zentrale Herausforderung
Mit zunehmender Datenmenge wird der Energieaufwand für Datenbewegung zum dominierenden Faktor. In vielen Rechenzentren entfällt ein erheblicher Anteil der Gesamtleistung auf Speicherzugriffe und Datenübertragung zwischen Prozessor und Speicher. Die Energie pro Bit wird damit zur entscheidenden Kenngröße.
Architekturansätze wie Near Memory Computing oder In Memory Processing versuchen, Rechenoperationen näher an die Speicherzelle zu bringen. Dadurch kann der Datenverkehr reduziert werden. Gleichzeitig ermöglichen dreidimensionale Integrationskonzepte kürzere Leitungswege und geringere parasitäre Effekte. Die Optimierung der Energieeffizienz ist nicht nur eine Frage der Kosten, sondern zunehmend auch eine regulatorische und gesellschaftliche Herausforderung.
Alternative Konzepte wie magnetoresistive oder resistive Speicher versprechen Nichtflüchtigkeit bei gleichzeitig hoher Geschwindigkeit. Ihre physikalischen Prinzipien unterscheiden sich grundlegend von ladungsbasierten Speichern. Magnetische Zustände oder Widerstandsänderungen bieten potenziell höhere Robustheit gegenüber Leckströmen. Dennoch stehen auch diese Technologien vor Herausforderungen hinsichtlich Skalierbarkeit, Integration in bestehende Fertigungsprozesse und Kostenstruktur.
Langfristig könnte sich die klassische Speicherhierarchie verändern. Wenn nichtflüchtige Speicher Geschwindigkeiten erreichen, die mit DRAM vergleichbar sind, verschwimmt die Grenze zwischen Arbeitsspeicher und persistentem Speicher. Dies hätte tiefgreifende Auswirkungen auf Betriebssysteme, Datenbankarchitekturen und Systemdesign.
Speicher werden zur strategischen Schlüsseltechnologie
Speicherchips sind längst mehr als passive Datenspeicher. Sie bestimmen maßgeblich die Leistungsfähigkeit, Energieeffizienz und Wirtschaftlichkeit elektronischer Systeme. Physikalische Skalierungsgrenzen erzwingen neue Integrationskonzepte, während datenintensive Anwendungen die Bandbreitenanforderungen kontinuierlich erhöhen. Die Weiterentwicklung erfolgt daher nicht nur auf Zellebene, sondern zunehmend durch Architekturinnovation, Packaging-Technologien und intelligente Controllerkonzepte.
Die zentrale Herausforderung besteht darin, Geschwindigkeit, Dichte, Energieeffizienz und Zuverlässigkeit in Einklang zu bringen. Speicher ist damit zu einer strategischen Kerntechnologie geworden, deren Bedeutung in den kommenden Jahren weiter zunehmen wird.
FAQ: Das Wichtigste zu Speicher-Chips
1) Warum steigt die Speicherlatenz nicht im gleichen Tempo wie die Rechenleistung?
Weil Zugriffe physikalisch durch Zellarchitektur, Signalwege und Refresh/Timing-Restriktionen begrenzt sind. Bandbreite wächst leichter als absolute Zugriffszeit.
2) Wofür ist HBM besser als DDR-DRAM?
HBM liefert sehr hohe Bandbreite bei guter Energieeffizienz, weil Speicher dicht am Beschleuniger sitzt und das Interface extrem breit ist.
3) Warum ist 3D-NAND notwendig geworden?
Planare NAND-Skalierung wurde zu störanfällig. Vertikale Stapelung erhöht Dichte, ohne die laterale Strukturgröße endlos zu verkleinern.
4) Was bedeutet Row Hammer bei DRAM?
Häufiges Aktivieren einer Zeile kann benachbarte Zeilen elektrisch stören und Bitfehler auslösen. Gegenmaßnahmen erfolgen über Controller, Refresh- und Schutzmechanismen.
5) Warum wird Datenbewegung zum Energieproblem?
Das Verschieben großer Datenmengen zwischen Prozessor und Speicher kostet viel Energie; deshalb werden Near-Memory-Ansätze und 3D-Integration wichtiger.