Edge-Server sind nicht nur einfache Schnittstellen zwischen OT und IT, sondern übernehmen ähnlich anspruchsvolle Aufgabenbereiche wie ein kleines Rechenzentrum.

Edge-Server sind nicht nur einfache Schnittstellen zwischen OT und IT, sondern übernehmen ähnlich anspruchsvolle Aufgabenbereiche wie ein kleines Rechenzentrum. (Bild: AdobeStock 376444497, Andrew Derr)

Leistungsstarke Server-Prozessoren kommen inzwischen nicht mehr allein in den Clustern der Hyperscaler, den Datacentern von Großunternehmen oder im High Performance Computing (HPC), sondern auch immer häufiger in Edge-Servern und Networking-Applikationen am Netzwerkrand zum Einsatz. Stark ansteigende Rohdatenmengen, kurze Reaktionszeiten für taktiles Internet mit Echtzeitanforderungen sowie umfangreiche Vernetzungsmöglichkeiten und hohe Bandbreiten verlangen nach Edge-Systemen mit umfassender Konnektivität und hoher Teraflop-Performance, die zudem auf die speziellen Anforderungen vor Ort angepasst werden müssen.

Durch Weiterentwicklungen in der Zen-Mikroarchitektur der neuen EPYC-7003-Prozessoren konnten Leistungsspielraum und Sicherheit für hoch-performante Server- und Networking Applikationen verbessert werden. Wie schon die vorherigen EPYC-Prozessorserien nutzen auch EPYC-7003-CPUs die 7-nm-Technologie und behalten das grundlegende SoC-Design mit acht CCDs im Multi Chip Modul bei. Sie sind mit einer erweiterten Verfügbarkeit von bis zu fünf Jahren geplant.

Die Anwendungsfälle reichen von der Steuerung industrieller Produktionsstraßen in smarten Fabriken mit vorausschauender Wartung (Predictive Maintenance), digitaler Qualitätssicherung und digitalen Zwillingen für Industrie 4.0 über KI-basierte Steuerungen in Smart Cities oder im Smart-Transport-Bereich bis hin zu 5G-Basisstationen.

Hohe Rechenleistung am Edge gefordert

In all diesen Bereichen fallen große Datenmengen an, die mit möglichst geringer Latenz und zumeist in Echtzeit verarbeitet werden müssen. Das verlangt nach hoher Rechenleistung am Entstehungsort der Daten. Denn es würde zu viel Zeit in Anspruch nehmen, die anfallenden Rohdaten zunächst in die Cloud zu schicken, dort zu verarbeiten und das Ergebnis wieder zurückzusenden. Hinzu kommt, dass an abgelegenen Betriebsstandorten ausreichend schnelle Breitbandverbindungen in die Cloud häufig gar nicht realisierbar sind. Auch ist eine zuverlässige 24/7-Konnektivität in die Cloud nicht unbedingt gewährleistet. Eine wichtige Rolle spielen außerdem oft erhöhte Datenschutzanforderungen und die Vermeidung von Angriffs- oder Sabotagemöglichkeiten, so dass lange Transportwege von sensiblen Rohdaten in die Cloud möglichst vermieden werden.

Edge-Server sind folglich nicht nur einfache Schnittstellen zwischen OT und IT, sondern übernehmen ähnlich anspruchsvolle Aufgabenbereiche wie ein kleines Rechenzentrum. Sie erweitern damit die klassische Cloud-Infrastruktur, indem durch sie Rechenleistung in die Randbereiche der Netzwerke verlagert werden kann – weg von den zentral angelegten Rechenzentren hin zu Distributed Clouds, Edge Clouds und schließlich zu den leistungsfähigen Edge-Servern, als letzten mit dem IT-WAN verbundene Mini-Rechenzentren.

Embedded Support für Edge-Server-CPUs

Für den weiteren Ausbau der Infrastrukturen im Edge-Bereich sind folglich Server-Prozessoren gefragt, die unterschiedliche Anwendungsfälle vor Ort über flexible Leistungsklassen abbilden. Neben hoher Konnektivität, Floating-Point-Performance (Flops) und großzügigem Speichermanagement für Virtualisierungen sind zudem erweiterte Sicherheitsfeatures und die Option auf Embedded Support mit Langzeitverfügbarkeit gefragt. OEMs, die entsprechende Edge-Server-Technik bereitstellen, benötigen hierzu eine langfristige, zuverlässige Strategie und einen stabilen, industrietauglichen Support für ihre Systeme.

Mit den Epyc-Embedded-Prozessoren der Serien 3000, 7001 und 7002 können OEMs und Entwickler bereits auf ein breites, fein abgestuftes Angebot für viele Anwendungsfälle zurückgreifen.

Eine noch größere Leistungsstärke weisen die Epyc-7003er-CPUs mit dem Codenamen Milan auf. Der Epyc 7763 ist nach Unternehmensangaben aktuell der weltweit leistungsstärkste Serverprozessor, was unter anderem die veröffentlichten Server-CPU-Benchmarks der SPEC-Organisation bestätigen.

Höhere Core-Leistung durch Zen-3-Design

Mit der Epyc-7003er-Serie stehen die neuen Zen-3-Cores für Server-CPUs zur Verfügung, die wie schon der Vorgänger EPYC 7002 die energieeffiziente 7-nm-Technologie nutzen und das grundlegende SoC-Design mit acht CCDs im Multi Chip Modul beibehält. Durch das Design der Zen-3-Cores erhöht sich die IPC-Rate (Instructions per Cycle) um 19 Prozent, so dass eine Epyc-7003er-CPU mehr Befehle je Taktzyklus ausführen kann als eine vergleichbare Zen-2-CPU der Epyc-7002er-Serie. Somit wird auch die verfügbare CPU-Leistung für anspruchsvolle Anwendungen und Berechnungen im Edge-Server gesteigert.

Wie die Rome-Modelle unterstützen auch Zen-3-Cores das Simultane Multi-Threading (SMT) mit bis zu zwei Threads je Core, so dass ein Prozessor mit maximal 64 Cores bis zu 128 Threads parallel verarbeiten kann. Dabei ist die Anzahl der je Taktzyklus möglichen Sprungvorhersagen (Branch Predicting) eines Zen-3-Cores angehoben und ebenso die durch fehlerhafte Sprungvorhersagen resultierenden Latenzen herabgesetzt. Zudem wurde der Durchsatz an Integer-Rechenoperationen gesteigert, so dass je Taktzyklus nun zehn statt sieben Operationen möglich sind.

Besseres Cache-Management für VMs

Auch im L3-Cache der Epyc-Gen-3-Prozessoren wurden Verbesserungen vorgenommen. Mit bis zu 256 MByte je CPU bieten die Zen-3-Prozessoren zwar unterm Strich den gleichen Gesamt-L3-Cache wie die Zen-2-Vorgängergeneration, doch ist das L3-Cache-Sharing zwischen den Cores flexibler gelöst. Wie bei allen Zen-basierten AMD-Prozessoren hat innerhalb eines Core Complex (CCX) jeder Core Zugriff auf den CCX eigenen L3-Cache. Bei Bedarf steht damit also einem Core der gesamte L3-Cache des CCX zur Verfügung. Bei den Vorgängern wurden vier Zen-Cores in einem CCX zusammengefasst. Bei den Ryzen-7003-Prozessoren enthält ein CCX nun 8 Cores. Dadurch verdoppelt sich auch der L3-Cache pro CCX von 16 MByte auf 32 MByte. Ist eine hohe Single-Thread Leistung für einen Core gefragt, kann dieser nun bis zu 32 MByte an Cache für sich nutzen.

Durch das verbesserte Cache-Sharing können zudem noch größere Datenblöcke direkt in den L3-Cache geladen werden. Hinzu kommen Verbesserungen bei den Richtlinien für Cache-Fetching und Cache-Auslagerung. All diese Vorteile führen zu einer Verringerung der effektiven Speicherlatenz, zu einer verbesserten Programmleistung aufgrund von größeren Datensätzen und generell zu einer verbesserten Leistung, auch beim Einsatz von großen speicherhungrigen VMs.

Verbindung der Chiplets durch Interconnect Infinity Fabric

Weiterhin sind bis zu acht Zen-Cores zu einem Chiplet, auch Core Complex Die (CCD, Bild 1) genannt, zusammengefasst.

Bild 1: Im Core Complex Die (CCD) der Epyc-7003-Serie können sich acht Cores flexibel 32 MByte L3-Cache teilen. Der CCD bei Zen 2 ist hingegen in zwei CCX zu je vier Cores mit je 16 MByte L3-Cache separiert.
Bild 1: Im Core Complex Die (CCD) der Epyc-7003-Serie können sich acht Cores flexibel 32 MByte L3-Cache teilen. Der CCD bei Zen 2 ist hingegen in zwei CCX zu je vier Cores mit je 16 MByte L3-Cache separiert. (Bild: AMD)

Verbunden werden die Chiplets untereinander mit der Interconnect Infinity Fabric. Sie verbindet die in CCDs organisierten CPU-Cores mit dem Speichercontroller sowie den I/O- und Systemhubs auf dem System-on-Chip. Im Dual-Socket-Betrieb sorgt sie außerdem auch für die Kommunikation zwischen den CPUs. Also ist der bandbreitenstarke Interconnect zusammen mit der modularen CPU-Architektur auch verantwortlich für die hohe Sklaierbarkeit der Prozessoren mit Zen-Microarchitektur.

Seit der Zen-2-Generation ist der I/O-Die (IOD, Bild 2) bei der Infinity Fabric zentral auf dem SoC verbracht.

Bild 2: Der I/O Die eines  Epyc-7003-Prozessors koppelt über Infinity Fabric Links acht Core Complex Dies und verbindet diese außerdem mit bis zu acht DDR4-Speicherkanälen und bis zu 8×16 PCIe-Lanes.
Bild 2: Der I/O Die eines Epyc-7003-Prozessors koppelt über Infinity Fabric Links acht Core Complex Dies und verbindet diese außerdem mit bis zu acht DDR4-Speicherkanälen und bis zu 8×16 PCIe-Lanes. (Bild: AMD)

Sein Fabric-Takt (FCLK) überträgt mit bis zu 1600 MHz Daten und kann damit komplett synchron mit den angebundenen DDR4-3200-MHz-Speicher-DIMMs (2×1600 MHz) laufen.

Jedes Epyc-7003-SoC verfügt über acht Speicherkanäle oder UMCs (Universal Memory Controller), wobei jeder Kanal bis zu zwei DIMMs unterstützt, so dass maximal 16 DIMMs auf einem Epyc-7003-Sockel Platz finden und ein einzelner Prozessor bis zu 4 TByte DDR4-Speicher ansprechen kann. Dabei bieten Epyc-7003-CPUs mit Hilfe von „CPU Memory Interleaving“ nun auch die Möglichkeit, sechs Speicherkanäle ohne Performance-Verlust nutzen zu können, so dass sich die Speicherkosten für entsprechende Anwendungsfälle reduzieren lassen.

Vorteile der Epyc-7003-Serie

Darüber hinaus hat sich an der grundlegenden Struktur des I/O-Dies im Epyc 7003 nicht viel geändert. Er wird weiterhin in 7-nm-Technologie gefertigt und verfügt über 8×16-Bit-I/O-Links oder I/O-Hubs, die dem Prozessor mit bis zu 128 Gen4-PCIe-Lanes Anbindungsmöglichkeiten von beispielsweise Beschleunigern oder SSDs ermöglichen. Sie können auch für die Kopplung an eine zweite baugleiche Epyc-7003-SKU als Dualsockel-System genutzt werden. Dafür eignen sich 48 Infinity-Fabric-Links, so dass in einem Zweiersockelsystem bis zu 160 PCIe-Lanes für dedizierte Peripherie statt bisher 128 verfügbar sind. Ein weiterer Vorteil der Epyc-7003-Serie liegt in der per BIOS-Einstellung regelbaren NUMA-Nodes-Topology der CPU. Mit Hilfe dieser Einstellung lässt sich der so genannte Non-Uniform-Memory-Access (NUMA) des Prozessors in zwei, vier oder acht Quadranten mit jeweils eigener NUMA-Domäne und entsprechend zugeordneten Speicherkanälen und I/O-Hubs unterteilen. Die schnellere Verbindung innerhalb einer NUMA-Domain eröffnet System Designern und Programmentwicklern zusätzliche Tuning-Möglichkeiten.

Erweiterte Schutzvorkehrungen

Wie in der gesamten Epyc-Familie sorgt auch im Epyc 7003 ein separater Secure Prozessor für zusätzlichen Schutz vor Manipulationen (Tabelle 1).

Tabelle 1: Separater Secure-Prozessor für zusätzlichen Schutz vor Manipulationen.
Tabelle 1: Separater Secure-Prozessor für zusätzlichen Schutz vor Manipulationen. (Bild: AMD)

Mittels Secure Encrypted Virtualization (SEV, seit Epyc 7001) können virtuelle Maschinen über einen jeweils eigenen, eindeutigen Key verschlüsselt werden, der nur dem Prozessor bekannt ist, auf dem die virtuelle Maschine läuft. So lassen sich verschiedene VMs auf derselben Epyc-CPU sicher voneinander trennen. Mit SEV Encrypted State (SEV-ES, seit Epyc 7002) ist es möglich auch das Speicherregister, welches der Hypervisor der VM zuweist, über ein zusätzlich aktiviertes Modul namens Guest Hypervisor Communication Block (GHCB) zu verschlüsseln. Auch wenn der Hypervisor selbst kompromittiert ist, hat er so keine Möglichkeit auf Speicherinhalte der VM zuzugreifen, da der zwischengeschaltete GHCB auf Anfragen nur verschlüsselte Inhalte liefert.

In der Epyc 7003-Serie gibt es ein weiteres Sicherheits-Feature namens SEV Secure Nested Paging (SEV-SNP). SEV-SNP implementiert eine Reihe zusätzlicher hardwarebasierter Schutzvorkehrungen und verhindert beispielsweise das Memory-Remapping von VMs über einen kompromittierten Hypervisor und schützt generell noch besser vor Seitenkanalattacken, die insbesondere bei schlecht überwachbaren Server-Systemen mit physikalischen Zugangsmöglichkeiten ein erhöhtes Sicherheitsrisiko darstellen können

Effizientes TDP-Design mit Upgrade-Option

Trotz höherer Performance sind die TDPs der 7003er-CPUs quasi identisch zu den Vorgänger-CPUs der Epyc-7002er-Serie ausgelegt, was die Effizienz der Prozessoren bei ähnlichem Energieverbrauch zusätzlich erhöht. Das Einplanen zusätzlicher Kühlvorrichtungen im meist knapp bemessenen Server-Gehäuse ist somit nicht erforderlich. Ein weiterer Vorteil: durch das Design-kompatible Thermaldesign können bestehende Edge-Server-Systeme, die auf Rome-CPUs basieren und auf demselben SP3-Sockel verankert werden, relativ problemlos ein Upgrade auf das aktuelle Milan-Modell erhalten. (bs)

Der Beitrag beruht auf Unterlagen von AMD.

Sie möchten gerne weiterlesen?

Registrieren Sie sich jetzt kostenlos:

Bleiben Sie stets zu allen wichtigen Themen und Trends informiert.
Das Passwort muss mindestens acht Zeichen lang sein.

Ich habe die AGB, die Hinweise zum Widerrufsrecht und zum Datenschutz gelesen und akzeptiere diese.

Mit der Registrierung akzeptiere ich die Nutzungsbedingungen der Portale im Industrie-Medien-Netzwerks. Die Datenschutzerklärung habe ich zur Kenntnis genommen.

Sie sind bereits registriert?