An dieser Stelle präsentieren wir jede Woche eine Zahl aus dem weiten Feld der Elektronik. In dieser Woche: 60 %
Künstliche Intelligenz verändert nicht nur Geschäftsmodelle, sondern auch die physische Infrastruktur. Der Strombedarf von Rechenzentren wird sich bis 2030 verdoppeln – und treibt Versorgungsnetze in eine neue Phase struktureller Belastung.
Anzeige
Herzlich willkommen zur Rubrik „Die Zahl der Woche", in der wir jede Woche einen Blick auf die faszinierende Welt der Elektronikzahlen werfen. In der heutigen digitalen Ära durchdringt die Elektronik nahezu jeden Aspekt unseres Lebens. Doch wie viel wissen wir wirklich über die Zahlen, die hinter den neuesten Technologien stecken? Genau das möchten wir hier mit Ihnen gemeinsam erkunden! Unsere "Zahl der Woche" wird Sie nicht nur mit interessanten Fakten überraschen, sondern auch mit einem tiefen Einblick in die Technologien, die unseren Alltag prägen. Doch nicht nur die großen Entwicklungen stehen im Rampenlicht. Wir werden auch alltägliche Zahlen beleuchten, die oft übersehen werden, aber dennoch eine immense Bedeutung haben.
Unser Ziel ist es, die Begeisterung für Elektronik mit Ihnen zu teilen und ein besseres Verständnis für die Technologien zu schaffen, die unser Leben so sehr bereichern. Wir möchten Sie inspirieren und ermutigen, die Welt der Elektronik mit neuen Augen zu betrachten. Wir freuen uns darauf, Sie in die Welt der Elektronikzahlen einzuführen und gemeinsam zu staunen!
Der Energiebedarf der Künstlichen Intelligenz wird in den kommenden Jahren deutlich anziehen – und zwar um ganze 60 Prozent bis 2028. Das ist das zentrale Ergebnis des Berichts „Foundations at risk: assessing the resilience of data centres and digital infrastructure“, den Economist Impact im Auftrag des Industriesachversicherers FM erstellt hat. Die Untersuchung warnt eindringlich davor, dass die globale digitale Infrastruktur angesichts dieses rasanten Wachstums vor massiven Herausforderungen steht.
Anzeige
Konkret geht die Studie davon aus, dass sich die Kapazitäten von Rechenzentren bis 2030 verdreifachen werden. Parallel dazu dürfte sich ihr Stromverbrauch mehr als verdoppeln – auf rund 945 Terawattstunden weltweit. Zum Vergleich: Das entspricht fast dem eineinhalbfachen Stromverbrauch Deutschlands heute. Zwar steigt der Energiebedarf laut Internationaler Energieagentur (IEA) langsamer als die reine Kapazität, doch die schiere Dimension führt dazu, dass Stromnetze und Versorgungsinfrastrukturen in vielen Regionen unter massiven Druck geraten. Besonders problematisch sind Faktoren wie Kühlung und Wasserversorgung oder die starke Konzentration von Rechenzentren an Standorten wie London oder Virginia, die sich nicht beliebig skalieren lassen.
„Unsere Forschungsergebnisse belegen, dass die rasante Ausweitung der künstlichen Intelligenz die Resilienz digitaler Infrastrukturen auf eine harte Probe stellt“, erklärt Jonathan Birdwell, Global Head Policy & Insights bei Economist Impact. Auch Adrian Oxley, Principal Engineer bei FM, sieht Handlungsdruck: „Wer Resilienz schon in der Auslegungs- und Bauphase berücksichtigt, verschafft sich langfristige Vorteile.“
FM verweist in diesem Zusammenhang auf drei zentrale Handlungsfelder. Erstens: Klimaresilienz, etwa durch Standortanalysen, um Rechenzentren besser gegen Hochwasser, Vegetationsbrände oder Sturmereignisse abzusichern. Zweitens: Strominfrastruktur, in der Resilienzmaßnahmen von Datensicherungssystemen bis hin zu Batterie-Energiespeichern integriert werden müssen, um Engpässe und Ausfälle zu vermeiden. Und drittens: Erneuerbare Energien, deren Anlagen angesichts von Lieferkettenproblemen, Ressourcenknappheit und Klimarisiken besonders verwundbar sind.
53 Prozent der Deutschen glauben, dass autonomes Fahren künftig der Standard sein wird – ein klarer Hinweis darauf, dass die Technologie aus Sicht vieler längst über den Status eines Experiments hinaus ist. Fast ebenso viele – 43 Prozent – halten das Ganze allerdings für einen überzogenen Hype. Doch trotz dieser Skepsis zeigt eine repräsentative Bitkom-Umfrage anlässlich der IAA: Die generelle Offenheit für autonome Verkehrsmittel ist enorm. 99 Prozent der Befragten können sich vorstellen, zumindest eines davon zu nutzen – ob autonome U- oder S-Bahnen, Busse, Shuttle, Taxis oder sogar Flugzeuge.
Bitkom-Präsident Ralf Wintergerst betont, dass autonomes Fahren keine ferne Utopie mehr sei. Pilotprojekte hierzulande und Entwicklungen in den USA, China und Singapur belegten eindrucksvoll das Potenzial. Auch die Digitalisierung wird von einer großen Mehrheit positiv bewertet: 86 Prozent sehen darin eine Chance für die Mobilität, 78 Prozent halten digitale Innovationen für überlebenswichtig für die deutsche Automobilindustrie. Kooperationen mit Tech-Unternehmen gelten als unverzichtbar, während die Hälfte der Befragten zugleich fordert, klassische Stärken wie Ingenieurskunst und Qualität nicht aus den Augen zu verlieren.
Zwei Drittel der Autobesitzer wären unter bestimmten Bedingungen bereit, ihren Privat-Pkw aufzugeben. Eine bessere Infrastruktur im öffentlichen Nahverkehr, attraktive Sharing-Angebote oder schlicht steigende Kosten spielen hier die Hauptrolle.
Anzeige
Auch bei Künstlicher Intelligenz im Auto zeigt sich Offenheit: 88 Prozent wünschen sich Unterstützung bei der Parkplatzsuche, 83 Prozent smarte Ampeln, 79 Prozent ein System, das Übermüdung oder Alkohol erkennt. Mehr als die Hälfte würde es sogar begrüßen, wenn eine KI bei zu schnellem oder riskantem Fahren eingreift.
Damit all diese Technologien Wirkung entfalten können, braucht es eine moderne Infrastruktur. Neben klassischen Projekten wie Autobahnsanierung stehen digitale Maßnahmen ganz oben auf der Wunschliste: smarte Ampeln, autonome Sammeltaxis und der Ausbau des Mobilfunknetzes entlang der Verkehrswege. Bitkom fordert, Modellregionen für autonomes Fahren zu schaffen, statt auf viele isolierte Einzelprojekte zu setzen – und sieht Deutschland mit Know-how und der Offenheit der Bevölkerung gut positioniert, international eine führende Rolle einzunehmen.
Save the Date! Der AUTOMOBIL-ELEKTRONIK Kongress findet 2026 am 16. und 17. Juni statt.
Am 16. und 17. Juni 2026 findet zum 30. Mal der Internationale Automobil-Elektronik Kongress (AEK) statt. Dieser Netzwerkkongress ist bereits seit vielen Jahren der Treffpunkt für die Top-Entscheider der Elektro-/Elektronik-Branche und bringt nun zusätzlich die Automotive-Verantwortlichen und die relevanten High-Level-Manager der Tech-Industrie zusammen, um gemeinsam das ganzheitliche Kundenerlebnis zu ermöglichen, das für die Fahrzeuge der Zukunft benötigt wird. Trotz dieser stark zunehmenden Internationalisierung wird der Automobil-Elektronik Kongress von den Teilnehmern immer noch als eine Art "automobiles Familientreffen" bezeichnet.
Die Zahl der Woche vom 15.09.2025: Von 30 auf 18.000
Anzeige
Kaum ein anderes Beispiel macht den Wandel der Automobilindustrie so greifbar wie der Blick auf die Zahl der Halbleiter. Was in den 1970er-Jahren mit dem ersten VW Golf begann, wirkt heute fast wie Technik aus der Steinzeit: Damals steckten im Erfolgsmodell aus Wolfsburg gerade einmal rund 30 Chips. Fast fünfzig Jahre später hat sich das Bild komplett gewandelt – im aktuellen Golf arbeiten bereits etwa 8.000 Halbleiterbausteine. Und in den neuesten vollelektrischen Modellen wie dem ID.7 explodiert die Zahl auf schätzungsweise 18.000.
Die Dimensionen verdeutlichen, wie stark sich die Rolle von Elektronik im Auto verschoben hat. Wo früher einfache, robuste Steuerchips genügten, tummeln sich heute hochintegrierte Prozessoren, Leistungshalbleiter und spezialisierte Bausteine. Sie regeln das Energiemanagement, sichern die Bremsen ab, steuern Fahrassistenzfunktionen oder bringen Infotainment und Connectivity ins Fahrzeug. Kurz: Halbleiter sind die Taktgeber moderner Mobilität – ohne sie fährt kein Auto vom Band.
Für die Hersteller bedeutet das: Die Chipfrage ist längst zur Schicksalsfrage geworden. Die Lieferengpässe der vergangenen Jahre haben gezeigt, wie empfindlich die Branche auf kleinste Störungen reagiert. VW hat deshalb die eigene Halbleiterstrategie geschärft, Direktbeziehungen zu Herstellern ausgebaut und sogar ungewöhnliche Allianzen geschmiedet – etwa mit dem US-Start-up Rivian. Ziel ist es, die Versorgung zu sichern und die steigende Komplexität in den Griff zu bekommen.
Anzeige
Dass ein einzelnes Fahrzeug heute mehrere zehntausend Chips verschlingt, macht eines klar: Das Auto der Zukunft ist nicht nur elektrifiziert, sondern vor allem digitalisiert. Der Vergleich vom Golf I zum ID.7 ist damit mehr als eine Zahlenspielerei – er ist ein Symbol dafür, wie sehr sich Mobilität im Kern verändert hat.
Die weltweite Photovoltaik hat im ersten Halbjahr 2025 ein neues Rekordtempo erreicht. Nach Zahlen von Ember Energy wurden weltweit 380 GW an neuer Solarleistung installiert, was einem Zuwachs von 64 % gegenüber dem Vorjahreszeitraum entspricht. Zum Vergleich: 2024 wurde die Marke von 350 GW erst im September überschritten, in diesem Jahr bereits im Juni. Haupttreiber ist eindeutig China, das allein rund 256 GW beisteuerte und damit 67 % des globalen Zubaus verantwortete – mehr als doppelt so viel wie der Rest der Welt zusammen. Indien legte mit 24 GW um 49 % zu und unterstreicht seine Rolle als Wachstumsmarkt, während die USA mit 21 GW nur moderat zulegten. In Europa ist dagegen eher Stagnation zu beobachten, bedingt durch langsame Genehmigungen, Netzausbauprobleme und sinkende Förderanreize.
Für die Elektronik- und Halbleiterindustrie hat der Solarboom weitreichende Folgen: Gefragt sind vor allem Leistungshalbleiter wie IGBTs, SiC- und GaN-Bauelemente, ebenso wie Wechselrichter, Steuerungen und Energiespeicher. Gleichzeitig steigt der Druck auf die Lieferketten, da Rohstoffe wie Silizium, Silber und Kupfer im Wettbewerb mit Elektromobilität und Industrieelektronik stehen. Besonders die Dominanz Chinas zeigt, wie stark sich Wertschöpfung und industrielle Basis im Bereich der erneuerbaren Energien nach Asien verlagern. Damit wird Solarenergie nicht nur zur am schnellsten wachsenden Stromquelle weltweit, sondern auch zum geopolitischen Faktor, der industriepolitische Antworten in Europa und den USA zwingend erforderlich macht.
Europa hat in den ersten sieben Monaten 2025 einen wichtigen Meilenstein erreicht: Mehr als eine Million neue Elektroautos sind auf den Straßen unterwegs. Laut aktuellen Zahlen der ACEA summieren sich die Neuzulassungen von batterieelektrischen Fahrzeugen (BEV) auf 1.011.903 Einheiten – das entspricht einem Marktanteil von 15,6 %. Damit liegt der Wert ein gutes Drittel höher als im Vorjahr, als der Anteil im Juli noch bei 12,5 % lag. Besonders stark wächst der Markt in Deutschland (+38,4 %), Belgien (+17,6 %) und den Niederlanden (+6,5 %), während Frankreich trotz eines kräftigen Juli-Plus von 14,8 % im bisherigen Jahresverlauf ein Minus von 4,3 % verzeichnet.
Trotz des Zuwachses bei reinen Elektrofahrzeugen dominieren weiterhin die Hybride den Markt: Sie erreichen inzwischen 34,7 % Marktanteil und sind damit die klare Nummer eins. Plug-in-Hybride tragen mit 8,6 % ebenfalls ihren Teil bei. Die klassischen Verbrenner verlieren hingegen weiter deutlich an Boden und machen zusammen nur noch 37,7 % des europäischen Neuwagenmarktes aus – im Vorjahr lag dieser Anteil noch bei fast 48 %.
Ein Blick auf den europäischen Gesamtmarkt zeigt ein ähnliches Bild: Nach ICCT-Daten lag der BEV-Anteil im Juli bei 17 %, im Juni sogar bei 18 %. Über das bisherige Jahr betrachtet pendelt sich der Wert bei rund 17 % ein. Das bestätigt zwar den Aufwärtstrend, doch die Branche selbst bleibt zurückhaltend. Die ACEA weist darauf hin, dass der aktuelle Zuwachs zwar beachtlich ist, aber noch nicht ausreicht, um die langfristigen Klimaziele und den politischen Druck in Sachen CO₂-Reduktion aufzufangen.
Schwerpunktthema: E-Mobility
(Bild: Adobe Stock, Hüthig)
In diesem Themenschwerpunkt „E-Mobility“ dreht sich alles um die Technologien in Elektrofahrzeugen, Hybriden und Ladesäulen: Von Halbleitern über Leistungselektronik bis E-Achse, von Batterie über Sicherheit bis Materialien und Leichtbau sowie Test und Infrastruktur. Hier erfahren Sie mehr.
Die Zahl der Woche vom 25.08.2025: 10 %
Intel hat jetzt einen neuen Großaktionär: die US-Regierung. Rund 11 Milliarden US-Dollar an Fördergeldern aus dem „CHIPS and Science Act“ und weiteren Programmen wurden kurzerhand in Aktien umgewandelt. Ergebnis: knapp zehn Prozent Beteiligung, rund 433 Millionen Intel-Papiere zu 20,47 US-$ das Stück. Damit sitzt Washington plötzlich am Aktionärstisch – ohne Sitz im Aufsichtsrat, aber mit ordentlich Stimmgewicht im Rücken.
Präsident Donald Trump verkauft den Schritt als „großartigen Deal für Amerika“. Die Botschaft: Technologische Souveränität sichern, Abhängigkeiten von Asien verringern, Arbeitsplätze daheim schaffen. In der Realität wirkt das Manöver wie eine Mischung aus Wirtschaftsnationalismus und Staatskapitalismus, bei dem ausgerechnet die USA den Kurs kopieren, den sie sonst gerne in Peking kritisieren.
Für Intel selbst ist der Deal ein zweischneidiges Schwert. Einerseits fließt dringend benötigtes Kapital in die aufwendige Fertigung neuer Chipgenerationen. Andererseits warnt das Unternehmen offiziell vor Reputationsschäden, juristischen Risiken und einem möglichen Vertrauensverlust bei internationalen Kunden. Ausländische Geschäftspartner könnten es wenig charmant finden, wenn plötzlich die US-Regierung mit am Tisch sitzt.
Auch an der Börse sorgt der Schritt weniger für Jubel als für Stirnrunzeln. Analysten bezweifeln, dass die Staatsspritze Intels Probleme löst: Rückstand bei modernsten Fertigungsprozessen, verschärfte Konkurrenz durch TSMC und Samsung, dazu eine schwierige Marktposition zwischen stagnierendem PC-Geschäft und schwächelndem Server-Bereich.
Mikroelektronik ist längst zur unsichtbaren Infrastruktur des Alltags geworden – insbesondere im Smart Home. Hier kommen heute bereits 1000 bis 5000 Halbleiterbauteile pro Haushalt zum Einsatz. Sie bilden das Rückgrat einer intelligenten Energie- und Gebäudesteuerung: Photovoltaikanlagen auf dem Dach, gekoppelt mit Batteriespeichern im Keller, liefern Strom, dessen Fluss durch Leistungshalbleiter präzise geregelt wird. Smart Meter erfassen den Verbrauch in Echtzeit, während Energiemanagementsysteme auf Basis dieser Daten Lasten verschieben und so für Effizienz und Kostenvorteile sorgen. Heiz- und Kühlsysteme wie Wärmepumpen greifen auf Mikrocontroller zurück, um Temperaturen optimal zu steuern. Selbst bei sind Halbleiter entscheidend für Bildverarbeitung, Sensorik und Kommunikation. Hinzu kommen Haushaltsgeräte wie smarte Kühlschränke oder Waschmaschinen, die über Halbleiter sowohl vernetzt als auch energieeffizient betrieben werden können.
Auch die Mobilität wird von Halbleitern getrieben: Moderne Fahrzeuge enthalten zwischen 1000 und 3000 Chips, von Fahrerassistenzsystemen bis hin zur kompletten Leistungselektronik von Elektroantrieben. Mit dem Trend zum Software-defined Vehicle (SDV) nimmt die Abhängigkeit der Automobilhersteller von der Halbleiterbranche weiter zu. Neue Funktionen entstehen nicht mehr primär durch mechanische Innovation, sondern durch leistungsfähige Chips und flexible Softwareplattformen. Das verschiebt Machtverhältnisse: Halbleiterproduzenten und Softwareunternehmen gewinnen strategische Bedeutung, klassische Zulieferer geraten unter Druck.
Die hohe Dichte an Halbleitern im Haushalt und im Auto bedeutet einen konstant steigenden Bedarf an Mikrocontrollern, Sensoren und Leistungshalbleitern. Hersteller von Elektronikkomponenten sehen sich dadurch mit massiven Wachstumschancen, aber auch mit Herausforderungen konfrontiert: Fertigungskapazitäten müssen ausgebaut, Lieferketten abgesichert und Technologien kontinuierlich weiterentwickelt werden. Wer frühzeitig in effiziente Leistungselektronik und Systemintegration investiert, sichert sich Wettbewerbsvorteile in einem Markt, der durch die Energiewende und staatliche Förderprogramme zusätzlich befeuert wird. Gleichzeitig steigt der Druck auf die Halbleiterindustrie, weil Smart Homes ähnlich wie die Automobilindustrie zu einem Großabnehmer werden.
Für die Branche insgesamt bedeutet dies eine enorme Abhängigkeit von stabilen Halbleiterlieferungen. Engpässe oder geopolitische Risiken können direkt ganze Wertschöpfungsketten blockieren – von der Energiewende im Eigenheim über die Elektromobilität bis hin zu den digitalen Services von morgen. Die Halbleiterproduktion wird dadurch zu einem strategischen Wirtschaftsfaktor, der über Innovationskraft, Wettbewerbsfähigkeit und technologische Souveränität entscheidet.
Fusionsenergie gilt als „heiliger Gral“ der Energieforschung: sauber, nahezu unerschöpflich – aber technisch extrem schwer zu beherrschen. Am 22. Juni 2025 gelang Forschern des Los Alamos National Laboratory (LANL) ein Meilenstein: An der National Ignition Facility (NIF) im Lawrence Livermore National Laboratory (LLNL) erreichten sie mit dem neuen Thinned Hohlraum Optimization for Radflow (THOR)-System eine Fusionsausbeute von 2,4 ± 0,09 Megajoule und erzeugten ein selbsterhaltendes „Burning Plasma“.
Zur Einordnung: 2,4 MJ klingen erst einmal viel, entsprechen aber "nur" etwa 57 % der Energie einer Explosion mit 1 kg TNT, rund dem 7-Fachen der Bewegungsenergie eines Autos bei Autobahntempo oder ziemlich genau dem Kaloriengehalt eines großen Stücks Sahnetorte. Der bisherige Spitzenwert der NIF lag bei 3,9 MJ (Dezember 2022), allerdings ohne die energieabführenden THOR-Fenster. Dass nun trotz dieser zusätzlichen „Leckage“ gezündet werden konnte, gilt als Beweis für die Präzision der Simulationen und die Robustheit des Designs.
THOR verändert den Standard-Hohlraum der NIF, indem es Fenster für den Austritt hochenergetischer Röntgenstrahlung integriert – gedacht für Materialtests unter extremen Strahlungsbedingungen. Diese Öffnungen stören normalerweise die symmetrische Implosion der Brennstoffkapsel, was die Zündung erschweren kann.
So beeindruckend die Zahl ist – sie ist eine Momentaufnahme. Solche Laborerfolge zeigen, was prinzipiell möglich ist, bedeuten aber nicht, dass in naher Zukunft Fusionsstrom das Netz speist. Der Weg von einmaligen Experimenten zu einem kontinuierlich arbeitenden, wirtschaftlichen Fusionskraftwerk ist noch lang, teuer und voller technischer Hürden. Aber: Auf diesem Weg sind genau solche Versuche und Erfolge wichtig, um einer möglichen Energieversorgung der Zukunft näher zu kommen.
Die Zahl der Woche vom 04.08.2025: 182 Mrd. €
Die deutsche Elektro- und Digitalindustrie steht im optimistischen Szenario 2035 an der Spitze der Wertschöpfungsgewinner: Mit 182 Milliarden Euro übertrifft sie ihre Erträge im Trägheitsszenario mehr als zweieinhalbfach und markiert damit den bedeutendsten Wachstumstreiber unter allen Branchen. Laut einer aktuellen Studie des BDI Bundesverband der Deutschen Industrie e. V. zur digitalen Transformationskraft kann dieser Sektor allein durch direkte High-Tech-Fertigung und digitale Lösungen drei Viertel des Gesamtvolumens erzielen, während das verbleibende Viertel über ein eng verflochtenes Netzwerk spezialisierter Zulieferer entsteht. Diese Dynamik macht deutlich, dass Investitionen in Mikroelektronik, KI-Plattformen und smarte Systemintegration heute das Fundament für Deutschlands Wettbewerbsfähigkeit in einer globalisierten Wirtschaft legen.
Verglichen mit dem Trägheitsszenario, in dem strukturelle Hemmnisse den Marktzugang ausbremsen, ist das Potenzial mehr als zweieinhalbmal so hoch. Im pessimistischen Szenario läge die gesamte Wertschöpfung der Branche deutlich unter 70 Mrd. Euro, weil mangelnde Investitionen in Ladeinfrastruktur, Industrie-4.0-Automatisierung und KI-Lösungen die Exportchancen stark einschränken. Das optimistische Szenario hingegen setzt darauf, dass Deutschland seine Stärken in der Digitalisierung konsequent ausspielt, globale Partnerschaften intensiviert und – vor allem in Schwellenländern – als Innovationsführer auftritt.
Für Anwender und Zulieferer bedeutet das: Wer heute in Forschung, Entwicklung und Produktionskapazitäten für Mikroelektronik, Cloud-Infrastrukturen und Industrie-Roboter investiert, profitiert 2035 direkt von einem dynamischen Exportboom. Zugleich entsteht ein dichtes Netz indirekter Effekte, weil Softwarehäuser, Halbleiterzulieferer und Systemintegratoren ihre Expertise in weltweiten Lieferketten ausspielen und so zusätzliche Wertschöpfung generieren. Die 182 Milliarden Euro sind daher kein Selbstläufer, sondern das Ergebnis einer klaren strategischen Schwerpunktsetzung auf Elektronik- und Digitaltechnologien als Herzstück künftiger Wertschöpfungsgeflechte.
Die Zahl der Woche vom 28.07.2025: 125.000 Gigabyte pro Sekunde
Japanische Forscher haben einen neuen Weltrekord bei der Internetgeschwindigkeit aufgestellt: Mit einer speziell entwickelten Glasfaserleitung übertrugen sie 125.000 Gigabyte pro Sekunde – rund vier Millionen Mal schneller als der US-Durchschnitt. Die Daten flitzten dabei über eine Strecke von 1.120 Meilen (etwa 1.800 Kilometer), was ungefähr der Distanz zwischen New York und Florida entspricht. Möglich macht das eine neuartige Glasfaser, in der 19 einzelne Kerne in einem Mantel von nur 0,127 Millimetern Durchmesser untergebracht sind – also genauso dünn wie herkömmliche Singlemode-Fasern. Der Trick: Alle 19 Kanäle verhalten sich exakt gleich gegenüber dem Lichtsignal, was die Lichtfluktuationen minimiert und damit auch die Datenverluste drastisch reduziert. So konnten deutlich mehr Informationen gleichzeitig und über weite Strecken übertragen werden, ohne die Signalqualität zu beeinträchtigen.
Bereits im März 2023 hatte dasselbe Team ähnlich hohe Datenraten erzielt, allerdings nur über ein Drittel der nun erreichten Distanz. Der aktuelle Durchbruch basiert auf einer verbesserten Signalverstärkung und der Fähigkeit, Datenverluste über längere Strecken weiter zu minimieren. Für den Testlauf wurde das Übertragungssystem insgesamt 21-mal durchlaufen, bis die Daten am Empfänger ankamen – und das mit einer Geschwindigkeit, die bislang als unerreichbar galt. Der Rekord wurde auf der Optical Fiber Communication Conference in San Francisco vorgestellt und ist ein deutlicher Fingerzeig, wohin die Reise bei der globalen Datenkommunikation geht.
Der technologische Fortschritt kommt zur rechten Zeit: Der weltweite Datenverkehr wächst rasant – KI-Anwendungen, hochauflösende Videostreams, Cloud-Infrastrukturen und autonome Systeme treiben die Netze an ihre Grenzen. Das Experiment zeigt, dass bestehende Infrastrukturen mit klugem Engineering noch lange nicht ausgereizt sind. Die Tatsache, dass die neue Superfaser denselben Durchmesser wie heutige Kabel hat, macht sie besonders interessant für reale Anwendungen: Sie könnte mit vergleichsweise geringem Aufwand in bestehende Netze integriert werden.
Noch handelt es sich um einen Labordurchbruch, der bislang nicht unabhängig verifiziert wurde. Doch die Forscher des japanischen National Institute of Information and Communications Technology (NICT) wollen in einem nächsten Schritt anwendungsnahe Szenarien prüfen. Sollte sich die Technik in der Praxis bewähren, könnte sie die Basis für eine neue Generation extrem leistungsfähiger Kommunikationsnetze legen – und unser Verständnis von Datenübertragung fundamental verändern.
Während KI und Cloud-Dienste in Deutschland boomen, fehlt es an einer entscheidenden Basis: leistungsfähige Rechenzentren. Der Digitalverband Bitkom warnt, dass die aktuellen Kapazitäten nicht mehr mit dem Bedarf Schritt halten. Besonders drastisch zeigt sich das bei der IT-Anschlussleistung – Deutschland kommt gerade einmal auf 2,7 Gigawatt. Zum Vergleich: Die USA liegen bei 48 Gigawatt, China bei 38 Gigawatt. Damit droht der Bundesrepublik der digitale Infrastrukturkollaps.
In einem neuen Aktionsplan fordert Bitkom deshalb ein entschlossenes Gegensteuern. Zentrale Punkte: Stromkosten senken, denn im EU-Vergleich zählt Deutschland zu den teuersten Standorten. Dazu brauche es eine schnellere und digitalisierte Genehmigungspraxis, denn aktuell dauern Verfahren rund sechs Monate länger als gesetzlich erlaubt. Auch der regulatorische Rahmen müsse angepasst werden – nationale Sonderregeln, etwa zur Energieeffizienz, behindern Investitionen. Hinzu kommt: Die Abwärmenutzung ließe sich durch steuerliche Anreize und Wärmenetz-Ausbau sinnvoll fördern. Und nicht zuletzt fordert Bitkom, dass geeignete Flächen gezielt ausgewiesen werden – Rechenzentren seien eine Chance für strukturschwache Regionen, nicht nur ein Kostenfaktor.
„Ohne leistungsfähige Rechenzentren gibt es keine digitale Souveränität“, so Bitkom-Präsident Ralf Wintergerst. Die Bundesregierung habe zwar eine Strategie angekündigt, jetzt komme es aber auf Tempo und Umsetzungswille an. Sonst verliere Deutschland nicht nur den Anschluss, sondern auch die Kontrolle über seine digitale Zukunft.
Lucid Motors hat Anfang Juli 2025 einen neuen Maßstab in Sachen Reichweite gesetzt: Mit einem serienmäßigen Lucid Air Grand Touring fuhr das Team des Autoherstellers ganze 1205 Kilometer mit nur einer Batterieladung – ohne Nachladen, ohne Tricksereien, zertifiziert vom Guinness-Buch der Rekorde. Die Route führte von St. Moritz in der Schweiz über Österreich bis nach München. Gefahren wurde unter realen Bedingungen, auf öffentlichen Straßen und mit einem zugelassenen Serienfahrzeug, das jeder Kunde exakt so bestellen kann.
Der Lucid Air Grand Touring ist mit einer nutzbaren Akkukapazität von 112 kWh ausgestattet und basiert auf der eigenen „Wunderbox“-Plattform, die für maximale Effizienz entwickelt wurde. Das Fahrzeug bringt 831 PS auf die Straße und kommt laut WLTP offiziell auf bis zu 960 Kilometer Reichweite – ein Wert, der im Test um rund 245 Kilometer übertroffen wurde. Möglich wurde das unter anderem durch eine intelligente Streckenwahl (Startpunkt in den Alpen, Ziel im Flachland), konsequentes „Hyper-Miling“ (Kraftstoffverbrauch durch oft extreme Maßnahmen verringern) durch den Fahrer Umit Sabanci sowie eine besonders fein abgestimmte Rekuperation. Selbst Kleinigkeiten wie das vorausschauende Rollen an Gefällestrecken wurden konsequent genutzt.
Die Elektromobilität ist längst nicht mehr auf das Stadtgebiet beschränkt. Mit über 1200 Kilometern Reichweite spielt der Lucid Air in einer ganz neuen Liga, sowohl in Reichweite als auch im Anschaffungspreis (ab 129.000 Euro). Aber dafür soll das Auto in 16 Minuten laut Hersteller bis zu 400 Kilometer Reichweite nachgeladen werden können.
In diesem Themenschwerpunkt „E-Mobility“ dreht sich alles um die Technologien in Elektrofahrzeugen, Hybriden und Ladesäulen: Von Halbleitern über Leistungselektronik bis E-Achse, von Batterie über Sicherheit bis Materialien und Leichtbau sowie Test und Infrastruktur. Hier erfahren Sie mehr.
Die Zahl der Woche vom 07.07.2025: 67 %
Laut einer aktuellen Analyse von Cybernews weisen 67 % der offiziellen Webseiten europäischer Regierungs- und Behördeninstitutionen mindestens ein Cybersicherheitsproblem auf.
Untersucht wurden 75 offizielle EU-Behörden. Keine erhielt die Bestnoten A oder B. Stattdessen: 33 % mit Note "C", 32 % mit "D" und ganze 35 % sogar mit der schlechtesten Bewertung "F". Besonders alarmierend: Alle untersuchten Organisationen waren bereits Ziel von Datenlecks.
Wiederverwendung von Passwörtern: In Institutionen mit den Bewertungen "D“ oder "F“ nutzen bis zu 85 % der Mitarbeitenden Passwörter, die bereits bei früheren Datenlecks kompromittiert wurden.
Schwache SSL/TLS-Konfigurationen: Bei 100 % der mit "F“ bewerteten und über 90 % der mit "D“ bewerteten Institutionen wurden Schwachstellen in der Verschlüsselung mittels Secure Sockets Layer (SSL) und Transport Layer Security (TLS) festgestellt – zentrale Sicherheitsstandards, die den Schutz sensibler Daten bei der Übertragung gewährleisten sollen.
Spoofing-anfällige Domains: Fast alle Organisationen mit Note "D" oder "F" nutzen E-Mail-Domains, die anfällig für Spoofing sind, eine Einladung für Phishing und Identitätsmissbrauch.
Werden Passwörter nach einem Leak weiterhin verwendet, steigt das Risiko für die Sicherheit massiv. Die aktuelle Auswertung beweist, dass es sich um ein anhaltendes, jedoch vermeidbares Phänomen handelt. Es besteht dringender Bedarf, Mitarbeiter intensiver über Passworthygiene aufzuklären und die Risiken wiederverwendeter Zugangsdaten wiederholt zu vermitteln.
Cybernews
Auswirkungen auf Verwaltung und Gesellschaft
Bürgervertrauen: Wenn selbst Ministerien kein sicheres Web anbieten, sinkt das Vertrauen in staatliche IT.
Nationale Sicherheit: Offene Schwachstellen in sicherheitsrelevanten Behörden (z. B. Verteidigungsministerien oder Nachrichtendienste) stellen ein potenzielles Einfallstor für Cyberattacken dar.
Digitalisierung in Gefahr: Unsichere Grundlagen behindern E-Government, Online-Wahlen und automatisierte Verwaltungsprozesse.
Das Unternehmen Cybernews hat verschiedene Webseiten von Regierungen untersucht und bewertet. Keine der 75 Webseiten erreicht dabei die Noten A (niedriges Risiko) oder B (mittleres Risiko).(Bild: Cybernews)
Zahl der Woche vom 30.06.2025: 30 %
Die Yole Group hat in einem aktuellen Marktbericht zur globalen Foundry-Landschaft eine klare Entwicklung identifiziert: Bis 2030 wird sich das Kräfteverhältnis in der Halbleiterfertigung deutlich verschieben – mit China als künftigem Schwergewicht.
Laut Prognose wird China in den nächsten fünf Jahren seinen Anteil an den weltweiten Foundry-Kapazitäten von derzeit 21 % auf rund 30 % ausbauen. Möglich macht das ein anhaltend hoher staatlicher Investitionsdruck kombiniert mit klarer industriepolitischer Zielsetzung: Mehr Fertigungstiefe im eigenen Land, weniger Abhängigkeit von US-amerikanischer oder taiwanischer Technologie.
Gleichzeitig offenbart der Bericht ein strukturelles Ungleichgewicht auf Seiten der USA. Zwar entfallen 57 % der globalen Halbleiternachfrage auf amerikanische Unternehmen, doch die entsprechende Fertigungskapazität im Inland liegt lediglich bei 10 %. Der Großteil der Chips wird weiterhin in geopolitisch sensiblen Regionen produziert – allen voran Taiwan, Südkorea und eben China. Der Ausbau eigener Fertigung (etwa über den CHIPS Act) kommt bislang nur schleppend voran und bleibt stark subventionierungsabhängig.
Taiwan selbst bleibt mit einem Kapazitätsanteil von 23 % ein zentraler Pfeiler der globalen Chipproduktion, generiert aber nur 4 % der weltweiten Nachfrage. Südkorea agiert deutlich ausgeglichener – mit jeweils 19 % bei Produktion und Verbrauch. Europa und Japan fahren eine eher eigenständige Linie, bedienen primär den eigenen Markt und bauen ihre Kapazitäten selektiv aus. Auffällig ist auch die Rolle Südostasiens: Länder wie Malaysia und Singapur halten etwa 6 % der Kapazitäten, betreiben die Anlagen aber fast ausschließlich im Auftrag internationaler Unternehmen.
Trotz der Vielzahl angekündigter Foundry-Projekte rechnet Yole nicht mit einem strukturellen Überangebot. Die erwartete Auslastung liegt bis 2030 konstant bei rund 70 %. Das ist ausreichend für einen wirtschaftlichen Betrieb, lässt aber wenig Spielraum für Fehler: Wer zu früh oder zu groß investiert, riskiert Unterauslastung und steigende Produktionskosten – insbesondere dann, wenn die erwartete Nachfrage in einzelnen Technologiesegmenten nicht wie prognostiziert eintritt.
Mitte Mai 2025 richtete sich ein DDoS-Angriff beispiellosen Ausmaßes gegen einen Hosting-Anbieter, der über Cloudflares Magic-Transit-Dienst geschützt wird. Innerhalb von nur 45 Sekunden wurden satte 37,4 Terabyte Datenverkehr auf eine einzelne IP-Adresse eingespielt – das entspricht dem gleichzeitigen Download von etwa 9 350 HD-Filmen oder 9,35 Millionen Songs
Der Löwenanteil (7,3 Terabit pro Sekunde) stammte aus einem UDP-Flood (User Datagram Protocol), bei dem Angreifer massenhaft Pakete an zufällige offene Ports senden, um Netzwerkkapazitäten und Ressourcen zu erschöpfen. UDP kennt keinen Verbindungsaufbau – deshalb müssen Router und Server jeden einzelnen Datagramm-Packet verarbeiten, bis sie in die Knie gezwungen.
Hinzu kamen Reflection-Angriffe: Hier nutzt der Angreifer schlecht geschützte Dienste (z. B. DNS, NTP, QOTD) als „Datenreflektoren“. Er sendet Anfragen mit gefälschter Absender-IP (die des Opfers) an diese Server, die ihre Antworten dann ungefiltert an das Opfer zurückschicken. So vervielfacht sich das Datenvolumen, ohne dass der Angreifer selbst mehr Bandbreite aufbringen muss.
Damit Cloudflare dem nie gekannten Traffic-Sturm trotzte, kam das Anycast-Netzwerk zum Einsatz: Die Ziel-IP wurde weltweit in über 470 Rechenzentren „angekündigt“, sodass jeder Knoten nur den für ihn nächsten Strom bösartiger Pakete erhielt und lokal abwehrte. Dank kernelnaher eBPF-Filter und heuristischer Algorithmen lief die komplette Mustererkennung und Blockade automatisiert und in einer Art Mikrosekundenentscheidungen ab – legitimer Traffic blieb unberührt.
Angreifer mobilisieren heute nicht mehr nur verfügbarere Botnetze, sie missbrauchen auch alte Netzwerkprotokolle für riesige Angrifsswellen. Moderne Cyberabwehr setzt daher auf verteilte Routing-Architekturen, automatisierte Filter tief im Systemkern und skaliert so weit, bis selbst Terabit-Wellen wirkungslos verpuffen.
Im Jahr 2025 investieren Halbleiterhersteller weltweit rund 110 Milliarden US-Dollar in Ausrüstungen zur Chipfertigung – ein neuer Höchstwert laut dem Branchenverband SEMI. Damit wachsen die Investitionen zum sechsten Mal in Folge – getrieben von KI-Anwendungen, nationalen Förderprogrammen und dem Ausbau moderner Fertigungstechnologien.
China bleibt mit über 38 Milliarden US-Dollar führend, gefolgt von Südkorea (21,5 Milliarden $), Taiwan (21 Milliarden $) sowie den USA (14 Milliarden $). Europa liegt mit rund 9 Milliarden US-Dollar weiter zurück, trotz staatlicher Initiativen wie dem EU Chips Act.
Für das Jahr 2026 erwartet SEMI einen weiteren Anstieg auf über 130 Milliarden US-Dollar, was einem Zuwachs von rund 18 % entspräche.
Auswirkungen auf Industrie und Technologie
Die anhaltenden Rekordinvestitionen in Halbleiterausrüstung verändern nicht nur die Elektronikindustrie, sondern haben weitreichende Effekte:
Geopolitik: Nationale Programme wie der EU Chips Act in Europa oder das chinesische "Made in China 2025" zielen auf technologische Unabhängigkeit und resiliente Lieferketten.
Forschung und Entwicklung: Investitionen treiben Innovationen bei Design, Materialien und Fertigung voran.
Rohstoffbedarf: Fortschrittliche Chipproduktion benötigt seltene Rohstoffe wie Gallium, Germanium oder hochreines Silizium – was Fragen zur Rohstoffsicherung aufwirft.
Die Elektronikbranche bleibt trotz globaler Unsicherheiten im Investitionsmodus. Wer bei Zukunftstechnologien wie KI, 5G oder autonomem Fahren mitspielen will, muss heute die Infrastruktur dafür schaffen.
Lust auf mehr Einblicke über das Thema Halbleiter und Hochleistungschips? Wir haben noch weitere Beiträge zu der Thematik.
Die Zahl der Woche vom 10.06.2025: 17 Millionen
Im Jahr 2024 wurden weltweit rund 17 Millionen Elektrofahrzeuge verkauft – ein neuer Rekord in der globalen Verkehrswende.Das entspricht etwa 20 % aller neu zugelassenen Autos und zeigt, wie schnell die Elektromobilität zur Norm wird.
China bleibt mit über 60 % Marktanteil führend, gefolgt von Europa mit etwa 25 % und den USA mit rund 10 %.In Europa ist der Marktanteil jedoch rückläufig, was auf das Auslaufen von Subventionen und politische Unsicherheiten zurückzuführen ist.
Die Internationale Energieagentur (IEA) prognostiziert, dass bis 2030 weltweit mehr als 20 Millionen Elektroautos jährlich verkauft werden – über ein Viertel aller Neuzulassungen.China könnte dabei einen Marktanteil von bis zu 45 % erreichen, Europa 25 % und die USA über 11 %.
Auswirkungen auf Industrie und Gesellschaft
Der starke Anstieg an Elektrofahrzeugen verändert nicht nur den Automarkt, sondern auch angrenzende Industrien:
Zulieferer: Neue Anforderungen bei Batterien, Leistungselektronik und Ladeinfrastruktur fordern Umstellungen.
Arbeitsplätze: Wandel in der Automobilindustrie bringt neue Jobs in Software, Batterieproduktion und Recycling – ersetzt aber auch klassische Motorentechnik.
Energieversorgung: Die Stromnachfrage steigt, gleichzeitig wachsen Anforderungen an Netzausbau und Ladeinfrastruktur.
Rohstoffbedarf: Lithium, Kobalt und andere Rohstoffe gewinnen an Bedeutung – mit geopolitischen und ökologischen Folgen.
Der Wandel zur Elektromobilität bringt damit nicht nur mehr saubere Fahrzeuge auf die Straße, sondern stellt ganze Wertschöpfungsketten auf den Prüfstand.
Schwerpunktthema: E-Mobility
(Bild: Adobe Stock, Hüthig)
In diesem Themenschwerpunkt „E-Mobility“ dreht sich alles um die Technologien in Elektrofahrzeugen, Hybriden und Ladesäulen: Von Halbleitern über Leistungselektronik bis E-Achse, von Batterie über Sicherheit bis Materialien und Leichtbau sowie Test und Infrastruktur. Hier erfahren Sie mehr.
Die Zahl der Woche vom 02.06.2025: 203.324
Ein unachtsamer Klick, eine gefälschte Mail – und das gesamte Firmennetzwerk steht still. Cyberangriffe gehören mittlerweile zum Alltag in deutschen Unternehmen. Laut dem Digitalverband Bitkom sehen sich zwei Drittel der Firmen in ihrer Existenz durch potenzielle Cyberattacken bedroht. Die wirtschaftlichen Folgen sprechen für sich: Allein im Jahr 2023 entstand durch Cyberkriminalität in Deutschland ein Gesamtschaden von rund 179 Milliarden Euro.
Vor diesem Hintergrund überrascht es nicht, dass die Unternehmen bei der IT-Sicherheit nachgerüstet haben. Wie das Institut der deutschen Wirtschaft (iwd) berichtet, stiegen die Ausgaben für Cybersicherheitsmaßnahmen im Jahr 2024 um fast 14 Prozent im Vergleich zum Vorjahr – auf insgesamt 11,2 Milliarden Euro. Das Problem dabei: Technik allein schützt nicht. Ohne kompetente Fachkräfte verpuffen viele Sicherheitsmaßnahmen wirkungslos – und genau hier liegt das eigentliche Dilemma.
Laut Bitkom könnten bis zum Jahr 2040 insgesamt rund 660.000 IT-Fachkräfte in Deutschland fehlen – eine dramatische Zahl, die nicht nur die allgemeine Digitalisierung, sondern insbesondere den Bereich Cybersicherheit betrifft. Denn der Bedarf ist enorm: Zwischen 2019 und 2024 wurden in Deutschland rund 82 Millionen Online-Stellenanzeigen veröffentlicht. Davon bezogen sich rund 1,2 Millionen konkret auf Bewerber mit Cybersicherheitskenntnissen – das entspricht etwa 1,5 Prozent aller Ausschreibungen.
Allein im Zeitraum von 2019 bis 2022 hat sich die Zahl solcher Anzeigen mehr als verdoppelt: von knapp 117.000 auf über 250.000. Der Höhepunkt war also bereits vor der aktuellen Konjunkturflaute erreicht. Zwar ist die absolute Zahl der Stellenausschreibungen mit Cyber-Bezug in den Jahren 2023 und 2024 wieder leicht zurückgegangen – was laut iwd aber nicht an einem gesunkenen Bedarf liegt, sondern schlicht an der wirtschaftlich angespannten Lage und dem damit verbundenen Rückgang an Stellenanzeigen insgesamt. Der Anteil blieb 2024 mit 204.324 offenen Stellen bei knapp 1,6 Prozent und damit auf dem Niveau von 2022.
Besonders intensiv suchen derzeit Behörden mit Sicherheitsaufgaben, Energieversorgungsunternehmen, die Verteidigungsindustrie sowie große IT-, Beratungs- und Automotive-Konzerne nach qualifizierten Cyber-Fachkräften. In diesen Sektoren ist die Bedrohungslage durch Cyberangriffe besonders kritisch, etwa durch staatlich gelenkte Angriffe oder Sabotageversuche auf kritische Infrastruktur.
Die Nachfrage nach Cybersecurity-Kompetenzen hat sich in Deutschland zwischen 2019 und 2022 mehr als verdoppelt – von rund 117.000 auf über 250.000 Online-Stellenanzeigen. Trotz eines leichten Rückgangs der absoluten Zahlen 2023 und 2024 bleibt der Anteil an allen Ausschreibungen mit rund 1,6 Prozent konstant hoch.(Bild: IW Medien GmbH)
Künstliche Intelligenz – Chance und Risiko zugleich
Ein weiterer Faktor, der die Lage zusätzlich verschärft: Künstliche Intelligenz. Sie wird im Bereich der Cybersicherheit sowohl als Schutz- als auch als Angriffswerkzeug eingesetzt. Durch automatisierte Mustererkennung oder Anomaliedetektion kann KI helfen, Angriffe schneller zu identifizieren und zu blockieren. Gleichzeitig nutzen aber auch Cyberkriminelle KI-Technologien, um zielgerichtetere und schwerer erkennbare Angriffe zu starten. Die Gefahr ist also doppelt dynamisch.
Die Zahlen des Instituts der deutschen Wirtschaft machen deutlich: Die Cyber-Bedrohung wächst, doch der Arbeitsmarkt kommt mit der Entwicklung nicht hinterher. Investitionen in Sicherheitstechnologien sind wichtig – aber ohne qualifizierte Menschen, die diese Systeme implementieren, überwachen und weiterentwickeln, bleibt das Risiko hoch. Wer die digitale Resilienz ernst nimmt, muss sich heute um die Ausbildung und Gewinnung von Cyber-Fachkräften kümmern – sonst drohen morgen nicht nur Datenpannen, sondern unter Umständen existenzielle Schäden für ganze Unternehmen.
Die Zahl der Woche vom 27.05.2025: 29 pg
Seit der Antike haben Alchemisten unermüdlich versucht, aus dem häufig vorkommenden Blei das seltene und wertvolle Gold zu gewinnen. Erst mit dem Aufkommen der Kernphysik wurde klar, dass sich chemische Methoden für eine derartige Transmutation nicht eignen. Nun jedoch hat die ALICE-Kollaboration am CERN erstmals experimentell quantifizieren können, wie in den elektromagnetischen Feldern fast lichtschnell beschleunigter Bleikerne im LHC tatsächlich Goldkerne entstehen – wenn auch nur für Bruchteile einer Sekunde und in verschwindend geringen Massen.
In den sogenannten „Near-Miss“-Wechselwirkungen zweier Bleikerne, die sich mit rund 99,999993 % der Lichtgeschwindigkeit annähern, werden die Lorentz-kontrahierten elektromagnetischen Feldlinien in eine scheibenförmige Photonendichte gepresst. Trifft eine solche Photonen-Scheibe auf einen Kern, kann sie in einem Prozess der elektromagnetischen Dissoziation ausreichend Energie übertragen, um drei Protonen auszustoßen. Das Ergebnis ist ein Goldkern (Z = 79) aus dem ursprünglichen Bleikern (Z = 82). Die ALICE-Detektoren – insbesondere die Null-Grad-Kalorimeter (ZDC) – unterscheiden hierbei anhand der Anzahl von Protonen- und Neutronenemissionen systematisch die Produktion von Thallium, Quecksilber und eben Gold.
Aus den Daten des LHC-Runs 2, der von 2015 und 2018 stattfand, ermittelte die Kollaboration, dass rund 86 Milliarden Goldnuklei entstanden sind. Dies entspricht einer Gesamtmasse von nur etwa 29 Pikogramm (2,9 × 10⁻¹¹ g), wie CERN vor Kurzem berichtete. Unter den gegenwärtigen Betriebsbedingungen erzeugt das ALICE-System in seiner Spitzenluminosität etwa 89 000 Goldkerne pro Sekunde. Erste Auswertungen von Run 3 (läuft akutell bis 2026) zeigen, dass sich diese Zahl aufgrund erhöhter Luminosität nahezu verdoppelt hat, wobei auch hier die produzierten Massen quantitativ weit unter jeder praktischen Nutzschwelle liegen.
Wissenschaftlich von herausragender Bedeutung ist dieser Nachweis, weil er die theoretischen Modelle der elektromagnetischen Dissoziation erstmals unter realen Beschleunigerbedingungen bestätigt. Zudem liefert er wichtige Hinweise zur Optimierung des Strahlbetriebs: Da die subatomaren Goldteilchen nach ihrer Erzeugung unweigerlich mit Komponenten des Strahlrohrs oder der Kollimatoren kollidieren und so zum Strahlverlust beitragen, erlauben die gewonnenen Daten eine bessere Vorhersage und Minimierung eben dieser Verluste. Damit stellt die ALICE-Analyse nicht nur einen historischen Höhepunkt moderner „Urknall-Physik“ dar, sondern legt auch einen Grundstein für die Weiterentwicklung künftiger Teilchenbeschleuniger.
Die Zahl der Woche vom 20.05.2025: 25% und 46%
Siliziumkarbid (SiC) bleibt das Zugpferd, Galliumnitrid (GaN) holt in Riesenschritten auf – zu diesem Befund kommt die Marktanalyse des Beratungs- und Research-Hauses Yole Group. Demnach steigt der weltweite Umsatz mit SiC-Leistungshalbleitern von 2023 bis 2029 im Schnitt um 24 Prozent pro Jahr und kratzt Ende des Jahrzehnts an der Marke von 10 Milliarden US-Dollar.(Yole Group) Noch rasanter wächst GaN: Von einem kleineren Ausgangsvolumen ausgehend prognostiziert Yole für dieselbe Periode eine durchschnittliche jährliche Wachstumsrate von 46 Prozent; das Segment soll 2029 rund 2,5 Milliarden US-Dollar erreichen.(Yole Group)
Zwei Technologien, zwei Erfolgskurven
Hinter den nackten Prozentzahlen verbirgt sich eine klare Arbeitsteilung: SiC punktet dort, wo hohe Sperrspannungen, Temperaturfestigkeit und Wirkungsgrad gefragt sind – allen voran in 800-Volt-Invertern von Elektrofahrzeugen. Tesla, BYD & Co. haben die Technologie früh in Serie gebracht, inzwischen ziehen praktisch alle großen Auto-OEMs nach. Auf der Zulieferseite investieren Infineon, Wolfspeed, onsemi und STMicro massiv in 200-mm-SiC-Fabriken; das treibt einerseits das Volumen, andererseits sinken damit schrittweise die Stückkosten – ein klassischer Skaleneffekt.
GaN wächst dagegen stark über Stückzahlen in Consumer- und Server-Netzteilen: Ein-Chip-ICs machen 65-W-Ladegeräte kleiner, leichter und effizienter; in Rechenzentren drängen 48-V-Architekturen mit GaN-Synchron-Rectifiern auf den Markt. Dass GaN-Schichten auf herkömmlichen 200- und 300-mm-Silizium-Wafers gefertigt werden können, erleichtert den Kapazitätsaufbau und verkürzt die Lernkurve.
Was die Prozentwerte wirklich bedeuten
Die 24-prozentige CAGR von SiC resultiert aus einem bereits beachtlichen Sockel – rund 4 Milliarden US-Dollar 2023 –, der vor allem von Automotive-Aufträgen gestützt wird. GaN startet laut Yole bei unter einer Milliarde US-Dollar; deshalb wirkt jeder zusätzliche Umsatzpunkt überproportional auf die Statistik. Entscheidend ist also nicht nur die Prozentzahl, sondern das absolute Marktvolumen, das nach wie vor klar auf der Seite von SiC liegt.
Ausblick für Entwickler
SiC wird in Hochvolt-Antrieben, Schnellladestationen sowie Photovoltaik-String-Wechselrichtern zur Standardoption.
GaN spielt seine Stärken bei mittleren Spannungen und hohen Schaltfrequenzen aus – vom USB-PD-Charger bis zum Board-Netzteil im KI-Server.
Bleibt die Frage nach der Versorgungssicherheit. Während bei SiC das Wafer-Material selbst knapp bleibt und Multi-Sourcing herausfordert, kann GaN in bestehenden CMOS-Fabs schnell skaliert werden. Für OEMs heißt das: Technologieentscheidungen sind künftig weniger eine Frage von „entweder–oder“, sondern von „wo-setzt-ich-was-ein“. Die aktuellen Yole-Zahlen liefern dafür eine verlässliche Richtschnur.
Die Zahl der Woche vom 12.05.2025: 26 MHz
26 MHz bezeichnet die Frequenz eines Quarzoszillators, der in vielen Geräten als präziser Taktgeber dient. Diese Oszillatoren sind in der Lage, stabile und genaue Frequenzen zu erzeugen, die für die Synchronisation von Kommunikationssystemen unerlässlich sind.
Warum ist 26 MHz so wichtig?
Die Wahl dieser Frequenz basiert auf verschiedenen Faktoren:
Geringes Phasenrauschen: Im Vergleich zu höherfrequenten Oszillatoren – etwa im Bereich 100 MHz oder mehr – erzeugen 26 MHz-Oszillatoren deutlich weniger Phasenrauschen. Das sorgt für eine stabilere Signalqualität, was insbesondere bei sensiblen Funkverbindungen wie GPS oder Mobilfunk von Vorteil ist.
Energieeffizienz: Gegenüber höher getakteten Oszillatoren verbrauchen 26 MHz-Quarze deutlich weniger Strom. Das macht sie ideal für batteriebetriebene Geräte wie Smartphones, Wearables oder IoT-Sensoren, bei denen Energieeinsparung entscheidend ist.
Kompakte Bauform: Im Vergleich zu älteren diskreten Taktgebern oder höherwertigen temperaturkompensierten Oszillatoren (TCXO) sind Standard-26 MHz-Oszillatoren platzsparend. Dadurch lassen sie sich problemlos in kompakte Geräte integrieren, ohne wertvollen Leiterplattenplatz zu verschwenden.
Anwendungen in der Praxis
Die Einsatzgebiete für 26 MHz-Oszillatoren sind vielfältig und konzentrieren sich vor allem auf mobile und drahtlose Kommunikationstechnologien:
Mobiltelefone: In GSM- und UMTS-Geräten ersetzt 26 MHz zunehmend komplexere Taktgeber, da sie eine stabile Frequenz bei geringem Energieverbrauch liefern – ideal für kompakte und stromsparende Smartphone-Designs.
Standortlokalisierung: Im Vergleich zu höherfrequenten Referenzoszillatoren bieten 26 MHz-Quarze eine bessere Balance zwischen Genauigkeit und Energieverbrauch. Sie ermöglichen präzise Zeitmessung und stabile Positionsbestimmung, ohne den Akku unnötig zu belasten.
Bluetooth-Module: Im Gegensatz zu integrierten PLL-basierten Lösungen nutzen viele Bluetooth-Chips 26 MHz als externe Referenz, um zuverlässig Daten zu synchronisieren – insbesondere in Wearables, Kopfhörern oder Smart-Home-Geräten, wo es auf geringen Stromverbrauch und geringe Bauhöhe ankommt.
Obwohl 26 MHz auf den ersten Blick wie eine unscheinbare Zahl wirkt, ist sie ein zentraler Bestandteil vieler heutiger Kommunikationssysteme. Ohne diese präzisen Taktgeber wären stabile Verbindungen und genaue Ortung in der heutigen vernetzten Welt kaum vorstellbar.
In deutschen Haushalten liegen derzeit ca. 195 Millionen alte Handys und Smartphones ungenutzt in Schubladen, Kartons und Schränken – im Durchschnitt werden diese Geräte erst nach 11 Jahren endgültig entsorgt oder recycelt. Das zeigt eine aktuelle Erhebung des Digitalverbands Bitkom in Zusammenarbeit mit der Deutschen Umwelthilfe.
Der überraschende Fakt dabei: Die wenigsten dieser Altgeräte sind kaputt. Vielmehr werden sie durch neuere Modelle ersetzt und einfach „aufgehoben“ – oft für den Fall, dass das aktuelle Gerät einmal ausfällt. Doch dieser stille Elektronikschatz birgt enormes Potenzial: Jedes Smartphone enthält wertvolle Rohstoffe wie Gold, Silber, Kupfer und Kobalt. In einem durchschnittlichen Altgerät stecken bis zu 1 g Gold und 8 g Kupfer – bei 195 Millionen Geräten ist das eine gewaltige Menge ungenutzter Ressourcen.
Recycling lohnt sich also nicht nur aus Umweltgründen, sondern auch wirtschaftlich. Wer seine alten Geräte zurückgibt oder spendet, hilft mit, wertvolle Materialien wieder in den Wirtschaftskreislauf zurückzuführen – und reduziert die Notwendigkeit für umweltschädlichen Bergbau. Recycelte Smartphones helfen, unseren Planeten für kommende Generationen lebenswert zu erhalten.
Alle Infos zur ChargeTec
Die Elektromobilität nimmt immer mehr Fahrt auf. Analysten erwarten bis 2025 europaweit einen elektrischen Marktanteil von 15 bis 20 Prozent. Doch was nützt eine große Vielfalt an E-Fahrzeugen, wenn sie nicht entsprechend und flächendeckend geladen werden können? Buchen Sie ein Ticket und informieren Sie sich auf der 6. ChargeTec vom 28. bis 29. April 2026 über die Bedeutung der Ladeinfrastruktur für die Umsetzung einer weitgehend CO2-neutralen Mobilität.
Trotz des kontinuierlichen Ausbaus der Ladeinfrastruktur in Deutschland bleibt die tatsächliche Nutzung vieler Schnellladesäulen hinter den Erwartungen zurück. Aktuelle Datenanalysen zeigen, dass die durchschnittliche Auslastung von HPC-Schnellladesäulen bei lediglich 6–7 % liegt. Eine "sehr gute Auslastung" wird erst ab 30 % erreicht, was jedoch nur etwa 1 % der HPC-Säulen im Jahr 2024 verzeichneten.
Warum ist das so?
Überangebot an Ladepunkten:In einigen Regionen gibt es mehr Ladepunkte als tatsächlich benötigt werden, was zu einer geringen Auslastung führt.
Ungleichmäßige Verteilung:Die Ladeinfrastruktur ist nicht immer dort vorhanden, wo sie am meisten gebraucht wird, beispielsweise in ländlichen Gebieten oder entlang vielbefahrener Routen.
Nutzungshäufigkeit:Viele Schnellladesäulen werden nur zu bestimmten Zeiten stark frequentiert, während sie zu anderen Zeiten kaum genutzt werden.
Welche Lademöglichkeiten gibt es?
AC-Laden (Wechselstrom): Die gängigste Lademethode zu Hause oder an öffentlichen Ladesäulen. Lädt langsam mit bis zu 22 kW, ein Ladevorgang dauert oft mehrere Stunden.
DC-Laden (Gleichstrom): Schneller als AC. Üblich an Schnellladestationen mit 50–100 kW, Ladevorgänge dauern meist 30–60 Minuten.
HPC-Laden (High Power Charging): Besonders schnelles DC-Laden mit 150–350 kW. Ideal für unterwegs – je nach Fahrzeug kann in 10–30 Minuten viel Reichweite nachgeladen werden.
Wie geht es weiter?
Um die Effizienz der Ladeinfrastruktur zu steigern, sind eine bessere Verteilung der Ladepunkte, intelligente Lastmanagementsysteme und eine verstärkte Nutzung von Schnellladesäulen erforderlich.Nur so kann die Elektromobilität langfristig erfolgreich in den Alltag integriert werden.
Die Zahl 2,718... ist besser bekannt als die Eulersche Zahl. Sie gehört zu den wichtigsten Konstanten in der Mathematik und taucht überall dort auf, wo sich Dinge mit der Zeit verändern – also immer dann, wenn etwas wächst, zerfällt oder sich allmählich verändert. In der Elektronik begegnet sie uns zum Beispiel beim Laden und Entladen von Kondensatoren.
Wenn ein Kondensator in einer Schaltung über einen Widerstand geladen wird, passiert das nicht abrupt, sondern folgt einer ganz bestimmten Kurve – einer sogenannten exponentiellen Kurve. Und genau diese wird durch die Eulersche Zahl bestimmt. Nach einer bestimmten Zeit, der sogenannten Zeitkonstante, hat der Kondensator etwa 63 % seiner Endspannung erreicht. Diese Eigenschaft wird genutzt, um das Verhalten von Schaltungen exakt zu planen.
Kennst du die schönste Formel der Welt?
Die Eulersche Identität eiπ + 1 = 0 wird in der Mathematik häufig als besonders elegant angesehen, da sie fünf fundamentale mathematische Konstanten – e, π, i, 1 und 0 – in einer einzigen Gleichung vereint. Sie wurde zur schönsten Formel der Welt gekrönt und wird von Mathematikern, Physikern und Ingenieuren in Bereichen wie der komplexen Analysis, Signalverarbeitung und Quantenphysik angewendet.
Warum das so wichtig ist? Weil dieses Verhalten in unglaublich vielen elektronischen Anwendungen vorkommt:
In Filtern, die Störfrequenzen aus Signalen entfernen
Bei Verstärkern, um saubere Signalübergänge zu ermöglichen
In Zeitschaltungen, wie z. B. Einschaltverzögerungen
Beim langsamen Herunter- oder Hochregeln von Licht und Spannung
Ohne die 2,718... wären solche Schaltungen schwer berechenbar – oder würden ganz anders funktionieren. Sie ist sozusagen der Taktgeber für viele analoge Abläufe in der Elektronik.
Am 14. April ist Welt-Quantentag – ein guter Anlass, einen genaueren Blick auf eine der faszinierendsten Technologien der Gegenwart zu werfen: den Quantencomputer. Denn was auf den ersten Blick nach Science-Fiction klingt, ist längst Realität. Und die ist – wortwörtlich – eiskalt: Viele Quantenprozessoren arbeiten bei Temperaturen von nur 0,015 K (10 bis 15 Millikelvin), also knapp über dem absoluten Nullpunkt.
Warum so kalt? Ganz einfach: Quantencomputer beruhen auf sogenannten Qubits, die sich in quantenmechanischen Zuständen befinden. Bei Raumtemperatur würden diese Zustände durch das allgegenwärtige thermische Rauschen sofort gestört oder zerstört. Um also überhaupt mit Qubits rechnen zu können, müssen sie extrem stark gekühlt werden – und das gelingt derzeit am besten mit supraleitenden Schaltkreisen, wie sie etwa von IBM, Google oder Rigetti verwendet werden.
Diese Chips werden mithilfe sogenannter Verdünnungskryostate auf Temperaturen heruntergekühlt, wie sie sonst nur im Weltall vorkommen. Das eigentliche Rechenelement ist winzig – meist nur wenige Millimeter groß –, sitzt aber eingebettet in einem metergroßen Kühlapparat, der an eine Mischung aus Kaffeemaschine und Science-Lab erinnert.
Nicht alle Quantencomputer brauchen es so frostig: Ionenfallen, photonische Qubits oder auch Spin-Qubits in Silizium könnten künftig auch bei höheren Temperaturen – teilweise sogar bei Zimmertemperatur – funktionieren. Diese Technologien sind aber teils noch in der Entwicklung oder schwieriger zu skalieren.
Klar ist: Wer sich heute mit Quantencomputing beschäftigt, braucht nicht nur Know-how in Informatik, Physik und Materialwissenschaft – sondern auch ein gutes Verständnis für Kryotechnik und das Verhalten von Materie im Grenzbereich zwischen Sein und Nichts.
Zum Welt-Quantentag feiern wir deshalb nicht nur die theoretischen Grundlagen der Quantenmechanik – sondern auch die Ingenieurskunst, die es ermöglicht, Rechenleistung bei Temperaturen nahe dem absoluten Nullpunkt zu erzeugen.
Der britische Autohersteller Vauxhall hat reagiert: Um seine Kundschaft vor zusätzlichen Kosten zu schützen, hat das Unternehmen angekündigt, dass ab sofort alle Elektrofahrzeuge der Marke unter der 40.000-£-Marke liegen. Hintergrund ist eine neue Regelung der britischen Regierung, die für E-Autos mit einem Listenpreis über 40.000 £ einen saftigen Aufschlag bei der Kfz-Steuer vorsieht.
Der sogenannte Expensive Car Supplement schlägt mit 425 £ jährlich zu Buche – und das über fünf Jahre hinweg. Damit wird die Anschaffung eines eigentlich günstigen E-Autos plötzlich zur Luxussteuer-Frage. Wer sein E-Fahrzeug ab dem 1. April 2025 zulässt und über der Preisgrenze liegt, zahlt also deutlich mehr. Für Modelle unterhalb der Schwelle gilt hingegen eine vergleichsweise geringe Pauschale von nur 10 £ im ersten Jahr.
„Diese Regelung trifft genau die Falschen“, findet Vauxhall-Geschäftsführer Eurig Druce. „Gerade die erschwinglicheren Modelle, die vielen den Einstieg in die Elektromobilität ermöglichen, werden durch die neue Steuerpolitik unattraktiver. Dabei wollen wir doch möglichst viele Briten zum Umstieg bewegen.“
Auch andere Hersteller reagieren bereits. Der neue Abarth 600e etwa wird bewusst unter der Steuergrenze platziert – 36.975 £ für die Basisversion, 39.875 £ für die Premiumausstattung. Preisstrategien werden damit zunehmend zur steuerlichen Gratwanderung.
Zum Hintergrund: Bisher waren batterieelektrische Fahrzeuge (BEVs) in Großbritannien von der sogenannten Vehicle Excise Duty (VED) befreit. Ab sofort müssen sie – je nach Preis – jedoch mit zusätzlichen Kosten rechnen. Fahrzeuge, die zwischen dem 1. April 2017 und dem 31. März 2025 zugelassen wurden, zahlen künftig den regulären Satz von 195 £ pro Jahr. Für Hybridfahrzeuge entfällt außerdem der bisherige Steuerbonus.
So ärgerlich die neue Regelung auch ist – für Kunden ergibt sich zumindest ein kurzfristiger Vorteil: Hersteller wie Vauxhall senken die Preise, um attraktiv zu bleiben. Wer jetzt zuschlägt, spart nicht nur Steuern, sondern vielleicht auch den ein oder anderen Tausender beim Kaufpreis.