Rückblick auf 75 Jahre Elektronik

Und über allem schwebt die Idee

von Dipl.-Ing. Klaus H. Knapp

Schlagen wir den legendären Zukunftsroman des Journalisten und Schriftstellers Edward Bellamys „Rückblick aus dem Jahr 2000 auf das Jahr 1887“ auf, so finden wir in ihm Prophezeiungen eines optischen und akustischen Nachrichten-Fernverkehrs. Das war zum Zeitpunkt der Niederschrift, das Buch erschien 1888, vollkommen phantastisch und utopisch. Fast 50 Jahre später schrieb Hans Dominik, der große Science Fiction Autor: „Wir werden im Jahr 2000 einen Weltrundfunk in Wort und Bild haben. Zum Empfang haben wir einen einfachen, zuverlässigen und billigen Apparat mit einem einzigen Bedienungsknopf. Viele hundert elektrische Wellen bringen neue Klänge und Bilder aus allen Teilen der Erde. Eben noch vollkommen rein und klar, frei von allen Verzerrungen, etwa die Unterhaltung dreier Polarforscher und auf der Mattglasscheibe ebenso störungsfrei das gigantische Eismassiv der Antarktis, über das die Männer dahinziehen.
Mit einer Knopfdrehung erschauen wir das Bühnenbild der Metropolitan Opera in New York, während gleichzeitig die Stimmen der Sänger in unser Ohr dringen. Aber der Hörer und Seher des Jahres 2000 will ja nicht nur Darbietungen aus irgendwelchen Kunststätten haben. Er wünscht sich hochaktuelle Augenblicksreportage von allen Punkten der Erde, wo etwas wichtiges vorfällt. Die Erfüllung dieses Wunsches setzt eine die ganze Erde umspannende Funkagentur voraus. Nur die Frage steht zur Erörterung, ob eine derartig gewaltige Organisation technisch und wirtschaftlich durchführbar sein wird. Technisch bis zum Jahr 2000 wohl. Ob auch wirtschaftlich? Ganz zwangsläufig werden auch die stürmischen Fortschritte auf dem Gebiet der akustischen und optischen Funktechnik die Organisation die der großen Nachrichtenagenturen tief einschneidend verändern. Es ist sehr wahrscheinlich, dass deren Hauptkunden im Jahr 2000 nicht mehr die Zeitungsredaktionen, sondern die Großsender der Erde sein werden. Vielleicht wird sogar die gedruckte und bebilderte Zeitung zu jenem Zeitpunkt durch den Rundfunk in Wort und Bild in den Hintergrund gedrängt werden.“

Wirklich, das schrieb Hans Dominik in der ersten Ausgabe des Jahres 1931 in der deutschen Zeitschrift „Funkschau“ (die „Radioschau“, einer der Vorgänger der ES, hat über Jahre hinweg eine dichte Zusammenarbeit mit der „Funkschau“ gepflegt). Und Dominik war nicht der einzige, der so um diese Zeit herum Visionen hatte. David Sarnoff, der legendäre Präsident der RCA, äußerte sich schon im April 1929 zum Thema „Das anbrechende Jahrhundert des Fernsehens“. Und dann gab es Eduard Rhein, damals beim Ullstein-Verlag in Berlin, später Gründungs-Chefredakteur der deutschen Programmzeitschrift „HörZu“. Er fragte im November 1929: „Wie viele Punkte braucht man, um ein anständiges Fernsehbild zu übertragen?“ Und er führte das seinen Lesern drastisch vor Augen, indem er ein und das gleiche Bild mit verschiedenen Druckrastern drucken ließ. Seine Grundüberlegungen – weit weg von einem noch gar nicht existierenden Fernsehsystem – haben bis heute Gültigkeit.

Das Neueste im Büro konnte man aus der ersten Ausgabe von „Fortune“ im Februar 1930 entnehmen: Eine Direkt-Sprechanlage vom Chef zu seinen Mitarbeitern unter Umgehung des Telefons (unter dem Slogan „The Modern Miracle of Business“) sowie eine Schreibmaschine (Bild 1), die automatisch Rechnungen über mehrere Posten summieren und schreiben konnte („The only billing machine that performs direct multiplication“).

Die Elektronik lag noch in den Windeln. 1925 – also im ersten Jahr der „Elektronikschau“ – formulierte der Wiener Physiker und spätere Nobelpreisträger Erwin Schrödinger seine berühmte Differentialgleichung, die die Welleneigenschaft der Elektronen in das Atommodell Heisenbergs einführte. Die Schrödinger-Gleichung ist für die künftige Quantenelektronik von großer Bedeutung. Hermann Tietz („Hertie“) verkaufte die elektrische Heißluftdusche „Fön“ (Bild 2) für 30 Mark und die ersten elektrischen Heizkissen unter der Bezeichnung „Thermophor“ für 25 Mark. Ernst Sachs produzierte im Geburtsjahr der ES-Vorgänger bereits Ersa Lötkolben am laufenden Band (Bild 2a). Die ersten für den Rundfunkempfang geeigneten Detektorgeräte waren am Markt, aber erst 1937 veröffentlichte Richard Feldtkeller seine Vierpoltheorie, die die Grundlage für die systematische Entwicklung aller elektronischen Systeme wurde. 1938 bauten William Hewlett und David Packard in Kalifornien in einem der berühmtesten Holzschuppen der Welt einen „Audio-Oszillator“ zusammen – das erste Produkt der späteren Weltfirma HP.

Dann erfand Konrad Zuse den Computer. Der Berliner Bauingenieur hatte 1936 begonnen, in der elterlichen Wohnung ein binär arbeitendes Rechensystem zu entwickeln, das später „Z 1“ genannt wurde. Er wollte damit zeitraubende statische Berechnungen aus dem Bauwesen soweit wie möglich automatisieren. Bei der Konzeption dieses ersten (noch mechanischen) Rechenwerks nahm Zuse (Bild 3) bereits Prinzipien vorweg, die der aus Ungarn stammende amerikanische Mathematiker John von Neumann erst Jahre später theoretisch formulieren sollte. Zuses Maschine arbeitete bereits mit Exponent und Mantisse und verwendete das heutige Prinzip der Gleitkommadarstellung. Es war der erste programmgesteuerte Rechenautomat der Welt. In den USA wurde der erste digitale Rechner an der Havard-Universität von Howard H. Aiken aufgebaut: Die „Mark 1“ (Bild 4) lief erst 1944, fünf Jahre später dann die „ENIAC“, die für lange Zeit der leistungsfähigste Rechner der Welt war.

Einen für die gesamte digitale Nachrichtentechnik entscheidenden Schritt machte der sowjetische Ingenieur Vladimir Kotelnikow, als er 1933 das sogenannte Abtasttheorem mathematisch exakt formulierte. Das Abtasttheorem macht eine Aussage darüber, wie man ein gegebenes analoges Signal durch zeitlich fest definierte Abtastwerte digitalisieren und später umgekehrt fehlerfrei wieder herstellen kann. Dazu muss die Zahl der pro Sekunde entnommenen Abtastwerte mindestens doppelt so groß sein wie die höchste im analogen Signal vorkommende Frequenz. Dieses für die gesamte heutige Nachrichtentechnik fundamentale Gesetz wurde erst 1948 durch den amerikanischen Mathematiker und Physiker Claude Shannon (Bild 5) bekannt, der es in seiner umfassenden Informationstheorie als Grundlage verwendete.

1942 legte Walter Schottky wichtige Grundlagen für die Halbleiterphysik, als er die Wirkung von Übergängen zwischen Metall und Halbleitern aufzeigte. Heinrich Welker, später Forschungschef bei Siemens, konnte 1945 die P-N-Übergänge in Halbleitern klären. Der große Durchbruch für die Halbleitertechnik kam aber im Winter 1947/48, als John Bardeen, Walter Brattain und William Shockley bei den Bell Laboratories den Transistor erfanden. Innerhalb weniger Jahre wurden die bis dahin dominierenden Elektronenröhren in Nischenanwendungen abgedrängt – die Halbleitertechnik begann ihren Siegeszug. Heinz Zemanek in Wien blieb es vorbehalten, mit seinem „Mailüfterl“ den ersten transistorbestückten Computer zu bauen (der Name ist eine ironische Anspielung an „Whirlwind“, ein aufwendiges amerikanisches Computerprojekt aus dieser Zeit).

1958 entwickelte Gordon Moore (Bild 6), später Intel-Chairman, bei Fairchild den ersten NPN-Hochleistungstransistor, den IBM als Treiber für Kernspeicher einsetzte: Es war der 2N967, der über einen langen Zeitraum hinweg Maßstäbe setzte. Der Schweizer Jean Hoerni, ebenfalls bei Fairchild, entwickelte den Planartransistor, ohne den später die „Chips“ nicht denkbar gewesen wären. Fairchild war überhaupt in dieser Zeit der große Name in der Halbleitertechnik: Robert („Bob“) Noyce, später auch eine Intel-Legende, wurde dort General Manager, kaum dass er 30 Jahre alt war.

Noch war man überall auf der Welt dabei, die alten Röhrengeräte zu „transistorieren“, als am 12. September 1958 erneut Technikgeschichte in den USA geschrieben wurde. In den Laboratorien von Texas Instruments erfand Jack StClair Kilby den monolithischen Integrierten Schaltkreis (Bild 7). Er leitete damit eine Entwicklung ein, die der heutigen Halbleiterindustrie (in der die „Chips“ dominieren) einen Weltumsatz von 200 Milliarden $ beschert. Die Patente von Kilby waren über einen langen Zeitraum eine wahre Goldgrube für TI – die eingenommenen Lizenzgebühren sollen zeitweilig die Gewinne aus dem aktiven Halbleitergeschäft des Unternehmens übertroffen haben.

1969 brachte die gerade erst gegründete Firma Intel ihren ersten Speicherchip auf den Markt, ein statisches RAM mit 64 Bit. Ende 1970 begann man, das erste 1K-DRAM bei Intel zu produzieren (kein Irrtum: Intel begann wirklich als Produzent von Speicherchips). Bereits 1972 war dieser Baustein mit der Bezeichnung 1103 ein Massenprodukt, das den Kernspeichern (Bild 8) endgültig den Todesstoß versetzte. 1971 passierte dann bei Intel etwas, das dem Unternehmen zu seiner heutigen Weltstellung verhalf. Ted Hoff (Bild 9) entwarf den ersten kommerziellen Mikroprozessor, den legendären 4004. Er war der erste on-chip Computer und brachte die Rechenleistung der alten ENIAC aus den späten 40er Jahren auf ein Stück Silizium. Hoff (Intel-Mitarbeiter Nummer 12) stieß mit seiner Entwicklung nicht auf große Begeisterung bei seinen Marketing-Leuten, die sich viel lieber nur auf die so erfolgreichen Speicherchips fokussiert hätten. Alle Welt arbeitete an immer größeren Rechnern – was sollte da ein solcher Winzling von „Micro“-Computer ausrichten können? Man ließ aber Hoff gewähren – und der große Durchbruch kam dann zehn Jahre später mit dem i80286. Seither hat Intel das Heft bei den Computerchips nicht mehr aus der Hand gegeben.

Vor Hoff hatte schon ein anderer eine weitere entscheidende Erfindung gemacht: Robert Dennard (Bild 10) von IBM entwarf die 1-Transistor-Speicherzelle, die heute die Grundlage aller DRAMs ist. Die Reduzierung der Speicherzelle auf einen Steuertransistor und einen Kondensator als Ladungsspeicher brachte nicht nur gewaltige Platzeinsparung gegenüber den bisherigen 6-Transistor- oder 3-Transistor-Designs für die Zelle. Gleichzeitig ging auch die Leistungsaufnahme drastisch zurück, eine wichtige Voraussetzung für immer größere Speicherkapazitäten auf dem Chip. Weitere Namen erschienen auf der Halbleiterbühne: Peter Sprague und Charlie Sporck, Lester Hogan, Jerry Sanders III und viele andere mehr. Das „Silicon Valley“ wurde zur Inkarnation des amerikanischen Traumes der unbegrenzten Möglichkeiten.

Mit den dramatischen Entwicklungen auf dem Halbleitergebiet in den USA konnten die Europäer nicht mithalten. Sie verloren in den 70er und auch noch in den 80er Jahren an Boden. Mitte der 80er Jahre dämmerte allen Beteiligten, dass mit der Halbleitertechnik der Schlüssel für künftiges Wachstum in einer Informationsgesellschaft aus der Hand gegeben würde. Die europäischen Unternehmen formierten sich neu, ein europaweites Forschungs- und Entwicklungsprogramm wurde mit JESSI (Joint European Submicron Silicon) aufgelegt, das den Abwärtstrend umkehrte und heute mit MEDEA (Micro-Electronics Developments for European Applications) erfolgreich fortgeführt wird. Die Erfolge sind messbar: Alle drei großen europäischen Halbleiterfirmen (Infineon Technologies, Philips Semiconductor, STM) sind mittlerweile unter den „Top Ten“ der Welt. Mit der deutschen Infineon haben die Europäer auch das zur Zeit am schnellsten wachsende Halbleiterunternehmen der Welt.

Schon 1917 hatte Albert Einstein die induzierte Emission von Licht vorausgesagt. Der erste Rubin-Laser wurde aber erst 1960 durch Theodore Maiman konstruiert. Zwei Jahre später kam der erste Halbleiterlaser, womit sich der Weg in die optische Nachrichtentechnik öffnete. Hier setzten sich bald die Europäer mit an die Spitze der Entwicklung: Deutschland gilt auf dem Gebiet der optischen Nachrichtentechnik als Weltspitze, was die Durchdringung im öffentlichen Netz angeht.

Am Übergang auf das neue Jahrtausend, nach nun 75 Jahren, verändert sich die Elektronik. Hardware wird zunehmend unwichtiger, die Bedeutung der Software nimmt zu. Hardware ist nur mehr eine Voraussetzung, um Neues zu gestalten. Die Form dieses Neuen bestimmt die Software. Das von Tim Berners-Lee erfundene „Web“, ein virtuelles Gebilde, chaotisch aufgebaut mit nur wenigen festen Strukturen, wird zum Schlüssel für alles Neue. Es ist Ressource und Transportweg zugleich, ist anonym, gehört niemanden und hat trotzdem eine größere Bedeutung als das Welttelefonnetz, das man früher einmal den „größten Automaten der Welt“ genannt hat. Hardwarekomponenten weichen zunehmend Softwarestrukturen – am deutlichsten sieht man das bei den elektrische Wellenfiltern, die kaum mehr aus Spulen und Kondensatoren, meist jedoch aus programmierbaren Transistorgattern bestehen.

Was uns die nächsten 25 Jahre bis zum 100. Geburtstag der Elektronikschau bringen? Wir haben es für Sie nachgelesen im Buch „Reality Check“:
2004: Sonnenenergie fürs Volk. Solartechnik wird wirtschaftlich wettbewerbsfähig, weniger in den hochindustrialisierten Ländern, als vielmehr in Landstrichen ohne Strominfrastruktur.
2005: Chirurgie ohne Messer. Für einige Operationen wird man eine Kombination von Kernspintomografie und gezielter Ultraschallanwendung einsetzen können.
2006: Die ersten Putzroboter kommen in die Geschäfte.
2007: Der Einzelhandel für den Tagesbedarf geht „online“, 2008 sollen bereits 20 % der Amerikaner ihren Lebensmittelbedarf online decken.
2010: Die CD steht am Ende. Neue Speichermedien auf Halbleiterbasis werden sie ersetzen. Diese sind kleiner und brauchen weniger Energie zum Abspielen. So wie die CD die alte Vinylplatte verdrängt hat, so wird dann die CD von der Halbleitertechnik verdrängt.
2013: Das digitale Fachbuch kommt. Nachschlagewerke, Sachbücher und Fachzeitschriften werden elektronisch verlegt. Hauptgrund: Das digitale Buch kostet nur etwa 1/10 der Papierversion und ist schneller und billiger zu transportieren. Obendrein sind Updates schneller zu realisieren. Aber: Bücher – vor allem schöngeistige und Standardwerke – werden niemals verschwinden!
2016: Das Holophon kommt. Mit der Bereitstellung großer Informationsbandbreiten in die Haushalte durch Glasfasertechnik kann man ein Bildtelefon realisieren, dass von der anrufenden Person ein dreidimensionales Hologramm realisiert, so als wenn man ihr tatsächlich gegenübersitzen würde.
2019: erste selbstfahrende kommerzielle Fahrzeuge.
2034: Jedes zweite Auto ist ein Elektroauto.
2044: Roboter, die andere Roboter herstellen können.

Vieles davon zeichnet sich erst am Horizont ab. Was man davon halten soll, hat ein bekannter Kabarettist vor vielen Jahren so formuliert: „Ein Horizont ist eine imaginäre Linie, die sich um so weiter entfernt, je näher man ihr kommt“. Wir stellen es unseren Lesern anheim, daraus ihre eigenen Schlüsse zu ziehen.

Bildtexte:
Bild 1:
Ein früher Vorläufer der Computer: Von Burroughs stammte diese rechnende Schreibmaschine aus dem Jahr 1930.

Bild 2:
Der „Fön“, längst eine Warengattung, ist ein eingetragenes Warenzeichen der AEG gewesen.

Bild 2a:
Die Ersa Lötkolben wurden 1921 erstmals auf der Leipziger Messe präsentiert.

Bild 3:
Konrad Zuse, an seiner Z4 arbeitend. Der vor drei Jahren verstorbene Zuse hat lange um die Anerkennung seiner Priorität als Erfinder des Computers kämpfen müssen.

Bild 4:
Die „Mark 1“, ein gigantischer Röhrenrechner, steht heute als Museumsstück in der Havard-Universität.

Bild 5:
Claude Shannon wurde schon zu Lebzeiten eine Legende durch die Informationstheorie, die bis heute die gesamte Informations- und Nachrichtentechnik beeinflusst.

Bild 6:
Das „Moore´sche Gesetz“ des ehemaligen Intel-Chefs Gordon Moore ist zu einer Art Naturgesetz über die Entwicklung der Leistungsfähigkeit von Computerchips geworden. Moore formulierte es 1978 auf dem International Electron Devices Meeting.

Bild 7:
Auszug aus dem Laborbuch von Jack Kilby vom Tag, an dem er den ersten Integrierten Schaltkreis bei Texas Instruments gebaut hatte – im September 1958.

Bild 8:
Kernspeicher waren lange die Arbeitsspeicher der Rechner: Mühsam herzustellen und platzverschwendend. Mit den ersten kommerziellen Speicherchips von Intel waren ihre Tage gezählt.

Bild 9:
Ted Hoff war seinerzeit der Meinung, man könne die Entwicklung des Mikroprozessors nicht patentieren, weil er aus lauter bekannten Elementen zusammengesetzt war.

Bild 10:
Robert Dennard von IBM war der Mann, der die 1-Transistor-Speicherzelle erfand und so den Weg freimachte für die heutigen DRAM.