Die wichtigsten IT-Innovationen, die unsere Gegenwart prägten.

© Stock.adobe.com | karrastock

Die wichtigsten IT-Innovationen, die unsere digitale Gegenwart prägten

Wer heute als junger Mensch studiert, erfüllt alle Definitionen des Digital Native. Er kennt keinen Lebensabschnitt ohne alltägliche Digitaltechnik – da das Durchschnittsalter heutiger Studierender weit unter 25 angesiedelt ist, ist das ein Automatismus: Schon Mitte der 1990er prägten viele digitale Bausteine unser Leben.

Spannend ist unsere digitale Gegenwart deshalb fraglos. Nicht minder interessant sind auch die Hintergründe. Denn hinter omnipräsentem Internet, Smartphones und deren Energiespeichern stecken jahrzehntealte Innovationen, ohne die die heutige Welt nicht in ihrer Form existieren würde. Dabei wollen wir nicht auf absolute Grundlagen-Erfindungen wie beispielsweise Funktechnik eingehen, sondern ganz konkret auf IT.


Anzeige

1. Der (bipolare) Transistor

Manche Erfindungen sind die Ausgangsbasis für „alles“. Sie sind so bedeutsam, haben so viele Anwendungsmöglichkeiten, dass ohne sie unzählige nachgeschaltete Erfindungen unmöglich gewesen wären. Für die Industrialisierung war dies die Dampfmaschine, für den Durchbruch der Elektrifizierung die Glühbirne.

Für den IT-Bereich nimmt der Transistor diesen Platz ein. Dieses, korrekt als bipolarer Transistor bezeichnete Bauteil ist durch seine Funktion als Halbleiter der Meilenstein, wegen dem wir heute überhaupt Computer der bekannten Bauart (und Kompaktheit) besitzen.

Vor dem Transistor basierten alle Computer auf Relais und Elektronenröhren und waren deshalb raumfüllende, oft tonnenschwere Technik-Monumente. Dann jedoch führten mehrere Schritte zur technischen Revolution:

  • 1925 ließ sich der Physiker Julius Edgar Lilienfeld das von ihm erdachte Grundprinzip des Feldeffekttransistors (der sogenannte unipolare Transistor) patentieren. Mangels Technik war jedoch die praktische Umsetzung nicht möglich.
  • 1934 bekam der Physiker Oskar Heil ein Patent auf den technischen Aufbau eines Feldeffekttransistors.
  • In den 1940ern experimentierten deutsche Wissenschaftler für Telefunken mit Doppelspitzendioden zur Verbesserung von Radaranlagen. Dabei nutzten sie erstmals polykristallines Silizium und Germanium.
  • Im gleichen Zeitraum arbeitete in den USA ein Forscherteam um Physiker Karl Lark-Horovitz an einer ähnlichen Aufgabenstellung. Diese führte zur Entwicklung der theoretischen Grundlagen für den Spitzentransistor und somit der ersten Bauform eines bipolaren Transistors.

1947 führten all diese Arbeiten zum Durchbruch: John Bardeen, William Shockley und Walter Brattain, alles Physiker, arbeiteten für die Bell Telephone Laboratories; die Forschungsabteilung von Western Electric und der AT&T Telefongesellschaft.

Dort machte das Team aus der Theorie die Praxis und erschuf den ersten funktionsfähigen Spitzentransistor. In den Folgejahren wurde das Prinzip n ausgebaut, es entstanden weitere bipolare Transistorvarianten. 1956 erhielten die drei Forscher den Physik-Nobelpreis, während gleichsam der Transistor allmählich die Oberhand gegenüber der Elektronenröhre in praktischen Anwendungen bekam – darunter nicht nur Haushaltselektronik, sondern vor allem auch Computer.

Ohne den Transistor gäbe es vielleicht Digitalisierung. Sie wäre jedoch keinesfalls annähernd so kompakt und stromsparend wie wir es heute kennen. Smartphones wären höchstwahrscheinlich unmöglich, halbwegs leistungsfähige Computer hätten mindestens die Abmessungen eines großen Kleiderschranks. Erst der Transistor und seine in den Folgejahrzehnten immer weiter vorangetriebene Miniaturisierung erlaubte es, Digitaltechnik zu einem Wunderwerk im Hosentaschenformat zu machen.

2. Die speicherprogrammierbare Steuerung

Der Transistor war die wichtige physische Erfindung. Doch auch nachdem er sich durchsetzen konnte, arbeiteten alle Computer nach einem starren Prinzip: Dem der verbindungsprogrammierten Steuerung (VPS) (auch Relay Logic genannt).

Dabei ist das Rechnersystem intern fest verdrahtet. Dadurch kann ein Computer nur feste Aufgabenstellungen bewältigen, etwa addieren. Soll er etwas anderes tun, beispielsweise subtrahieren, müssen die Leitungen physisch verändert und/oder Relais ausgetauscht werden; es kann nicht einfach umprogrammiert werden. Das machte Computer früherer Epochen vor allem unflexibel.

Dies wurde im Verlauf der 1960er immer problematischer. Computerisierte Anwendungen stiegen in ihrer Bedeutung dramatisch an; gleichsam hing oft alles an einem einzigen falschverdrahteten Bauteil – allein die Fehlersuche dauerte deshalb oft Stunden oder gar Tage.

1968 wollte die Getriebe-Unterabteilung des Automobilherstellers General Motors (GM) eine kompakte, nicht mehr festverdrahtete Steuerungselektronik für eine neue Generation von Automatikgetrieben entwickeln lassen. Dabei stützte sich GM auf ein Theoriepapier, welches der Ingenieur Edward R. Clark zuvor veröffentlicht hatte. Darin beschrieb er Steuerungen, die durch Programmierung frei konfigurierbar waren. Der Gewinner der GM-Ausschreibung war Bedford Associates, ein kleines Unternehmen, mehr ein Think-Tank.

Die Firma machte aus der theoretischen Arbeit eine praktische Steuerung. Sie hatte bereits alles, was eine speicherprogrammierbare Steuerung (SPS) (auch Programmable Logic Controller, PLC) ausmacht:

  • Ein zentraler Prozessor (CPU), der Eingaben interpretiert, anhand der Programmierung im Speicher ausführt und Ausgabesignale erzeugt.
  • Eine Speichereinheit, in der die Programmierung sowie Eingabedaten abgelegt werden.
  • Ein Interface für (programmierenden) Input sowie (kontrollierenden) Output.

Erst damit wurden Computer wirklich digital arbeitend und flexibel. Nur durch Umprogrammieren konnten Sie nun die Funktionen wechseln. Bis auf wenige Spezialanwendungen, bei denen keine freie Programmierbarkeit gegeben sein muss, arbeiten alle heutigen Digitalanwendungen nach diesem Prinzip.

3. Der Rechnerverbund (auch Computercluster)

Wer diesen Text liest, hat wahrscheinlich schon einmal ein Auto geschoben, an einem Tauziehen teilgenommen oder eine Gruppenarbeit durchgeführt. Daraus entstand vielleicht eine Erkenntnis: Wenn viele dasselbe tun, sind nicht nur höchste Erfolge möglich, sondern muss der Einzelne oftmals weniger leisten, kann vielleicht sogar ausfallen.

Dieses Prinzip lässt sich 1:1 auf eine weitere wichtige Innovation für die heutige IT-Welt umlegen: Rechnerverbünde oder Computercluster. Mehrere, oft gleich aufgebaute, Rechner (in diesem Fall als Knoten oder Nodes bezeichnet), die miteinander vernetzt sind. Dadurch ergeben sich drei Möglichkeiten:

  • Wesentlich höhere Maximalleistungen dadurch, dass die Fähigkeiten aller Computer gebündelt und addiert werden (High-Performance-Computer-Cluster, HPC)
  • Verringerte Belastung der einzelnen Computer im Normalbetrieb, da die Last aufgeteilt wird (Load-Balancing-Cluster, LBC).
  • Eine erhöhte Ausfallsicherheit, weil die verbliebenen Computer den Ausfall eines oder gar mehrerer Geräte kompensieren können (High-Availability-Cluster, HAC). Die Kompensationsfähigkeit ist hier umso höher bzw. die Leistungsverluste umso niedriger, je mehr Rechner vorhanden sind.

Heutzutage sind Cluster eine der wichtigsten Stützen der Digitalisierung. Sie gibt es in der kompaktesten Bauart, den sogenannten Micro-Clustern aus zwei Rechnern für Microsoft-Server-Anwendungen ebenso, wie sie als tausende Computer umfassende „Farmen“ existieren – unverzichtbar unter anderem für Cloud-Computing, Hosting großer Datenmengen (Stichwort Netflix), die Prozessierung von künstlicher Intelligenz (KI) oder auch die Arbeit von Supercomputern.

All dies geht auf ein Theoriepapier zurück, welches der US-Computerarchitekt Gene Amdahl 1967 im Rahmen seiner Arbeit beim Computerhersteller IBM verfasste. Darin skizzierte er die theoretisch-mathematischen Grundlagen für parallellaufende Rechenprozesse, das sogenannte Amdahlsche Gesetz. Damit erstellte Amdahl eine (von zwei) wichtigen Basen, auf denen erst das möglich wurde, an was die Advanced Research Projects Agency* bereits seit 1966 arbeitete, aber erst 1969 praktisch vollenden konnte: das ARPANET. Es verband verschiedene Rechenzentren miteinander – und gilt somit als allererste Umsetzung dessen, was wir heute als Internet kennen.

(*ARPA, eine Entwicklungsbehörde des US-Verteidigungsministeriums, firmiert heute als DARPA)

4. Die Paketvermittlung

Manche Leser werden über die Startseite von audimax auf diesen Artikel gelangt sein, andere befanden sich vielleicht im Kategoriebereich. Immer jedoch geschah dann das Gleiche: Ein Mausklick oder Fingertipp auf die Überschrift. Damit wurde ein Prozess ausgelöst, Text und Bilder wurden auf digitalem Weg von den audimax-Servern auf das Endgerät des Lesers übertragen, bis der fertige Artikel geladen war. Doch wie?

Die dahinterstehende Technik nennt sich Paketvermittlung (auch Packet Switching genannt). Überaus stark vereinfacht wird dabei eine in einem Netzwerk zu übertragende Information in unterschiedliche Pakete aufgeteilt, die über verschiedene Wege geleitet werden. Das kann man sich folgendermaßen vorstellen:

  • Ein Fahrradhändler in München will ein Mountainbike möglichst günstig und deshalb in Einzelteilen in kleinen Paketen nach Flensburg versenden;
  • Ein Paket wird über Leipzig und Berlin geleitet,
  • Eines geht über Stuttgart, Frankfurt und Hannover,
  • Ein drittes geht über den Hafen von Neapel, durch die Meerenge von Gibraltar nach Rotterdam und von dort nach Flensburg,
  • Vor Ort wird der Inhalt aller Pakete zu einem Fahrrad zusammengesetzt.

Im echten Leben wie auch in der digitalen Welt hätte das den riesigen Vorteil, dass kein Übertragungsweg überlastet würde. Damit können diese leistungsschwächer gehalten werden, ohne dass sich allzu hohe Einbußen einstellen.

Maßgeblich verantwortlich für die Entwicklung dieses Prinzips war der britische Physiker Donald Watts Davies. 1967 stelle er seine theoretische Arbeit auf einem Symposium vor und erweckte so das Interesse der ARPA. Ein Jahr später bewies Watts Davis die praktische Machbarkeit der Paketvermittlung bei einem kleinen sogenannten NPL-Netzwerk in Großbritannien (NPL = National Physical Laboratory in London).

Mitarbeiter der ARPA übernahmen das Prinzip, entwickelten es praktisch weiter und konnten 1969 den Auftrag für die physische Umsetzung ihres geplanten Netzwerks an das kleine Unternehmen Bolt Beranek and Newman (BBN) vergeben – nachdem zahllose andere Firmen die Idee als nicht umsetzbar verworfen hatten.

Damit war dann auch die zweite maßgebliche Grundlage für das heutige Internet gelegt.


Anzeige

5. Das Internet an sich

Rechnerverbund plus Paketvermittlung gleich ARPANET – ganz stark vereinfacht. Damit wurden zwei der wichtigsten technisch-physikalischen Grundlagen für unser heutiges Internet bereits erläutert. Allerdings sind auch die Gründe hinter der Entstehung des ARPANET lesenswert. Denn vielfach wurde und wird immer noch kolportiert, dass es sich dabei um ein Netzwerk handelte, welches bestimmte US-Verteidigungseinrichtungen im Ernstfall (konkret einer nuklearen Konfrontation) überlebensfähiger machen sollte – dadurch, dass die Rechen- und Kommunikationsfähigkeiten über das ganze Land verteilt wurden.

Das ist jedoch bestenfalls „halb richtig“. Wahr ist, dass die US-Luftwaffe (Air Force) über den Rand-Corporation-Forscher Paul Baran ab den frühen 1960ern nach einer Methode suchte, um ihre Kommunikationseinrichtungen redundant und somit robuster zu machen. Aber die Air Force bzw. Paul Baran vergaben das Projekt an die Defense Communications Agency (DCA), eine damals recht neue und völlig andere US-Behörde als die ARPA.

Das Ergebnis des Projekts war ernüchternd:

Baran and some higher-level Defense Department
officials did not feel DCA had the technical competence
to do the job. The project was killed, at least until a
more skilled implementing agency could be found.”

(Baran und einige hochrangige Entscheider im
Verteidigungsministerium glaubten nicht, dass
die DCA die nötige technische Kompetenz für
den Job hätte. Das Projekt wurde eingestellt,
zumindest bis eine versiertere ausführende
Stelle gefunden werden konnte)

Die Arbeit der ARPA hatte mit einer geplanten Erhöhung der Robustheit von Militärnetzwerken gar nichts zu tun. Der Fokus des ARPANET lag ausschließlich darauf, mehrere US-Hochschulen, die im Auftrag des Verteidigungsministeriums forschten, miteinander zu vernetzen. Diese waren über die ganzen USA verteilt, die Vernetzung sollte einfach nur die Kommunikation schneller und einfacher machen, doppelte Bearbeitungen verhindern und Rechenkapazitäten zu Clustern bündeln. Erst, als das ARPANET sich im Verlauf der nächsten Jahre praktisch beweisen konnte, griffen andere Stellen die Idee der robusten Kommunikationseinrichtung wieder auf.

6. Der Touchscreen

Wer mag, kann sich an dieser Stelle kurz vorstellen, wie die digitale Welt der frühen 20er Jahre aussähe, wenn wir auf den meisten unserer Geräte nicht einfach nur mit den Fingern wischen und tippen würden. Wahrscheinlich hätte der Handyhersteller Blackberry mit seinen physischen QWERTZ-Tastaturen und Trackballs immer noch große Marktanteile. Auf jeden Fall wären auch die Displays wesentlich kleiner. Ob es überhaupt Tablets gäbe? Wahrscheinlich nicht.

Dass es nicht so gekommen ist, verdanken wir prinzipiell drei Personen:

  • Eric Johnson, ein Mitarbeiter des Royal Radar Establishment, eine Art britisches Gegenstück zur ARPA. Er veröffentlichte 1965 und 1967 zwei Artikel, in denen er einen kapazitiven Touchscreen skizzierte – mehr zu dessen Funktionsweise weiter unten.
  • Frank Beck, ein britischer Computerwissenschaftler an der CERN-Forschungseinrichtung.
  • Bent Stumpe, ein dänische Elektroningenieur, ebenfalls beim CERN.

Basierend auf der Arbeit von Johnson arbeiteten Beck und Stumpe ab Anfang der 1970er daran, einen kapazitiven Touchscreen praktisch umzusetzen. Zwar gibt es noch andere Techniken von Touchscreens, diese ist jedoch diejenige, die für unsere digitalen Geräte heute die mit Abstand größte Bedeutung hat.

Der kapazitive Touchscreen tritt in Form zweier Grundprinzipien auf:

  • Oberflächen-kapazitive Touchscreens sind mit einer elektrisch leitfähigen Oberfläche versehen, die mit einer schwachen Spannung beaufschlagt wird.
  • Projiziert-kapazitive Touchscreens haben je eine horizontale und vertikale gestreifte Ebene. Nur die Streifen sind mit einer schwachen Spannung beaufschlagt.

In beiden Fällen passiert folgendes: Sobald ein Finger (oder ein anderer leitfähiger Gegenstand) das Display berührt, ändert sich an exakt diesem Punkt das ansonsten gleichmäßige elektrische Feld. Die dem Touchscreen nachgeschaltete Technik ermittelt diesen Punkt und setzt einen entsprechenden Befehl um – der bei heutigen Geräten je nach Dauer der Berührung und Anzahl von Berührungspunkten unterschiedlich sein kann.

7. Der Lithium-Ionen-Akku

Seitdem Apple mit dem ersten iPhone dem Smartphone im Jahr 2007 den Startschuss gab, gibt es einen Wunsch, den die allermeisten Handybesitzer teilen und der bis zur jüngsten Studie des Digitalverbandes Bitkom immer ganz oben in den Umfragen erscheint:

„Gebt uns bitte eine längere Akkulaufzeit“

Verständlich, denn obwohl die Geräte in den vergangenen Jahren größer wurden, also theoretisch mehr Platz für größere Akkus hätten, wurden sie gleichsam immer leistungsfähiger. Das negierte sämtliche Leistungsverbesserungen der Stromspeicher – die Größe trug indes kaum bei, denn strenggenommen wuchsen nur die Displays, nicht die Geräte an sich. Außerdem wurden diese immer flacher, sodass nicht mehr Platz für Akkus entstand.

Doch so unangenehm es sein kann, wenn Smartphone oder Tablet akkubedingt mitten in einer wichtigen Vorlesung schlappmachen, so sehr ist es doch ein wenig „Klagen auf höherem Niveau“. Denn ohne die Entwicklung des kompakten und sehr leistungsstarken Lithium-Ionen-Akkus (abgekürzt Li-Ion) wären unsere Smartphones alles andere als flach – denn erst der Li-Ion Akku schaffte es, so viel Leistung in einem erstaunlich kompakten Format unterzubringen.

Zudem zeigt der Stromspeicher aufs Schönste, wie sehr unsere heutige Digitalisierung das Ergebnis eines wahrhaft globalisierten Prozesses verschiedenster Entwicklungen ist. Nach Dänemark, Deutschland, Großbritannien und den USA stammt diese nunmehr zu einem wesentlichen Teil aus Japan.

Es war das Jahr 1982. Der Chemiker Akira Yoshino arbeitete für den japanischen Chemieriesen Asahi Kasei daran, Polymere, also Kunststoffe, elektrisch leitfähig zu machen, um daraus praktische Anwendungen zu erarbeiten. Yoshinos drei wichtigste Basen:

  • Die in den frühen 1970ern getätigten Grundlagenarbeiten des für Exxon tätigen britischen Chemikers Stanley Whittingham. Er hatte erstmals Titansulfid und Lithium als Elektronenmaterialien in Akkus verwendet.
  • Die aus dem Jahr 1977 stammende Entdeckung von Yoshinos Kollegen Hideki Shirakawa. Er hatte herausgefunden, dass Polyethin durch eine Dotierung mit Oxidationsmitteln eine hohe elektrische Leitfähigkeit entwickelt und damit prinzipiell als Anode für Batterien taugt.
  • Die aus dem Jahr 1979 stammende Entdeckung des deutschstämmigen US-Physikers an der Oxford-Universität, John Goodenough, und des Tokioter Professors Koichi Mizushima. Beide hatten herausgefunden, dass Lithiumkobaltdioxid prinzipiell dafür tauglich ist, als Kathode in Batterien genutzt zu werden.

Was nach diesen Forschungsarbeiten jedoch noch fehlte, war eine Arbeit, die alles verband. Ohne blieben es nur für die Theorie wertvolle Entdeckungen.

Dann geschah jedoch das, was schon so häufig in der Geschichte ein Schlüssel war: Zufall. Ende 1982 wurden die Labors, in denen Akira Yoshino arbeitete, zum Jahresabschluss gründlich aufgeräumt und gereinigt. Als er dafür Unterlagen aussortierte, stieß Yoshino auf einen Artikel, in dem John Goodenough seine Entdeckung publiziert hatte.


Anzeige

Kathode, Anode: Als Chemiker wusste Akira Yoshino sofort, dass zu John Goodenoughs Lithiumkobaltdioxid-Kathode nur noch eine passende Anode fehlte – Polyethin. Yoshino ging ins Labor, stellte Lithiumkobaltdioxid her und bastelte zusammen mit Polythein eine Batterie.

Diese war zwar recht krude, aber sie beweis, dass auch die theoretische Funktionsfähigkeit gegeben war. Es gab nur ein Problem: Akkus werden durch Auf- und Entladung warm. Lithiumkobaltdioxid jedoch setzt ab 130°C Sauerstoff frei. Dieser reagiert mit dem Elektrolyt, falls dieses organisch ist. Dann entsteht eine große Gefahr, der sogenannte thermal runaway:  Durch die Reaktion entsteht noch mehr Hitze, was die Sauerstofffreisetzung noch mehr beschleunigt. Dadurch unterlag auch Akira Yoshinos Batterie einer hohen Brandgefahr, war für praktische Anwendungen unbrauchbar.

Doch Yoshino tüftelte weiter. Er setzte eine Membran (heute auch Separator genannt) aus Polyethylen (PE) zwischen Anode und Kathode. Die Idee: Würde der Akku zu heiß, würde das hitzeempfindliche PE schmelzen und so den Stromfluss in der Zelle unterbrechen, wodurch das „Durchgehen“ unterbunden würde.

Damit hatte Akira Yoshino alle Grundlagenarbeiten getätigt, die für heutige Li-Ion-Akkus unerlässlich sind. Doch im Rahmen seines Berufs erarbeitete er in den kommenden Jahren noch viel mehr, machte das Laborexperiment zu einem wirklich alltagstauglichen Akku, der 1991 erstmalig (von Sony) in einem Produkt eingesetzt wurde.

Das verdiente Lob kam 2019: Zusammen mit John Goodenough und Stanley Whittingham erhielt Akira Yoshino den Nobelpreis für Chemie; ausdrücklich „Für die Entwicklung der Lithium-Ionen-Batterie“.

Ein Beitrag unseres externen Autors Eric Sommer.