Historische Entwicklung der Informationstechnologie

Beginn der Software

Am Beginn gab es nur die Unterscheidung zwischen „eins“ und „viele“. Ein großer gedanklicher Fortschritt gelang, als später zwischen „eins“, „zwei“ und „viele“ unterschieden wurde. Aus der Abstraktion des Begriffs „zwei“ entstanden schließlich die Zahlen.

  • 30 000 v. Chr.: Erste Hinweise auf den Gebrauch von Zahlen (Zahlensymbole).
  • 1300 v. Chr.:  Erstes Stellenwertsystem für Zahlen in China
  • 500 n. Chr.: Einführung der Ziffer „0“ in ein indisches Stellenwertsystem führt zum Dezimalsystem.
  • 820: Der in Bagdad lebende Araber Mohammed Ibn Musa Al-Chwarizmi (von seinem Namen leitet sich der Begriff „Algorithmus“ ab) beschreibt das indische Zahlen­system. Das Buch wird ins Lateinische übersetzt und gelangt so nach Europa. Aufgrund dieses Buches verfasst „Fibonacci“ (Leonardo von Pisa) sein „Liber Abaci“ (Buch des Abakus), die erste komplette europäische Darstellung des Dezimalsystems.
  • 1518: Adam Ries(e) beschreibt Rechenregeln für die Subtraktion und Addition von Zahlen.

Beginn der „Hardware“

Am Anfang Rechenbrett, später Abakus (erstmals 1100 v. Chr. verwendet, vermutlich von Babyloniern erfunden „Abakus“ = semitisch „Staub“). 

Der Schotte John Napier erfand um 1600 den „Napier-Knochen“, einen Multiplikations-Rechenschieber mit auf Stäben eingravierten Logarithmentafeln.

Die erste richtige Rechenmaschine baute 1624 Wilhelm Schickhardt (1592 – 1635) in Tübingen. Sie ging im 30-jährigen Krieg verloren. Die Idee wurde von Blaise Pascal (1623 – 1662) aufgegriffen, der 1642 die erste Rechenmaschine baute.

Sie bestand aus Rädern mit Zif­fern, wobei sich bei voller Umdrehung des ersten Rades das zweite um ein Zehntel weiterbewegte (Stellenwertsystem). Diese Maschine wurde 1673 von Gottfried Wilhelm Leibniz (1646 – 1716) verbessert. Dieser schuf mit seinen Untersuchungen über mathematische Logik die Grundlage für die Entwicklung der Schaltalgebra durch George Boole (1815 – 1864) und Augustus de Morgan (1806 – 1871).

Abbildung: Rechenmaschine von Blaise Pascal, 1642. Der französische Philosoph und Mathematiker schrieb anlässlich der Vorstellung seiner Maschine: „Diese Ankündigung soll dir, geneigter Leser, davon Kenntnis geben, dass ich der Öffentlichkeit eine kleine Maschine vorstelle […], die dir Erleichterung verschafft von der Arbeit, die so oft deinen Geist ermüdete, wenn du mit der Feder gerechnet hast.“ (Foto: „Zum Thema Mikroelektronik“, SIEMENS)

1801 erfand Joseph-Marie Jacquard (1752 – 1834) ein „Lochkartensystem“ für automatische Webstühle. Diese Idee veranlasste den Cambridge-Professor Charles Babbage (1792 – 1871), am ersten großen me­chanischen Rechner zu arbeiten, der leider nie fertig gestellt werden konnte. Babbage konzipierte bereits Eingabestation, Speicher, Ausgabestation und „Rechenanlage“. Er arbeitete mit einer Frau zusammen, die als erste Computer-Programmiererin betrachtet werden kann: Augusta Ada Lovelace (1815 – 1852), die bereits 100 Jahre, bevor es Computer gab, Artikel über Schleifen und Unterprogramme herausgab. Ada Lovelace war jedoch opiumsüchtig, verlor ihr gesamtes Geld beim Wetten im Pferderennen und starb bereits 36-jährig.

Für die große Volkszählung in der USA 1890 entwickelte Hermann Hollerith (1860 – 1929) einen elektro­mechanischen Lochkartenapparat, mit dem die Daten in nur 6 Wochen ausgewertet werden konnten (zum Vergleich: für die Zählung 1880 brauchte man 7 Jahre!). 1896 gründete Hollerith die „Tabulating Machine Company“, die er 1924 gemeinsam mit Thomas Watson sen. in „International Business Machine Corporation“ (IBM) umbenannte.

In Berlin baute ab 1936 der Bauingenieur Konrad Zuse (1910 – 1995) den ersten binären, programmierbaren Rechner in Relaistechnik, „Z1“, und entwickelte ihn bis 1941 zum Z3 weiter.

Konrad Zuse (Bild: OCG)

Neue Ideen wurden ab 1945 von John von Neumann (1903 – 1957) entwickelt, der heute als „Vater der Elektronengehirne“ gilt. Ihm gelang erstmals die Programmierung eines Computers nur mit Binärzahlen (bestehend aus 0 und 1).

John von Neumann (Quelle: Wikipedia)

1943 stellte der Amerikaner Howard Aiken den Rechner „Mark 1“ vor.

Computergenerationen

1. Generation – Vakuumröhrentechnik (1946 – 1958):

Berühmtheit erlangte der 1946 fertig gestellte ENIAC (Electronic Numerical Integrator and Calculator, entwickelt von John Presper Eckert (1919 – 1995) und John William Mauchley (1907 – 1980), USA), der aus 18.000 Röhren bestand, eine Masse von 30 Tonnen hatte, eine Speicherkapazität von 1,5 KByte aufwies und durchschnittlich jeden Tag einmal ausfiel. Das Projekt kostete ca. 2 Millionen US-$. Das Gerät wurde u.a. von Grace Hopper (* 1909), einer Offizierin der US-Kriegsflotte, programmiert.

Der ENIAC mit J. Presper Eckert und John W. Mauchly in der Moore School for Electronics (Quelle: https://www.hnf.de)

2. Generation – Transistortechnik (1956 – 1964):

Ein großer Fortschritt gelang durch den Einsatz von Halbleiterbauelementen (Transistoren). 1956 wurde der erste volltransistorisierte Rechenautomat, das „Mailüfterl“, von Heinz Zemanek (1920 – 2014) in Wien vorgestellt.

3. Generation – Integrierte Schaltkreise (1964 – heute):

1958 entwickelte Jack Kilby (1923 – 2005) den ersten integrierten Schaltkreis (IC = „integrated circuit“, kurz „Chip“) der Geschichte. Die ab etwa 1970 auch für Speicher und Mikroprozessoren angewandte Technik der Integrier­ten Schaltkreise wurde auch für Großrechen­anlagen eingesetzt. Das Ergebnis waren Mainframes.

1976 entwickelten Steve Jobs (1955 – 2011) und Steven Wozniak (geb. 1950) in einer Garage einen der ersten Kleinrechner namens „Apple I“.

Der Kleincomputermarkt ent­wickelte sich allerdings erst sprunghaft, als 1981 die Firma IBM einen PC mit einem Prozessor der Firma INTEL heraus­brachte, der mit einem von Microsoft ent­wickel­ten Betriebs­system namens „DOS“ arbeitete. Der Grund für den Erfolg von IBM ist in der „offenen Architektur“ zu sehen: Aus dem internen Prozessor- und Schnitt­stellen­­aufbau wurde nie ein Geheimnis gemacht, damit konnten andere Firmen ihre Ergänzungen und Peripheriegeräte auf den IBM-Standard abstimmen. Obwohl die ersten Apple-Computer „offen“ waren (Apple II, IIe, III), vertritt Apple heute (mit „MacIntosh“-Geräten) das Prinzip der „geschlossenen Architektur“. Peripheriegeräte anderer Firmen können nicht gemeinsam mit Apple-Computern verwendet werden. Nur durch massive Werbung und die Benutzerfreundlichkeit der Geräte überlebte die Firma. Ein Vorteil der Apple-Computer ist dafür, dass die Hardwarekomponenten genau auf die Computer zugeschnitten sind, sodass sie äußerst betriebssicher sind und keine Kompatibilitätsprobleme auftreten können.

Steve Jobs verlor 1985 seine Führungsposition bei Apple, wurde aber 1997 wieder zurückgeholt und behielt die Position bis zu seinem Tod 2011.

Die Firma Microsoft (1978 von Bill Gates und Paul Allen gegründet) gilt heute als umsatzstärkste Softwarefirma der Welt.

Wichtige Firmenchefs (CEO = „Chief Executive Officer“):

Hardwaremäßig hat sich in den vergangenen Jahren viel geändert. Bei den Speicherchips kann man das besonders gut sehen: 1974 kam ein RAM-Chip mit einer Kapazität von 1 KBit auf den Markt. Im Jahr 2020 ist werden 16 Gbit bei DDR4-DRAM-Speicherchips erreicht. Damit kann man RAM-Module mit 16 GiByte und 32 GiByte fertigen.

Auch die Packungsdichte der Elektronik-Bausteine auf CPU- und RAM-Chips steiger immer weiter: Die Packungsdichte von Intels 10-nm-Technik beträgt bis zu 100,8 Millionen Logik-Transistoren pro Quadratmillimeter. Der Auftragsfertiger TSMC begann 2020 mit einem 5-nm-Fertigungsprozess, der 171,3 Millionen Transistoren pro Quadratmillimeter ermöglicht.

Der Intel-Gründer Gordon Edward Moore (geb. 1929) prophezeite, dass sich alle 18 Monate die PC-Rechenleistung pro Dollar An­schaf­fungspreis verdoppeln würde (Moore’s Law). Noch heute ist diese Regel im Wesentlichen gültig!

Intel-Mitbegründer Gordon E. Moore (Quelle: intel)

Der „Supercomputer“ Fugaku ist derzeit (Stand: Juni 2020) mit einer Rekordleistung 415,5 Petaflops der schnellste Rechner der Welt und steht am RIKEN Center for Computational Science in Japan.

Zur Werkzeugleiste springen