Geschichte der Informatik

Heutzutage können wir uns kein Leben ohne Computer und Smartphone vorstellen. Meistens sind wir „nur“ Nutzer von diesen Gerätschaften: wir hinterfragen selten, wie eine Rechenmaschine genau funk-tioniert. Wir ahnen, dass die Funktionsweise sehr kompliziert ist und freuen uns, wenn wir manche Geräte überhaupt einrichten und bedienen können. Tatsächlich ist die digitale Welt sehr komplex geworden und stellt für die meisten Nutzer ein Black Box dar. Eine Suchanfrage über Google liefert Millionen von Ergebnissen, die unser Kaufverhalten und unsere Interessen beeinflussen, vielleicht sogar steuern. Wie diese Suchanfrage aber verarbeitet wird und welche Algorithmen im Hintergrund stecken, ist uns kaum klar. Die Wissenschaft Informatik ist so umfangreich, dass wir ad hoc kaum die Google-Analysealgorithmen verstehen werden, aber erlernen können, was ein Algorithmus ist und welche grundlegenden Strukturen in Informatik angewandt werden. Mit diesen Basics ist der Weg in die Welt der Informatik um einiges leichter und wird auch viel mehr Spaß machen. Informatik ist eine Wissenschaft, die aus Mathematik und Ingenieurswissenschaften gewachsen ist.
Geschichtlich kann die Entwicklung dieser Wissenschaft auf zwei Ursachen zurückgeführt werden: Mathematische Fragestellungen und Algorithmen, die so kompliziert sind, dass ein Mensch ohne eine Rechenmaschine sie nicht lösen konnte und technische Probleme, die ein Mensch automatisieren wollte. Der Mensch wollte sowohl abstrakte, mathematische Aufgaben schnell berechnen können, um zum Beispiel Weltall zu erkunden, als auch industrielle Prozesse wie Steuern und Regeln, ohne direkt an einer Werkzeugmaschine zu stehen, verwalten. Die Entwicklung von einem Computer dauerte einige Jahr-hunderte und wurde erst revolutionär, als ein sogenannter Transistor entwickelt wurde. In den Jahrhun-derten zuvor versuchte der Mensch mit mechanischen Rechenhilfen sich das Leben zu erleichtern, konn-te aber nie die notwendige Verarbeitungsgeschwindigkeit und Verarbeitungsdatenvolumen erreichen. Im ersten Drittel des 19. Jahrhunderts wurde ein Relais entwickelt – ein elektromechanischer Schalter, der das Kommunikationszeitalter auslöste und dafür sorgte, dass das sogenannte Binärsystem den Ein-ug in die Welt der Technik fand. Ein Relais ermöglichte nur zwei Zustände: Stromkreis offen oder Stromkreis geschlossen. Die beiden Zustände konnte wie ein logischer „0“ NULL und eine logische „1“ EINS behandelt werden. Rund hundert Jahre später wurden die ersten Computer zunächst mit Relais (Z3 von Konrad Zuse, 1941 und ASCC von Harvard Mark, 1944) dann mit sogenannten Vakuumröhren (ENI-AC, 1946 – erster wirklicher Computer), gebaut. Dank ENIAC hat John von Neumann eine bahnbrechen-de Idee, Programme und Daten in einem Speicher abzulegen und durch eine zentrale Steuereinheit (CPU) zu verwalten. Noch heute orientiert man sich an die sogenannte von-Neumann-Architektur im Hardwaredesign. Der hohe Stromverbrauch und die kurze Lebensdauer von Vakuumröhren führten jedoch bald zur Einsicht, dass eine andere Technik notwendig ist. So wurde 1948 der Triumph angekündigt: der Transistor wurde entwickelt. Im Jahr 1958 konnten die Transistoren zum ersten Mal als Schaltkreis (IC) auf einem Stück Silizium gebaut werden. Der Siegeslauf der Transistortechnik hat begonnen: Im Jahr 1968 brachte Intel den ersten Mikroprozessor auf den Markt und heutige Computer bestehen aus Mikroprozessoren mit Milliarden von Transistoren.