Entwicklung des PC
In den 70er Jahren setzte sich der Trend zu immer preiswerteren Computern durch den Einsatz der ICs weiter fort, und es vollzog sich eine Trennung in der Entwicklung neuerer Geräte, die vergleichbar ist mit der Entwicklung vom Ur-Benz zum VW-Golf (Personal-Computer [PC]) bzw. Ferrari (Groß- und "Super"-Computer).
inen Meilenstein in der Entwicklung zum heute bekannten PC bildet der erste Mikroprozessor, den INTEL 1971 vorstellt: die miniaturisierte Rechner-Zentraleinheit (CPU), deren Funktionen auf einem Siliziumplättchen konzentriert sind, verfügte über eine Datenbreite von vier Bit. Diesem Prozessor mit dem Namen "4004" folgten 1972 der 8008 und 1974 der 8080, der sich zum 8-bit-Industriestandard durchsetzte. 1975 stellten Mitentwickler des 8080, die inzwischen INTEL verlassen und die Firma Zilog gegründet hatten, einen verbesserten 8080-kompatiblen Prozessor - den Z80 - vor. Begleitet wurde diese Entwicklung von dem "Zusammenbasteln" der ersten Computer, die sich auch kleinere Geschäfte oder sogar Privatleute leisten konnten. Den Grundstein zu diesem inzwischen heiß umkämpften Milliardenmarkt legte 1975 die Firma MITS aus New Mexico mit dem Modell "Altair 8800", ein INTEL 8080-System, für 2000 Dollar (Bild links). Der Altair wurde ein Flop; denn kein Mensch interessierte sich für solch ein Produkt.
n Deutschland wurde 1978 mit dem PET 2001 von Commodore der erste Computer dieser Kategorie präsentiert. 1978 / 1979 brachte INTEL mit dem 8086 / 8088, einem 16-bit-Prozessor auf den Markt. Der 8088 war ein Zwitter, denn er entsprach nach außen hin noch einem 8-bit Prozessor (8-bit Datenbus), aber intern arbeitete er bereits mit 16-bit, was kürzere Berechnungszeiten und die Adressierung von mehr Arbeitsspeicher (RAM) ermöglichte. Der (ältere) 8086 war der erste echte 16-bit Prozessor (mit 16-bit breitem Datenbus), zu dem der heutige PENTIUM III-Prozessor in seinen Grundzügen immer noch kompatibel ist! Mit 29.000 besaß er 12 mal mehr Transistoren als sein Vorgänger mit 4004. Ziel der weiteren Entwicklung waren nicht nur leistungsfähigere Prozessoren, sondern auch kleinere Speicherchips. Eine wichtige Neuentwicklung des 1-Megabit-Chips im Juni 1986.
Der SIRIUS 1 war einer der ersten Computer, der mit der 16-bit Technologie von INTEL ausgestattet war. Dazu kam eine Hardwareumgebung, die damals (Anfang der 80er Jahre) ihresgleichen suchte. Der hochauflösende Bildschirm machte zum erstenmal Grafik im PC-Bereich sinnvoll, die Tastatur war professionell und umfangreich ausgelegt, durch die Entwicklung von Floppy- und Festplattenlaufwerke die, die Massenspeicherung von längeren Texten möglich machte.
Angestachelt durch den Erfolg der anderen Firmen stieg IBM 1981 in das PC-Geschäft ein und rollte den Markt mit Hilfe von Microsoft und Intel von hinten auf. Als IBM-Partner stieg Intel zum weltgrößten Chip-Produzenten im 20. Jahrhundert auf. Mit dem Einstieg der Firma IBM wurde der recht hohe Technologiestand des SIRIUS 1 umgeworfen. Kleiner Arbeitsspeicher, kleine und laute Floppylaufwerke (Speicherkapazität 360 KB beim IBM entgegen 1,2 MB beim SIRIUS), kleine Tastatur (weniger Tasten), fester Zeichensatz, fehlende Grafikmöglichkeit, die nur mit Erweiterungskarten geschaffen werden konnte, und einige andere Rückschritte wurden zum Industriestandard. IBM konnte es sich auch leisten, seinen PC mit dem biederen 8088 und langsamen 4,77 MHz Taktfrequenz auszustatten, anstatt durch den Einsatz des "rassigen" 8086 und einer höheren Taktfrequenz den Stand der Technik auszuschöpfen, wie es die italienische Firma Olivetti mit ihrem PC M24 oder asiatische IBM-Abgucker gemacht haben.
Weiterentwicklungen des 8086 brachten eine erweiterten Befehlssatz (80186) und erfüllen nun die Anforderungen neuer Betriebssysteme, die Multi-User und Multi-Tasking ermöglichen (80286 und Motorola 68000). Nach "PC" (Personal Computer) etablierte sich mit "AT" (advanced technology auf der Basis des 80286) - vorübergehend - eine neue Abkürzung auf dem Typenschild, nach der sich jeder Computer sehnte (siehe auch PC, Prozessor-Geschichte).
Ende der 80er Jahren ging die Entwicklung zwei parallele Wege, die sich aus heutiger Sicht aber durchaus verbinden lassen.
* Der erste Weg ist die logische und konsequente Weiterverfolgung der 4-8-16-bit Richtung mit dem Einsatz von 32-bit-Prozessoren. Während INTEL aber weiterhin auf die 80x86 Baureihe setzte (der 80386 wurde gerade in ersten Prototypen vorgestellt und der 80486 war in der Entwicklung) und wegen der "Rückwärts"-Kompatibilität Kompromisse eingehen mußte, lieferte Motorola schon seit längerer Zeit 32-bit Prozessoren: den 68000 als 16/32-bit-Prozessor oder den 68020 als echten 32-bit-Prozessor.
* Der zweite Weg verfolgt eine Idee, nach der eine vereinfachte Chiparchitektur schnellere Verarbeitungszeiten zuläßt. Die RISC-Technologie (RISC steht für "Reduced Instruction Set Computer") wurde in den siebziger Jahren von IBM-Technikern entwickelt, um besonders rechenintensive Applikationen besser unterstützen zu können. Während übliche Prozessoren wie die 80x86-Reihe mit einem Reservoir von Befehlen aufwarten (CISC), die in der Praxis jedoch nur selten im vollen Umfang genutzt werden (aber die Programmierung vereinfachen), besteht das RISC-Grundprinzip darin, daß der Befehlssatz des RISC-Prozessors auf die unbedingt notwendigen Kommandos beschränkt ist. Durch die, bezogen auf den praktischen Anwendungsgrad, sinkende Redundanz (Überreichlichkeit, Üppigkeit) werden die Dekodierzeiten während der Laufzeit deutlich verkürzt. Auf der anderen Seite müssen sich die Programmierer eines RISC-Systems hinsichtlich der Programmiertechnik umstellen, denn die bislang vom Prozessor gebotenen Funktionen müssen nun per Programm emuliert werden. Weitere Geschwindigkeitssteigerungen erreichte man durch kürzere Signallaufzeiten, da der Chip auf Grund des geringeren Befehlsunfangs kleiner ist, und das Rechnen im Pipelining. IBMs erster RISC-Computer wurde auf der CeBIT 1986 als IBM RT vorgestellt worden. IBM sah die Anwendungsmöglichkeiten vor allem im rechenintensiven CAD/CAM-Bereich. Die Geschichte weiß, daß sich diese Technologie gegenüber den INTEL-Entwicklungen nicht durchsetzen konnte.
Parallel zu der bisher beschriebenen Entwicklung, die zum PENTIUM-PC führte, hat man die mittlere Datentechnik und Großcomputer-Entwicklungen ständig weitergetrieben. Auch wenn der PC immer mehr in deren Terrain einbricht, waren für Simulationen, filmreife Animationen und große Datenbank-Anwendungen bei Banken oder Versicherungen diese Boliden lange Zeit notwendig (siehe auch Rechengeschwindigkeit).
Der Computer-Boom der 90er Jahre kannte keine Grenzen: Erstmals wurde die Informationstechnik und Telekommunikation 1999 in Deutschland mit mehr als 200 Milliarden DM Umsatz den Automobilmarkt überholen. Allein 1998 wurden nach Schätzungen knapp 5,6 Millionen neue PC verkauft.
Gebremst wurde diese Entwicklung nur vom Mangel an Personal. Während andere Branchen ihre Beschäftigten vor die Tür setzen mußten, suchte die Informationstechnologie händeringend nach Fachleuten. Schätzungen zufolge waren in Europa etwa 370.000 Stellen offen. Die Fachleute fehlten am Ende des Jahrtausends vor allem zur Lösung des gefürchteten Jahr-2000-Problems (Y2K).
Der Chip steckt inzwischen längst nicht mehr nur in den Computern: Auch Waschmaschinen, Autos, Fernseher werden vom Chip gesteuert. Ohne Mikroprozessoren gäbe es keine Mobiltelefone, Airbags oder Mikrowellengeräte.
Einen weiteren Schub erfuhr die Computerindustrie zudem Ende der 90er Jahre, als das Computernetzwerk Internet durch grafische Benutzerprogramme ("Browser") für ein Massenpublikum interessant wurde. Was einst für militärische und wissenschaftliche Zwecke entworfen wurde, entwickelte sich innerhalb weniger Jahre zum weltweiten Kommunikationsnetz für Millionen Nutzer. In der virtuellen Welt treffen sie sich zum Plaudern mit anderen "Usern", erledigen Einkäufe oder Bankgeschäfte vom Sofa aus oder schreiben E-Mails an Freunde in aller Welt.
Wie sehr die Technik inzwischen in den Alltag eingegriffen hat, fällt aber meist erst auf, wenn sie plötzlich nicht mehr funktioniert. Ein Autofahrer fiel im Dezember 1998 mit seinem Glauben an die Technik ins Wasser: Sein automatisches Navigationssystem im Wagen hatte einen Fluß in dem Ort Caputh in Ostdeutschland nicht erkannt und ihn direkt in den Fluß Havel geleitet.