Computer sind strohdumm, das aber mit rasender Geschwindigkeit.

 

Computer

Es ist mehr als ein Klischee, wenn festgestellt wird, daß sich kaum etwas schneller entwickelt hat als die Computer-Technologie (siehe auch Moore's Law). Den Anfang machte der 25-jähriger Amerikaner Herman Hollerith Ende des 19. Jahrhunderts mit einer Maschine, die auf elektro-mechanischer Basis doppelt so schnell zählen konnte wie ein Mensch und die zum Speichern von Buchstaben und Zahlen Lochkarten benutzte.
 

 

Irrren ist menschlich. Es auf einen Computer abzuschieben, ist noch menschlicher.

 

etwas Computergeschichte

Er beherrscht ganze Konzerne, leitet Autofahrer aus dem Stau, gehört zu den liebsten Spielkameraden von Kindern und knackt selbst die schwierigsten Rechenaufgaben. Der unumstrittene Held des 20. Jahrhunderts hat einen Namen: Der Computer. Und es ist mehr als ein Klischee, wenn festgestellt wird, daß sich kaum etwas schneller entwickelt hat als die Computertechnologie. Wenige andere Erfindungen haben das 20. Jahrhundert so sehr beherrscht und den Alltag der Menschen so weitreichend verändert.

(Vermutlich) den Anfang machte der 25-jähriger Amerikaner Herman Hollerith. 1880 baute er zur Auswertung der amerikanischen Volkszählung eine Maschine, die auf elektromechanischer Basis doppelt so schnell zählen konnte wie ein Mensch. Der Rechner verwendete Babbages Lochkartentechnologie. Hollerith nannte seine Firma übrigens International Business Machines Corporation, oder kurz IBM (siehe auch Gottfried Wilhelm Leibniz).

Ein britischer Fernmeldeingenieur hat im Zweiten Weltkrieg einen der ersten Computer (den ersten?) der Welt gebaut, um Funksprüche der deutschen Wehrmacht zu entschlüsseln.Wie die französische Fachzeitschrift "Sciences et Vie Micro" 1999 in ihrer Juniausgabe berichtete, wäre die Landung der Alliierten in der Normandie 1944 ohne den Rechner mit dem Namen "Colossus" undenkbar gewesen. Das sechs Meter lange und 2,5 Meter hohe Ungetüm wurde jetzt anhand von Bildern und Zeitzeugenberichten in der Nähe von London wieder aufgebaut. "Colossus" sei so erfolgreich gewesen, daß der britische Premierminister Winston Churchill ihn nach dem Krieg habe zerstören lassen, berichtet der Autor Emile Servan-Schreiber in der Zeitschrift. Niemand habe wissen sollen, wie die Alliierten den Krieg gewonnen hätten, für den Fall, daß die "Heldentat" noch einmal hätte vollbracht werden müssen. Das Riesengerät funktioniert mit 2500 Elektronenröhren und hat einen 25-Bit-Arbeitsspeicher. In den 40er Jahren konnten damit deutsche Funksprüche binnen zwei Tagen entschlüsselt werden. Per Hand wären mehrere Monate nötig gewesen. Zwischen Januar und Juni 1944, also während der Vorbereitungszeit für die Landung der Alliierten, seien so jede Woche rund hundert Nachrichten entschlüsselt worden.

Der deutsche Ingenieur Konrad Zuse entwickelte 1941 den ersten vollautomatischen, frei programmierbaren Computer der Welt. Zuses Z3 hatte eine Speicherkapazität von 64 Wörtern und konnte in drei Sekunden Multiplizieren, Dividieren oder Quadratwurzeln ziehen. Parallel zu Zuse entwarf der amerikanische Physiker John Atanasoff den ersten digitalen elektronischen Computer. Spätestens mit dem Erfolg des Rechners ENIAC, mit dem das US-Militär 1945 verschlüsselte Meldungen der deutschen Wehrmacht dechiffrierte, wurde der Computer ernst genommen.

"Ich glaube es gibt einen weltweiten Bedarf an vielleicht fünf Computern"
(Thomas Watson, IBM-Chef, 1943)

"In Zukunft könnte es Computer geben, die weniger als 1,5 Tonnen wiegen"
(Popular Mechanics, 1949)

In der zweiten Hälfte der 40er Jahren wurden die ersten (tonnenschweren) programmgesteuerten Rechner installiert, mit denen man endlich die Lösungen der "Traumprobleme der Mathematiker" in Angriff nehmen konnte: der SSEC der Firma IBM, in dessen Inneren 12.500 Röhren und 21.400 Relais schalteten wie walteten und der für den Programmablauf 36 Lochstreifenleser benötigte, begann 1947 mit der Berechnung der Mondflugbahn (1947 wurde auch der Transistor erfunden). 1951 wurde zum ersten Male ein Computer in Serie gebaut. Er benötigte für eine Multiplikation 0,025 Sekunden. Die Daten wurden nun nicht mehr nur auf Lochstreifen gespeichert, sondern auch auf Magnetplatten und -bändern. Durch ihre Einführung konnten die anfallenden Datenmengen sinnvoll mit geringen Zugriffszeiten und entsprechender Platzersparnis gespeichert und verwaltet werden.

"Ich habe das ganze Land bereist und mit allen Experten gsprochen, und ich sage Ihnen: Datenverarbeitung ist ein Modefimmel, der nicht einmal das Jahr überstehen wird."
(Lektor für Wirtschaftsbücher beim Verlag Prentice Hall, 1957)

Als 1958 erfunden wurde, arbeiteten weltweit 1.300 Computer. Die neue Technologie ermöglichte nun kleinere, stromsparendere, schnellere, kühlere und damit preiswertere Rechner: die Stückzahlen wurden fünfstellig. Datentransfer und schnellere Peripherie machten die erwachsen werdende Technologie für den kommerziellen Anwender interessant. Die treibende Kraft in der Weiterentwicklung blieben aber die exotischen Anwendungswünsche wie das Apollo-Programm der 60er Jahre. 1969 waren der Stand der Technik monolithische Schaltkreise, auf denen bei 1 qmm Fläche 25 Transistoren und 40 Widerstände Platz fanden.

IBM war Mitte der 60er Jahre Vorreiter bei der Entwicklung der dritten Computer-Generation, die erstmals integrierte Schaltkreise (ICs / Chips) nutzte. Damit konnten die Ingenieure den Computer besser an bestimmte Aufgaben anpassen, als noch mit Röhren und Transistoren. Außerdem schrumpfte die Größe der Rechner dramatisch, während gleichzeitig die Zuverlässigkeit deutlich zunahm.

"Für eine Garage hatten wir gar kein Geld." (Michael Dell, Gründer von DELL)

In den 70er Jahren setzte sich der Trend zu immer preiswerteren Computern durch den Einsatz der ICs weiter fort, und es vollzog sich eine Trennung in der Entwicklung neuerer Geräte, die vergleichbar ist mit der Entwicklung vom Ur-Benz zum VW-Golf (Personal-Computer [PC]) bzw. Ferrari (Groß- und "Super"-Computer).

Einen Meilenstein in der Entwicklung zum heute bekannten PC bildet der erste Mikroprozessor, den INTEL 1971 vorstellt: die miniaturisierte Rechner-Zentraleinheit (CPU), deren Funktionen auf einem Siliziumplättchen konzentriert sind, verfügte über eine Datenbreite von vier Bit. Diesem Prozessor mit dem Namen "4004" (siehe rechts) folgten 1972 der 8008 und 1974 der 8080, der sich zum 8-bit-Industriestandard durchsetzte (siehe auch Prozessor-Geschichte). 1975 stellten Mitentwickler des 8080, die inzwischen INTEL verlassen und die Firma Zilog gegründet hatten, einen verbesserten 8080-kompatiblen Prozessor - den Z80 - vor. Begleitet wurde diese Entwicklung von dem "Zusammenbasteln" der ersten Computer, die sich auch kleinere Geschäfte oder sogar Privatleute leisten konnten. Den Grundstein zu diesem inzwischen heiß umkämpften Milliardenmarkt legte 1975 die Firma MITS aus New Mexico mit dem Modell "Altair 8800", ein INTEL 8080-System, für 2000 Dollar (Bild links). Der Altair wurde ein Flop; denn kein Mensch interessierte sich für solch ein Produkt.

Mehr Erfolg hatten drei andere Unternehmen: Commodore, Tandy und Apple Computer (1976 von Steven Jobs und Steve Wozniak gegründet). Sie stellten 1977 ihre ersten kleinen Computer vor. Es waren Geräte von Bastlern, Freaks und "Hackern" für eben die selben. Die Geschäftsführung war improvisiert und laienhaft. Neben Textverarbeitung entwickelte sich insbesondere die Tabellenkalkulation zur wesentlichen PC-Anwendung, mit der aufwendige "Was-wäre-wenn-Simulationen" berechnet werden können.

In Deutschland wurde 1978 mit dem PET 2001 von Commodore der erste Computer dieser Kategorie präsentiert (siehe rechts).

Soweit die Vergangenheit. Die Gegenwart begann 1978 / 1979 mit dem INTEL 8086 / 8088, einem 16-bit-Prozessor. Der 8088 war ein Zwitter, denn er entsprach nach außen hin noch einem 8-bit Prozessor (8-bit Datenbus), aber intern arbeitete er bereits mit 16-bit, was kürzere Berechnungszeiten und die Adressierung von mehr Arbeitsspeicher (RAM) ermöglichte. Der (ältere) 8086 war der erste echte 16-bit Prozessor (mit 16-bit breitem Datenbus), zu dem der heutige PENTIUM III-Prozessor in seinen Grundzügen immer noch kompatibel ist!

Mit 29.000 Transistoren war er um den Faktor 12 umfangreicher bestückt als sein Urahn, der 4004. Ziel der weiteren Entwicklung wurden durch die höhere Adressierbarkeit nicht nur schnellere und leistungsfähigere Prozessoren, sondern auch Speicherchips, die auf weniger Raum mehr Daten unterbringen können. Vorläufiger Höhepunkt war die Aufnahme der Serienfertigung eines 1-Megabit-Chips im Juni 1986. (Ein Text zum Schmunzeln aus dem Jahr 1983:Der IBM-Personal Computer XT und MS-DOS 2.00)

Der SIRIUS 1 war einer der ersten Computer, der mit der 16-bit Technologie von INTEL ausgestattet war (8088). Dazu kam eine Hardwareumgebung, die damals (Anfang der 80er Jahre) ihresgleichen suchte. Der hochauflösende Bildschirm machte zum erstenmal Grafik im PC-Bereich sinnvoll, die Tastatur war professionell und umfangreich ausgelegt, und die Massenspeicher - inzwischen hatte man Floppy- und Festplattenlaufwerke entwickelt - konnten auch längere Texte, wie sie z.B. bei Ausschreibungen anfallen, sinnvoll konservieren.

Angestachelt durch den Erfolg der anderen Firmen stieg IBM 1981 in das PC-Geschäft ein und rollte den Markt mit Hilfe von Microsoft und Intel von hinten auf. (Übrigens: Der Motorola-Prozessor 68000 war zu dieser Zeit zwar leistungsfähiger als der INTEL-Prozessor. Motorola konnte aber nicht liefern; deshalb beschloß IBM, seinen PC mit INTELs 8088 auszustatten.) Als IBM-Partner stieg Intel zum weltgrößten Chip-Produzenten im 20. Jahrtausend auf; und der schmächtige Schüler Bill Gates von einst entwickelte sich mit seiner Vision von "einem PC in jedem Haushalt" in den achtziger und neunziger Jahren zur wichtigsten (und reichsten) Computer-Persönlichkeit der Welt.

Mit dem Einstieg der Firma IBM wurde der recht hohe Technologiestand des SIRIUS 1 umgeworfen. Kleiner Arbeitsspeicher, kleine und laute Floppylaufwerke (Speicherkapazität 360 KB beim IBM entgegen 1,2 MB beim SIRIUS), kleine Tastatur (weniger Tasten), fester Zeichensatz, fehlende Grafikmöglichkeit, die nur mit Erweiterungskarten geschaffen werden konnte, und einige andere Rückschritte wurden zum Industriestandard. IBM konnte es sich auch leisten, seinen PC mit dem biederen 8088 und langsamen 4,77 MHz Taktfrequenz auszustatten, anstatt durch den Einsatz des "rassigen" 8086 und einer höheren Taktfrequenz den Stand der Technik auszuschöpfen, wie es die italienische Firma Olivetti mit ihrem PC M24 oder asiatische IBM-Abgucker gemacht haben.

Weiterentwicklungen des 8086 brachten eine erweiterten Befehlssatz (80186) und erfüllen nun die Anforderungen neuer Betriebssysteme, die Multi-User und Multi-Tasking ermöglichen (80286 und Motorola 68000). Nach "PC" (Personal Computer) etablierte sich mit "AT" (advanced technology auf der Basis des 80286) - vorübergehend - eine neue Abkürzung auf dem Typenschild, nach der sich jeder Computer sehnte (siehe auch PC, Prozessor- Geschichte).

Ende der 80er Jahren ging die Entwicklung zwei parallele Wege, die sich aus heutiger Sicht aber durchaus verbinden lassen.

Parallel zu der bisher beschriebenen Entwicklung, die zum PENTIUM-PC führte, hat man die mittlere Datentechnik und Großcomputer-Entwicklungen ständig weitergetrieben. Auch wenn der PC immer mehr in deren Terrain einbricht, waren für Simulationen, filmreife Animationen und große Datenbank-Anwendungen bei Banken oder Versicherungen diese Boliden lange Zeit notwendig (siehe auch Rechengeschwindigkeit).

Der Computer-Boom der 90er Jahre kannte keine Grenzen: Erstmals wurde die Informationstechnik und Telekommunikation 1999 in Deutschland mit mehr als 200 Milliarden DM Umsatz den Automobilmarkt überholen. Allein 1998 wurden nach Schätzungen knapp 5,6 Millionen neue PC verkauft.

Gebremst wurde diese Entwicklung nur vom Mangel an Personal. Während andere Branchen ihre Beschäftigten vor die Tür setzen mußten, suchte die Informationstechnologie händeringend nach Fachleuten. Schätzungen zufolge waren in Europa etwa 370.000 Stellen offen. Die Fachleute fehlten am Ende des Jahrtausends vor allem zur Lösung des gefürchteten Jahr-2000-Problems.

Der Chip steckt inzwischen längst nicht mehr nur in den Computern: Auch Waschmaschinen, Autos, Fernseher werden vom Chip gesteuert. Ohne Mikroprozessoren gäbe es keine Mobiltelefone, Airbags oder Mikrowellengeräte.

Einen weiteren Schub erfuhr die Computerindustrie zudem Ende der 90er Jahre, als das Computernetzwerk Internet durch grafische Benutzerprogramme ("Browser") für ein Massenpublikum interessant wurde. Was einst für militärische und wissenschaftliche Zwecke entworfen wurde, entwickelte sich innerhalb weniger Jahre zum weltweiten Kommunikationsnetz für Millionen Nutzer. In der virtuellen Welt treffen sie sich zum Plaudern mit anderen "Usern", erledigen Einkäufe oder Bankgeschäfte vom Sofa aus oder schreiben E-Mails an Freunde in aller Welt.

Wie sehr die Technik inzwischen in den Alltag eingegriffen hat, fällt aber meist erst auf, wenn sie plötzlich nicht mehr funktioniert. Ein Autofahrer fiel im Dezember 1998 mit seinem Glauben an die Technik ins Wasser: Sein automatisches Navigationssystem im Wagen hatte einen Fluß in dem Ort Caputh in Ostdeutschland nicht erkannt und ihn direkt in den Fluß Havel geleitet.

"Die Menschen werden die Computer lieber mögen, wenn die Computer die Menschen besser verstehen." (Marvinn Minsky, Medialab-Professeor, Orakel und Übervater der künstlichen Intelligenz)

Was bringt die weitere Zukunft? Allmählich erreicht man die physikalischen Grenzen der Miniaturisierung, und auch der Strom kann nicht schneller fließen, als er es ohnehin schon tut. Man experimentiert deshalb mit Licht, Chemie und Biologie und versucht, grundsätzlich neue Ansätze zu finden. Mehr will man aber auch mit der alten Technik erreichen. Der Grundgedanke liegt nahe und könnte von der Baustelle übernommen sein: Wenn ein Arbeiter die verlangte Arbeit nicht leisten kann, dann müssen eben mehrere die Arbeit gleichzeitig machen. Die Planungen reichen bis zu 250.000 parallel arbeitenden Arbeitern - Prozessoren. Das Problem liegt dabei weniger auf der Hardwareseite als bei der Software, die die parallelen Prozesse aufeinander abstimmen muß.

Man erwartet von der neuen Rechnergeneration nicht nur höhere Geschwindigkeiten, größere Toleranzen und höhere Ausfallsicherheiten, sondern glaubt an Einsatzmöglichkeiten in ganz neuen Bereichen. Abgesehen von dem weiten Feld der "künstlichen Intelligenz" (KI), die wie ein Damokles-Schwert über Anhängern und Gegnern hängt, könnten die neuen Computer dem Menschen allgemein und besonders dem Architekten um eine Eigenschaft näher kommen, die bisher dem Computer noch völlig verschlossen blieb: das Erfassen komplexer Zusammenhänge. Bisher konnte der Computer zwar große Datenmengen in relativ kurzer Zeit bearbeiten aber nur in der Form von "0" und "1". Einen Gesamteindruck von den gegenüber der Vorlage abweichenden Details kann er aber kaum erfassen und auswerten.

 


Quelle: Archmatic-Glossar von Alfons Oebbeke, Link: www.glossar.de

Fachwörterglossar der Diplomarbeit von Benjamin Beer, mail: webmaster@bbeer.de
Innovationszentrum Bau - Diplomarbeit am Fachbereich Bauwesen der HTWK Leipzig