Eine Geschichte des "Computers"
von Rolf Todesco
zurück ]      [ Stichworte ]      [ Literatur ]      [ Die Hyper-Bibliothek ]      [ Systemtheorie ]

Vorbemerkung

Welche Geschichte des "Computers" ich schreibe, ist von der gewählten Perspektive auf den gewählten Gegenstand abhängig. Keine Sache erzählt ihre Geschichte selbst. Der Computer sagt nicht, was er ist und unter welchen Gesichtspunkten er zu betrachten wäre. Ich sage, indem ich dessen Geschichte erzähle, was ich als Computer bezeichne und wie ich diese Sache als Tat-Sache, also als Resultat bewusster Tätigkeiten sehe.


Der Computer - durch (dia) eine Geschichte (logos) gesehen

Gemeinhin ist klar, was ein Computer ist. Mein PC, mit welchem ich gerade diesen Text schreibe, ist im mir vertrauten Commonsens ein Computer. Und es gibt noch einige Geräte, bei welchen ich nicht überlegen muss, ob sie Computer sind oder nicht. Es gibt aber auch etliche Geräte, die je nach Definition noch Computer sind oder eben nicht. Wenn ich eine Geschichte des Computers überhaupt schreibe, ist nicht sehr entscheiden, welche Geräte noch Computer sind, entscheidender ist, wie ich den Computer überhaupt begreife.

In den meisten Computergeschichten, die ich kenne, wird der Computer als "Rechner" gesehen, wohl weil er so genannt wird. Diese Geschichten behandeln dann meistens das Rechnen und beginnen deshalb mit der Mathematik von antiken Völkern an und erwähnen unter anderem Leibniz, der das Dualsystem erfunden habe. Ein in diesem Sinne ganz typischer Abriss einer Computergeschichte steht in der Wikipedia. Aufgrund meiner eigenen Erfahrungen mit Computern käme mir nie in den Sinne, den Computer als Rechner zu sehen, obwohl ich das Wort "Computer" leicht durch das Wort "Rechner" (üb)ersetzen kann. Mir scheinen beide Wörter so arbiträr wie jedes eigentliche Symbol. Ich benutze meinen Computer praktisch nie zum Rechnen, auch wenn ich natürlich sehe, dass in meiner Buchhaltungsapplikation mit Zahlen addiert werden. Ich benutze meinen PC für sehr verschiedene Sachen. Aus einer Buchhaltungsmaschine wird er praktisch per Knopfdruck eine Textbearbeitungsmaschine oder ein Internettelefon oder eine Spielkonsole.

Der Computer repräsentiert in dieser Hinsicht verschiedenste Funktionen. Aber auch meine Black&Decker kann ich mit wenigen Handgriffen von einer Bohrmaschine in eine Schleifmaschine vewandeln. Eine Bohrmaschine ist meine "Black&Decker" nur dann, wenn ein Bohrwerkzeug eingespannt ist. Andernfalls kann ich mit ihr nicht bohren. In der Umgangssprache wird oft von diesem Detail abgesehen, wenn von einer Bohrmaschine die Rede ist. Meistens ist dann die Teil-Maschine gemeint, in welche man Bohrer - oder andere Werkzeuge - einspannen kann. Wenn ich genauer spreche, ist meine "Black&Decker" ohne eingespanntes Werkzeug - wie mein Computer ohne Programme - ein Halbfabrikat, das ich gar nicht oder eben nur bedingt brauchen kann. In dieser Analogie - die ich sehr wörtlich meine - erscheinen Computerprogramme als Werkzeugteile, die "eingespannt" werden. Umgangssprachlich wird das Computerhalbfabrikat unsinnigerweise als "Hardware" bezeichnet, was von einer Black&Decker niemand sagt, obwohl sie so hart ist wie jeder denkbare Computer.

Im mir vertrauten Commonsens wird die Unterscheidung zwischen Computer mit oder ohne Programme meistens dadurch gemacht, dass von Hardware die Rede ist. Ich verwende den Ausdruck "Computer" für die Einheit dieser Differenz, was in meiner Computergeschichte zum Ausdruck kommt.


Die Funktion des Computers

Wenn ich den Computer kybernetisch begreife, frage ich nicht, was ein Computer ist, sondern was ein Computer macht (1). Dabei frage ich aber nicht, was ich mit einem Computer mache, sondern was der Computer macht. Ich verwende den Computer in einem jeweils konkrete Zusammenhang. Ich kann ihn beispielsweise zum Schreiben eines Briefes benutzen, wenn entsprechende Programme aktiv oder "eingespannt" sind. Meinem Computer ist aber gewissermassen gleichgültig, wozu er mir dient. Umgangssprachlich unterscheide ich nicht, ob der Computer rechnet oder ob ich mittels eines Computers rechne. Aber in einem spezifischeren Sinn rechnet der Computer so wenig wie meine Bohrmaschine bohrt.

In dieser Perspektive ersetze ich die Frage, was der Computer macht, durch die Frage, wie der Computer seine Funktion in meinen Verwendung des Computers erfüllt. Die Black&Decker erfüllt ihre Funktion, in dem sie das eingespannte Werkzeug dreht. Dabei ist gleichgültig, ob ich sie zum Bohren oder zum Schleifen verwende. Die Funktion, die der Computer für mich erfüllt, besteht darin, dass er Eigenzustände - vorab auf dem Bildschirm - anzeigt. Ich verwende den Computer beispielsweise als Rechner, indem ich ein entsprechendes Programm einspanne, auf der Tastatur "2 + 3 =" drücke und dann "2 + 3 = 5" angezeigt bekommen will. Die "5" sehe ich als ein durch die Eingaben und den programmierten Zustand des Computers bedingte Anzeige.

Ich verwende den Computer immer genau dazu, bestimmte Bildschirmzustände zu erreichen. Der Computer dient der Steuerung des Bildschirms, der ein Teil des Computers ist, so wie die Black&Decker ein Teil-Werkzeug dreht, das Teil des Werkzeuges ist. Dass ich hier von Tastatur und Bildschirm spreche, ist meiner aktuellen Erfahrung mit meinem PC geschuldet. Ich weiss, dass die ersten Computer weder Tastatur noch Bildschirm hatten. Ich weiss, dass der Bildschirm auch als Tastatur fungieren kann und dass nebem dem Bildschirm beispielsweise auch bedrucktes Papier als Anzeige verwendet werden kann. Ich werde darauf in meiner Computergeschichte eingehen. Zunächst geht es nur darum, die Funktion zu bestimmen, die ich mit dem Ausdruck Computer bezeichne.

Diese Funktionsbestimmung verletzt zwei Vorstellungen im mir vertrauten Commonsense. Gemeinhin - etwa in der Wikipedia - wird die Funktion des Computer im Verarbeiten von Daten gesehen. In dieser Bestimmung erkenne ich eine abstrakte Formulierung dafür, was der Benutzer mit dem Computer macht. Zum anderen wird oft jede elektronische Steuerung als Computer bezeichnet. So wird etwa gesagt, dass Computer auch in modernen Waschmaschinen zum Einsatz kommen (2). Auch dabei geht es darum, wozu "Computer" eingesetzt werden, aber überdies wird dabei auch die Unterscheidung zwischen Computer und Prozessor aufgehoben. In meinem Verständnis dient der Computer einer bedingten symbolischen Repräsentation, was mittels eines Prozessors erreicht wird.

Dass Computer der symbolischen Repräsentation - vorab auf Bildschirmen - dienen, könnte man auch als Verwendungszweck des Computers missverstehen. Aber in der Steuerung einer Anzeige sehe ich die intendierte Funktion, die jenseits jeder Verwendung des Computers liegt (3). Ich lege sie deshalb meiner Geschichte des Computers zu Grunde. Das bedeutet, dass ich die Geschichte nicht mit Mathematik beginne, sondern mit der Entwicklung von Geräten, die der Anzeige dienen.


Zeichenkörper

Zeichen geben kann ich auch ohne Geräte. Ich kann Handzeichen geben. Ich kann rufen und ich kann sprechen. Hier interessiert mich die Entstehung des Zeichens und der Sprache nicht. Ich beginne die Geschichte des Computers nicht mit der Erfindung von Handzeichen und auch nicht mit der Erfindung von Sprache. Hier interessiert mich nur, dass ich Zeichen geben kann und dass Zeichen ganz unabhängig von Computern eine für mich sinnvolle Sache sind.

Zeichen haben in dem Sinne verschiedene Funktionen, als ich sie in verschiedenen Zusammenhängen verwende. Die entwickelste Form des Zeichengebens jenseits von Artefakten sehe ich im Sprechen. Mich interessiert hier nicht, warum und wozu ich spreche, sondern nur, dass ich spreche, und wo das nicht hinreichend geht, manchmal Handzeichen mache. Was ich sage, kann ich selbst hören und andere können mich unter gegeben Bedingungen auch hören. Meine Handzeichen kann ich im Spiegel auch sehen. In beiden Fällen dient mir mein Körper als flüchtiger Zeichenträger.

Die Flüchtigkeit von Zeichen kann ich in Artefakten aufheben. Ich kann Zeichenkörper herstellen, indem ich Material forme. Ich kann beispielsweise Verkehrsschilder aus bemaltem Blech herstellen und ich kann Buchstaben aus Graphit formen und auf ein Papier auftragen. Mich interessiert hier nicht, wie und warum diese Zeichenkörper als Zeichen interpretiert werden können. Mich interessiert hier nur, dass ich solche Zeichen ganz unabhängig von Computern verwende. Die entwickelste Form solcher Zeichen erkenne ich in der Schrift.

Ich beobachte das Herstellen von Zeichenkörpern unabhängig von der Bedeutung, die Zeichen in irgendwelchen Verwendungen haben. Ich kann die Zeichenkörper von Hand herstellen. Ich kann beispielsweise mit dem Finger in den Sand schreiben. Ich kann auch andere Zeichen herstellen, indem ich etwa aus Zweigen Pfeile forme, die als Wegweiser dienen. Ich kann die Zeichen aber auch mit Werkzeugen herstellen. Ich kann mit einem Meissel in den Stein schreiben. Ich kann mit einem Federkeil Tinte auf ein Papier auftragen.


Werkzeuge und deren Entwicklung

Die Verwendung von Werkzeugen zur Produktion von Zeichenkörpern steht in gewisser Weise am Anfang meiner Geschichte des Computers. Dabei spielen aber die Zeichen und die Bedeutung, die die Zeichen haben, zunächst keine Rolle. Es geht um die Werkzeuge, die zur Herstellung der Zeichen verwendet werden. In Bezug auf Werkzeuge sind die Zeichenkörper einfach spezifische Artefakte, deren Qualität sich weitgehend nach den Werkzeugen richten kann. Es ist für Schriftzeichen gleichgültig, ob sie in Stein gemeisselt oder mittel eines Bleistiftes hergestellt und auf Papier aufgetragen werden. Alle Zeichenkörper sind als geformtes Material Gegenstände, deren Herstellung durch Werkzeug effizienter gemacht werden kann.

Am Ende der Entwicklung verwende ich den Computer zur Herstellung von Zeichenkörpern. Davor hatte ich eine elektrische Schreibmaschine und noch früher einen Kugelschreiber. Den Kugelschreiber musste ich von Hand bewegen und steuern. Bei der Schreibmaschine sind die gegebenen Zeichen vorgeformt und das Setzen der Zeichenkörper durch einen elektrischen Motor unterstützt. Ich muss die Zeichen nur noch auf einer Tastatur auswählen. Beim Computer schliesslich werden die Zeichen als dissipative Strukturen in der Schwebe gehalten, bis ich sie per Drucker feststelle.

Hier ist eine Anmerkung gegen den Commonsense nötig. Gemeinhin werden Zeichen im Computer in einer ganz schrägen Metapher zu Zeichen im Kopf als etwas rein Geistiges oder Immaterielles aufgefasst, wobei die Unterscheidung Zeichen und Zeichenkörper natürlich entfällt. Das, was ich hier als Zeichen bezeichne, hat einen Zeichenkörper, der sinnlich wahrnehmbar ist, wie etwa die Graphitstuktur, die ich mit dem Bleistift produziere. Im Computer ist das zu keinem Zeitpunkt anders. Es spielt keine Rolle, ob das Zeichen im sogenannten Arbeitsspeicher oder auf dem Harddisc oder am Bildschirm ist, es ist immer ein materieller Zeichenträger, der das Zeichen trägt. Es ist allerdings nie der Zeichenträger, der in meine Auge fällt, wenn ich ein Zeichen sehe. Es sind Lichtwellen, die als Signale vom Zeichenkörper strukturiert sind, die durch mein Auge fliessen. Aber natürlich nehme ich nicht die Signale wahr, sondern meine Reaktionen auf die Signale. Ich habe das in einem anderen Text ausführlich diskutiert (4).

Ich bezeichne Werkzeuge, die ich nicht selbst antreiben muss, weil sie einen Motor haben, als Maschinen. Einer der ersten Computer, die Z1 wurde mittels eines Staubsaugermotors angetrieben. Maschinen, die eine Steuerung enthalten, bezeichne ich als Automaten. Die Steuerung selbst bezeichne ich als Prozessor. Der Bleistift ist in diesem Sinne ein typisches Werkzeug und die elektrische Schreibmaschine ist eine typische Maschine. Der Computer schliesslich ist ein Automat, der die Herstellung von Zeichenkörpern auf hoch entwickeltem Niveau unterstützt.


Zeichen: Zahlen, Text, Bild, Film

Die ersten Computer wurden praktisch nur zum Rechnen benutzt, weshalb sie auch als Rechner bezeichnet wurden. Die Resultate, die sie anzeigen mussten, waren Zahlen. Zahlen sind Zeichen und haben deshalb einen Zeichenkörper. Als Zeichenkörper kann im Falle von Zahlen eine Anzahl Glühbirnen fungieren. Wenn die Glühbirnen im Dezimalsystem gelesen werden, bedeuten vier leuchtende Lampen "4", wenn sie im Dualsystem gelesen werden, bedeuten dieselben Lampen "15". Hier geht es darum, dass der Zeichenkörper mit "Lampen" so dargestellt werden, dass ich keine mir vertrauten Ziffern sehe, sondern die Lampen als Zahlen deuten muss.

Ein moderner Bildschirm besteht aus sehr vielen "Lampen", deren Zustände elektronisch so gesteuert wird, dass ich als Betrachter Bilder sehen kann. Zahlen können deshalb als Ziffern dargestellt werden. Und vor allem kann der Bildschirm auch Bilder, also nicht nur einzelne Schriftzeichen repräsentieren.

Als Zeichen bezeichne ich in diesem Zusammenhang jedes symbolische Repräsentation. Ein Text ist in diesem Sinne ein Zeichen, das aus vielen Zeichen besteht, die ich als Buchstaben bezeichne. Die Buchstaben auf dem Bildschirm sind wie die Ziffern ein bestimmte Anordnung von leuchtenden Punkten, die ich als Pixel bezeichne.

Jede Bildschirmanzeige besteht aus einer Menge von Pixeln, die individuell gesteuert werden. Ich fasse den ganzen Bildschirm als Bild und als Zeichen auf. Das Bild kann verschiedene Bilder enthalten und ein Teil der Bilder können Zahlen oder Buchstaben sein. In jedem Fall dienen die "Lampen" des Bildschirms als Zeichenkörper.

Weil es auf modernen Bildschirmen nicht mehr - wie es lange der Fall war - zeilenweise nur Buchstaben und Zahlen erscheinen, sondern teilweise sehr aufwendige Bilder, die bei entsprechenden Abfolgen auch als Filme gesehen werden können, ist die Redeweise, wonach ausschliesslich Zeichen angezeigt werden, natürlich von einem entsprechend weiten Zeichenbegriff abhängig, in welchem eben auch Bilder als Zeichen gelten.


Bedingte Zeichen

Ich kann mit dem Bleistift oder mit einer Schreibmaschine "4 + 3 = 7" schreiben. Ich muss die "7" aber selbst schreiben, wozu ich erst noch rechnen muss.

Wenn ich auf meinem Computer dagegen "4 + 3 =" schreibe, zeigt er - wenn das entsprechende Programm eingespannt ist - "4 + 3 = 7" an. Der Computer zeigt also auch Zeichen an, die ich nicht via Tastatur eingegeben habe. Hier interessiert mich nicht, inwiefern der Computer dabei "rechnet", sondern nur, dass die "7" meinen Erwartungen entspricht und durch den Computer zur Anzeige gebracht wird. Ich kann nun "4 + 3" als Rechenaufgabe oder allgemeiner als Problem auffassen und das "=" als Zeichen für meinen Wunsch, dass ich das Problem gerne gelöst haben würde. Dann erscheint die "7" als Problemlösung oder als Antwort auf meine Frage. Ich bezeichne die "7" als bedingtes Zeichen, weil es unter entsprechenden Bedingungen erscheint, ohne dass ich etwas dazu tun muss.

Wenn ich meinen Computer starte, wird mir ein sogenannter Desktop angezeigt, was auch meiner Erwartung entspricht. Dieses Resultat auf meinem Bildschirm bekomme ich sozusagen ungefragt, aber ich kann natürlich auch das Drücken des Powerknopfes als Anweisung verstehen, einen bestimmten Bildschirminhalt zu zeigen. Und eigentlich führt praktische alles, was ich mache, zu einer von mir erwarteten Veränderung des Bildschirmes.

In dieser Hinsicht löse ich mit dem Computer das Problem, einen gewünschten Bildschirminhalt zu bekommen, was ich überhaupt nicht mit Rechnen verbinde. Manchmal, selten, lasse ich mir ein Rechenresultat anzeigen. In diesem Fall kann ich mein Problem als Rechenaufgabe charakterisieren, obwohl der Computer natürlich nicht rechnet, sondern ich. Zwei der generellsten Probleme, die mit Computer gelöst werden, sind Schach und Jeopardy. Watson von IBM weiss alles und findet alles, wie ein Mensch der seine Probleme mit der Wikipedia und Goggle löst.

Ich erkenne innerhalb der völlig überrissenen Vorstellung eines "General Problem Solver", wie ihn Herbert Simon vorgeschlagen hat, einen wesentlichen Aspekt darin, dass Computer nicht mehr als Rechner, sondern viel allgemeiner als "Problemlöser" gesehen werden. Idiotisch ist die Idee, dieses "Problemlösen" mit Denken in Verbindung zu bringen, völlig plausibel ist aber, dass ich mit Computern sehr viele Probleme lösen kann und das deshalb anstelle von Computer sinnvoller von "Problem Solvern" gesprochen würde, wenn der Gerätenamen schon von der Verwendung des Gerätes abgeleitet werden soll. Ganz sachlich würde ich von Bildschirm-Automaten sprechen.


Dialog-Computer

Wenn ich den Computer unter dem Gesichtspunkt eines Frage-Antwort-System betrachte, kann ich den Ausdruck "Dialog-System" anstelle von "Problem Solvern" verwenden. Der Ausdruck Dialog steht dann zunächst nicht dafür, was die Antworten, die der Comouter gibt mir wobei nützen, sondern dafür, dass der Computer Antworten gibt und von mir Antworten verlangt, indem er mich auffordert, etwas einzugeben.

Die ersten Computer zeigten nicht, dass sie Eingaben oder Fragen oder Problemstellungen brauchen. Sie waren diesbezüglich gewissermassen stumm, wenn ich vom roten Powerknopf absehe, durch den sie natürlich gestartet werden wollten. Einige der ersten Computer hatten Stecktafel für variierbare Kabelverbindungen, die als Programme fungierten. Mit den heute entwickelten Kategorien kann man das Stecken von Kabeln wie etwa das Lochen von Karten als sprachliche Eingabe sehen.

Etwas später wurde die Eingabe über eine Bildschirmtastatur möglich. Die Computer waren dann bereits so weit entwickelt, dass die Eingabe gewissen Prüfungen unterzogen wurde. So antworteten die Computer anfänglich immerhin auf falsche Eingaben mit einer Reklamation. Bald konnte man auf der


Binnen-Differenzierung, scheinbar verschiedene Programmebenene Betriebssystem Applikation

mit einer Entdifferenzierung verbinden - auf der Ebene des Computers sind das verschiedene Geräte (Schreibmaschine, Rechenschieber) auf der Ebene des Programmes (wohl in der Herstellung/Programmierung ??) Sache ist innerhalb des Comuters: Betriebssystem mit den Abteilungen Disk-Verwaltung statt LochkartenBattch und Magnetband-Verwaltung, Kommandozeile, Editor, Windows, MehrplatzVirtualität, ....


Der Computer als Blackbox

ssssssssssssssssssssss Geschichte des Computers Die Revolution des Computers ist so folgenreich, dass wir von einer neuen Epoche sprechen, in der wir leben: dem digitalen Zeitalter. Virtuelle Realität, Informationsgesellschaft, globales Dorf - Schlagworte, die auf eine Maschine zurückgehen, die unsere Welt auf dramatische Weise verändert und beschleunigt hat: der Computer. User am Laptop, vernetzt mit dem Internet. (Rechte: IBM) Mit dem Com­pu­ter auf Ent­de­ckungs­tour Vergrößern Mehr zum Artikel Ge­schich­te des Com­pu­ters Loch­kar­ten­com­pu­ter Ge­schich­te der Games Groß­rech­ner Pro­gram­mie­ren Link-?Tipps Computer - Rechner - Berechnungen Computer ist ein lateinisch-englisches Wort. Es bedeutet so viel wie Rechenmaschine, Zusammenrechen-Apparat. Im ausgehenden Mittelalter und in der frühen Neuzeit war das Wort "Computer" eine Berufsbezeichnung für Menschen, die Kalkulationen vornahmen. Computer waren Leute, die etwa für Astronomen sehr komplizierte und langwierige Berechnungen durchführten. Später nannte man die Arbeiter, die die mechanischen Rechenmaschinen bedienten, Computer. Heute bezeichnet man mit dem Wort eine Maschine, die mit Hilfe einer Vorschrift - eines Programms - Daten verarbeitet. Computer sind frei programmierbare Universalmaschinen, das heißt, der Benutzer gibt etwas ein (Input), der Computer verarbeitet auf eine gewünschte Weise (Programm) die eingegebenen Daten - und liefert ein Ergebnis (Output). Vom Computer verarbeitete Daten können zum Beispiel als Berechnungen, Gleichungen, Tabellen, Diagramme, Texte, Konstruktionen, Zeichnungen und Bilder ausgegeben werden. Trommeln und Messinggehäuse der Addiermaschine von Blaise Pascal. (Rechte: AKG) Pas­cals Re­chen­ma­schi­ne "Pas­cali­ne" Vergrößern Vom Kopf in die Maschine Mitte des 17. Jahrhunderts haben zwei Universalgelehrte, der Deutsche Wilhelm Schickard und der Franzose Blaise Pascal, unabhängig voneinander erste Rechenmaschinen entwickelt. Die Idee dahinter war, dem Menschen bei schwierigen Berechnungen eine technische Unterstützung an die Seite zu stellen. Da der Mensch von Natur aus ermüdet und Fehler macht, sollte eine in Präzision und Geschwindigkeit überlegene Maschine aushelfen. Die von Pascal im Jahr 1642 ersonnene mechanische Addiermaschine "Pascaline" konnte als erste anwendungsorientierte Rechenmaschine der Welt sechsstellige Zahlen addieren und subtrahieren. Pascal hatte für seine Erfindung eine handfeste berufliche Verwendung. Er wollte mit der Maschine seinen Vater entlasten, der als Steuereinnehmer arbeitete. Die von Pascal und Schickard entwickelten Maschinen waren technisch noch lange nicht ausgereift, aber im Großen und Ganzen bereits funktionstüchtig. Während die ersten Rechenmaschinen theoretisch durchdachte Apparate waren, mangelte es grundsätzlich an der technischen Realisierung. Denn wenn ein Erfinder in den vergangenen Jahrhunderten eine brillante Idee für eine Rechenmaschine ersonnen hatte, musste er diese Idee erst einmal einem Konstrukteur vermitteln, der seinerseits in der Lage sein musste, die Idee der Maschine zu durchdringen, um sie dann nach den genauen Vorstellungen des Erfinders zu konstruieren. Ein zentrales Problem war also zunächst schon der Informationsverlust zwischen Erfinder und Konstrukteur. Dann scheiterte die gelungene Umsetzung in den meisten Fällen an der Verfügbarkeit geeigneter Materialien und Werkzeuge, außerdem waren die Kosten für die Konstruktion so komplexer Maschinen überaus hoch. Per Tastendruck und über einen Elektromagneten konnten mit dem Locher Lochkarten gestanzt werden. (Rechte: Gregor Delvaux de Fenffe) Ma­gnet-?Kar­ten­lo­cher, IBM 50er bis 60er Jahre Vergrößern Mechanisierung der Büroarbeit Bis in die Mitte des 19. Jahrhunderts wurden Dutzende neuer Rechenmaschinen erdacht, ausgetüftelt und realisiert, doch keines der Geräte wurde serienmäßig gebaut und vertrieben. Dazu zählte auch die um 1837 von Charles Babbage entworfene "Analytische Maschine", die die vier Grundrechenarten beherrschte und programmierbar war. Die dazu gehörige Sprache hatte Babbages Mitarbeiterin Ada Lovelace geschrieben, die damit als erste Programmiererin überhaupt gilt. Heute weiß man, dass Babbages mit Dampf betriebene Maschine funktioniert hätte, doch ihr Bau scheiterte an mangelnden Einzelteilen und finanziellen Mitteln. Erst im ausgehenden 19. Jahrhundert machte die Entwicklung und Produktion von Rechenmaschinen besonders in den USA im Zuge der Mechanisierung der Büroarbeit Fortschritte. Einfache Rechenmaschinen wurden neben der Entwicklung von Schreibmaschinen und Registrierkassen im großen Stil gefertigt und genutzt. Vor der eigentlichen Erfindung des Computers begann nun das Zeitalter der Lochkartenautomaten, die den Durchbruch bei der massenhaften Verarbeitung von Daten einläuteten und bis in die 50er Jahre des 20. Jahrhunderts hinein in Gebrauch waren. Elektronenröhrenwand aus einem Nixdorf-Computer aus dem Jahr 1953. (Rechte: Gregor Delvaux de Fenffe) Elek­tro­nen­röh­ren, die im Com­pu­ter ver­baut wur­den Vergrößern Zuse und die Folgen Der Computer als elektromechanische und schließlich als vollelektronische Datenverarbeitungsanlage ist eine Erfindung des 20. Jahrhunderts, mitten im Zweiten Weltkrieg erdacht und erbaut. Die ersten Großrechner waren herausragende Ingenieursleistungen, die meist auf theoretischen und praktischen Grundlagenforschungen vieler verschiedener Tüftler und Wissenschaftler wie dem Deutschen Konrad Zuse beruhten. Weltweit konnte man damals Computer an einer Hand abzählen, darunter so namhafte Maschinen wie Zuse, Mark oder ENIAC. Diese ersten elektronischen Rechner der Menschheit waren in ihren Ausmaßen geradezu monströse Anlagen, die ständig gewartet werden mussten und nur einen Bruchteil der Rechenleistung besaßen, die heute jeder herkömmliche PC aufweist. Erst die Miniaturisierung der Schaltprozesse begünstigte die Entwicklung des Home- oder Personalcomputers. Mitte der 50er Jahre wurden die bisher eingesetzten, schweren und Raum füllenden Relais’ und Röhren durch leichte und kleine Transistoren verdrängt. Ein Transistor ist ein elektronisches Halbleiterbauelement, das elektrische Impulse schaltet und steuert. Anfang der 70er Jahre überraschte die Firma Intel die Fachwelt mit der Sensation, ganze Reihen von Transistoren Platz sparend auf einem Stück Silizium unterbringen zu können - der Chip, der Mikroprozessor - Herz eines jeden modernen Computers - war geboren. Kippschalter und Leuchtdioden bestimmen die Front des legendären Altair 8800. (Rechte: Gregor Delvaux de Fenffe) Paneel des Al­tair 8800 Vergrößern Längst Legende: der Altair 8800 Die Miniaturisierung des Computers selbst war jetzt nur noch eine Frage der Zeit. Im Jahr 1975 war es dann soweit: Der amerikanische Zahnarzt und Tüftler Ed Roberts brachte für 397 Dollar einen Heimcomputer-Bausatz auf den Markt, den er auf den Namen Altair 8800 taufte. Dieser Bausatz sollte zur Legende werden; es war der erste Heimcomputer, der jemals in die Läden kam. Doch mit der Kiste konnte kaum ein Mensch etwas anfangen. Mit diversen Kippschaltern ließen sich Befehlsfolgen eingeben, und wenn der Benutzer alles richtig gemacht hatte, dann leuchteten ein paar Lämpchen auf. Der erste PC war ein Kopf ohne Arme und Beine, er besaß keine Tastatur, keine Maus, und man konnte nicht mal einen Monitor anschließen. Erst recht fehlte jede Art von Software oder Anwendungsprogrammen. Aber der Altair traf den Nerv seiner Zeit, es schien als hätte die Welt einzig und allein auf diesen noch völlig unausgegorenen Minirechner gewartet. Unglaublich viele Bestellungen gingen ein, Tausende Technikfreaks standen Schlange um einen der begehrten Computerbausätze zu erwerben. Es ging vor 30 Jahren wohl einfach darum, einen echten Computer - und sei er noch so einfach strukturiert - sein Eigen nennen zu können. Das von Xerox entwickelte PC-Modell 'Alto' besaß neben Bildschirm und Tastatur sogar eine Maus mit drei Tasten. (Rechte: Gregor Delvaux de Fenffe) Der Xe­rox-?Al­to, ers­ter Per­so­nal­com­pu­ter der Welt Vergrößern Visionen verschlafen Dieses erste Computer-Fieber Mitte der 70er Jahre brachte schlagartig viele technisch interessierte und computerbegeisterte Tüftler zusammen, die sich in kleinen Clubs und Arbeitsgemeinschaften organisierten. Sie fingen an, abseits der Entwicklungslabors großer und alteingesessener Firmen "ihren" Computer weiterzuentwickeln. So genannte Schnittstellen wurden entwickelt, an denen sich eine Tastatur anschließen ließ oder auch ein Monitor. Die Firma Xerox, Marktführer in Kopiergeräten, hatte hingegen sehr früh schon einen funktionsfähigen Heimcomputer entwickelt. Aber Xerox zeigte keinerlei Interesse daran, den Kleincomputer auf den Markt zu bringen. Analog zur Firma IBM, dem Marktführer im Bereich der Großrechenanlagen, unterschätzte Xerox das enorme Marktpotenzial für den Kleincomputer und erkannte nicht rechtzeitig die viel versprechende Zukunft dieser neuen technischen Errungenschaft. Bill Gates hält einen Tablet-PC in der Hand. (Rechte: WDR) Mi­cro­soft-?Grün­der Bill Gates stellt eine neue PC-?Ge­ne­ra­ti­on vor Vergrößern PC-Revolution Das machte den Weg frei für junge Visionäre und geniale Bastler. Der Kleincomputer wurde so noch einmal ganz von vorne erfunden. In einem der legendären Altair-Clubs lernten sich Steve Jobs und Steve Wozniak kennen; gemeinsam gründeten sie die Firma Apple, bis heute stilprägend in der Entwicklung von Heimcomputern. Microsoft-Gründer Bill Gates konnte Anfang der 80er Jahre vom Garagentüftler zum Multimilliardär aufsteigen, weil er für den PC die dringend benötigte Software entwarf und seine Betriebssysteme MS-DOS und Windows geschickt vermarktete und massentauglich machte. Computer - eine Technik verändert die Welt Längst steuern die komplizierten Rechenmaschinen unsere Flugzeuge, Autos und Fotoapparate, und auf den meisten Schreibtischen steht ein PC. Computer sind aus Beruf, Alltag und Freizeit nicht mehr wegzudenken. Sie stehen in Betrieben, Büros und in Vorstandsetagen, in Kinder- und Wohnzimmern. Computer organisieren und ordnen die Geschicke der Wirtschaft und Industrie, des Transports und Verkehrs. Computer sind zentrale Werkzeuge der Wissenschaft, Technik und Medizin. Computer spielen eine zentrale Rolle bei militärischen Auseinandersetzungen und in Kriegen, in Friedenszeiten simulieren sie komplexe klimatische Veränderungen und helfen, Naturkatastrophen frühzeitig zu erkennen. Die wichtigste Rolle spielt der Computer heute in der zwischenmenschlichen Kommunikation. Internet und E-Mail verbinden durch den Computer Menschen an den entferntesten Orten miteinander, Informationen und Daten lassen sich in Sekundenbruchteilen austauschen, abrufen und verbreiten. Das Rad der Geschichte lässt sich nicht mehr zurückdrehen, ohne Computer wäre die Komplexität der modernen Industrienationen heute nicht aufrecht zu erhalten. Gregor Delvaux de Fenffe, Stand vom 01.06.2009 Sendung: Computerwelten - Leben in der virtuellen Wirklichkeit, 27.05.2008 ssssssssssssssssssssssssss http://www.dai.ed.ac.uk/homes/cam/fcomp.shtml Who Made the First Computer? Wer aus dem ersten Computer? [Beschloss ich, dieses, nachdem ich eine BBC-TV-Programm, was für eine wunderbare Informationsquelle im Web, auch für Deppen, indem sie ein Trottel, um herauszufinden, wer den ersten Computer vorgenommen demonstriert schreiben. Der Trottel `` entdeckt '', dass es Blaise Pascal, der das zusammengesetzte Gruppe von Computer-und Web-Experten `` '' akzeptiert ohne Kommentar.] Chris Malcolm, letzte Aktualisierung 4. Mai 2000 Dies ist eine Antwort auf die Entwicklung dieser umstrittenen Frage. Neue historische Tatsachen halten Drehen bis die frühere Ansprüche zu überarbeiten. Meine Antwort ist hier die britischen Manchester SSEM von 1948, der Prototyp des Manchester Mark 1 von 1949, weil diese beiden verwandten Maschinen waren die ersten, die entscheidende architektonische Besonderheit als bekannt verwenden gespeicherte Programm , ein Konzept in der Regel von Neumann in seinem zugeschrieben `` EDVAC Bericht '' von 1949, aber die Turing in seinem `` On Computable Numbers beschäftigt '' Papier von 1937, in dem er definiert die einfache abstrakte Computer als `` Turing-Maschine '' bekannt wissen, und welche Zuse auch unabhängig bezeichnet in seinem (abgelehnt) deutschen Patentanmeldung von 1936. Die erste US-Maschine, mit dieser Funktion werden war der UNIVAC 1951 Lässt man Maschinen der ENIAC-ähnliche Architektur zu berücksichtigen, was meiner Meinung nach besser als `` beschrieben konfigurierbar Rechner '' anstatt wirklich `` programmierbare Computer '', dann ENIAC (1945) war (möglicherweise - je nach genauen Definitionen) in den USA von der ABC (1939), in Deutschland durch die Z1 (1938) geschlagen und in Großbritannien von Colossus (1943). Ein US-Gericht bei 1973 entschieden, dass Mauchly-ENIAC plagiiert Atanasoff ABC und ungültig Mauchly früheren Anspruch auf den `` ersten Computer '' im Rahmen einer US-Patent. Wenn man ein Uhrwerk und den Realisationen dieser `` konfigurierbare Rechner '' ENIAC-like-Architektur ermöglicht, dann muss man die vor Ansprüchen des 19. Jahrhunderts von Babbage, Scheutz und Wiberg berücksichtigen. Obwohl sehr viel ehrgeiziger Maschine Babbage wurde nie fertig (in Bezug auf Präzision und Speicher, die Analytische Maschine war wesentlich größer als entweder ein UNIVAC 1 oder IBM 401), beide Scheutz und Wiberg verkauft ihre Maschinen im Handel. Wiberg die Maschine produzierte die ersten automatisch berechnet und ausgedruckt vierstelligen Protokolltabellen 1876. Lässt man Uhrwerk Rechner (zB Pascal, Liebniz), so darf man nicht vergessen, die erstaunlich komplizierten griechischen Antikythera-Mechanismus von c80BC für astronomische Berechnungen. Ich behaupte, unter dem die ersten mehreren gespeicherten Programm Automaten, in der Reihenfolge, in der sie zum ersten Mal wurden an die Arbeit, waren: Manchester SSEM (1948) / MU1 (1949) (UK); Cambridge EDSAC (1949) (UK); Ferranti Mk 1 (1951) (UK); LEO (UK) (1951); UNIVAC (US) (1951); EDVAC (1952) (US); . Diese Chronologie ist ungefähr und durch neue historische Daten leicht verärgert. Die 1950er Jahre sind besonders überfüllt und können sich ändern. Ich begrüße Korrekturen. Wer aus dem ersten Computer? Diese Frage ist nicht leicht zu beantworten, denn was als das Erreichen macht einen großen Unterschied. Wer zuerst musste die entscheidenden Ideen? Wer zuerst die entscheidenden Ideen veröffentlicht? Wer zuerst entwickelt einen Computer auf der Grundlage dieser Ideen? Wer zuerst machte es Arbeit gut genug, um die Prinzipien deomstrate? Wer zuerst machte es Arbeit gut genug, um nützlich zu sein? Dann gibt es Fragen, was zählt, einen Computer. Ist ein Rechner ein Computer? Ist ein programmierbarer Rechner ein Computer? Sie Analogrechner zu zählen? Hat es digital zu sein? Hat es elektronische zu sein? Man darf auch nicht vergessen, dass auch die herausragende Persönlichkeit beginnt mit dem riesigen und komplexen kulturellen Gebäude von seinen Vorgängern aufgestellt werden. Diejenigen, die als seine geistigen Vorgänger genannt werden können, sind nur die Namen sichtbar Gipfel der großen Berge der anonyme Beiträge. Computer sind jetzt so allgegenwärtig wie Elektromotoren. Abgesehen von meinem Desktop-Computer mit seinen Fenstern und Maus, ich weiß, es gibt eine in meine Uhr, Rechner, Waschmaschine, Kamera, TV-Fernbedienung, und so weiter. Der Computer in meine Uhr, aber in nicht `` richtig '' ein Computer nicht mehr, denn es hat sich zu einem festen Zweckgerät eingeschaltet wurde. Ich kann nicht programmieren, noch kann ich Programme hinzufügen. Was sind die wesentlichen Merkmale, die eine richtige Computer muss? Diese werden in der Regel in dem Satz zusammenfassen Allzweck programmierbaren Computer . Die Allgemeinheit der General Purpose Programmierbares Computer- Es ist bemerkenswert, dass es so etwas wie der Universalcomputer, ein Stück Hardware mit einem Repertoire von modularen Grundfunktionen, die so programmiert werden kann, tun alles, was berechenbar ist. Es ist keineswegs klar, dass dies möglich sein sollte. Und selbst wenn es theoretisch möglich, ist es keineswegs selbstverständlich, es wäre denkbar. Zum Beispiel Spezialanwendungen, wie Matrix-Algebra oder Sprachübersetzung, für die praktische Geschwindigkeit und Wirtschaftlichkeit erforderlich machen könnten, ihre eigenen speziellen Computer-Hardware haben . Die überraschende Tatsache ist, dass nicht nur ein Computer für allgemeine Zwecke möglich und praktisch, aber es ist überraschend einfach, es wird nicht mehr als eine Handvoll von logischen Grund und Steueroperationen. Weil es hilft, Geschwindigkeit und vereinfacht die Programmierung, in der modernen Desktop-Computer diese grundlegende Handvoll von Anweisungen wird in der Regel erweitert, um verpackt mathematische, Speicherverwaltung und Bild Bitmap-Funktionen enthalten, um nur einige zu nennen, aber das sind nur gehen-schnellere Leckereien. Sie sind nicht wesentlich, weil sie aus mehreren Basisbefehlen aufgebaut sein. In der Praxis werden die Grundbefehlssatz der heutigen Computer-Prozessoren, in die alles, was sie tun können, ist schließlich übersetzt, liegt irgendwo zwischen zehn und einigen hundert, die zusätzlichen Anweisungen als praktisch verpackt Funktionen, die bereits mehr mühsam mit einfacher Anweisungen hätte tun können. Alan Turing war das Genie, die bewiesen, dass die Mehrzweck-Computer möglich war und einfach 1937, obwohl die hoffnungsvollen Verdacht, dass so etwas wie dies der Fall sein könnte wurde von vielen früheren Denkern wie Liebniz statt. Die Programmierbarkeit des General Purpose Programmierbares Computer- Macht den Allzweckcomputer Allgemeinen ist, dass es sein kann, programmiert . Theoretisch kann sie programmiert werden, um irgendetwas tun berechenbar. In der Praxis einige Dinge, wie der Blick weit voraus auf alle relevanten Enden einer Partie Schach, aus den besten ersten Schritt erarbeiten, erfordern ein sehr großes Computer, in dem Sinne, dass unser Universum nicht groß genug ist, um es zu enthalten. Andere Dinge, wie Rissbildung jemandes PGP verschlüsselte Nachricht, erfordern eine ungünstig große und teure Computer. Einige Dinge, wie zum Beispiel das Schlagen der Welt Go Champion, während theoretisch programmierbar, haben wir nicht ausgearbeitet, wie man noch nicht. Und schließlich, genau dort, wo die Grenzen zwischen berechenbaren und der nicht berechenbaren liegen und ob kompliziertere Dinge als Computer (vielleicht Gehirn?) Können nicht-berechenbare Dinge zu tun, und wie wichtig dies ist, sind alles eine Frage der aktuellen Debatte. Ein entscheidender Aspekt der Allzweck Programmierbarkeit ist, dass es möglich sein muss, um zu schreiben und zu installieren große komplexe Programme. In den frühen Tagen der Mainframe-Computer ein Programm von mehreren Tausend Bytes groß. Programme sind heute routinemäßig Hunderte, manchmal Tausende Male größer ist als diese. Was macht das möglich ist die Existenz von Software-Tools , Programme, die Sie, Programme zu schreiben helfen. Und was Softwaretools möglich ist, dass die Eingangsdaten in ein Programm kann ein anderes Programm sein, das heißt, können Programme lesen und schreiben Programme. Speichern des Computerprogramms in der gleichen Weise wie die Daten: Diese Art von sehr leistungsfähigen rekursiven Allgemeinheit wird von einem besonderen Merkmal der Computerarchitektur ermöglicht. Das entscheidende Merkmal ist üblicherweise zum Begriff abgekürzt gespeicherten Programm . In den frühen Tagen, als Computerspeicher war klein und teuer und Software-Tools nicht vorhanden war ein weiterer wichtiger Aspekt, der von den vorgesehenen speicherprogrammierbaren - wahlfreien Zugriff auf Programmcode. Dies ermöglicht eine Programmverzweigung, bedingte Sprünge, Unterprogramme, Rekursion, Iteration, die alle wichtigen Merkmale der strukturierten Programmierung. Es ermöglicht auch die Steuerung eines Programms durch eine andere, dh der Begriff des Betriebssystemen und Anwenderprogrammen. Turings Konzept dessen, was wir jetzt die Turing-Maschine nennen ausgebeutet diese Ideen. Allerdings, wenn der Speicher auf wenige Dutzend Worte, es war unpraktisch, wertvollen Speicherplatz auf Speichern von Programmcode zu verschwenden begrenzt, so dass dies in anderer Form manchmal in physischen Verbindungen, wie beispielsweise ein Steckbrett manchmal auf Papierband gehalten,,. Solche Maschinen sind daher nicht Programm gespeichert Computern. Jedoch kann in einigen Fällen auch die Direktzugriffsprogrammcode erkannt wurde, weil es aktiviert diese zusätzlichen, nützlichen Merkmale der Programmierbarkeit wie Iteration und Verzweigung, und so wurde sie durch Rezirkulieren Bandschleifen, wie in dem Fall von Colossus, wo beträchtliche realisiert Kosten und Einfallsreichtum wurde bei der Herstellung der Bänder zu unglaublich hoher Geschwindigkeit ausgegeben. Und obwohl nicht unbedingt Programm gespeichert Computern kann man argumentieren, dass solche Maschinen hat die Bedeutung des Konzepts, und fand einen Weg, der in den technischen Zwängen der Zeit ihrer Umsetzung, ohne die sehr teuer Daten Erinnerungen an die Zeit. Und natürlich könnte ein Programm, das auf Papierband gehalten wurde Ausgabe auf Papierband durch ein anderes Programm sein, so dass Software-Werkzeuge waren auch möglich. Was wir jetzt denken Sie an, wie der Computerrevolution, Cyberspace und der ganze Rest von ihm, ist unmöglich ohne diese entscheidende Eigenschaft der gespeicherten Programms . Viele der frühen Geräte, die oft behauptet werden, um Computer, wie ENIAC werden, auf jeden Fall fehlte diese entscheidende Element der Architektur. Der Mathematiker John von Neumann, nachdem er Mitglied der ENIAC-Team veröffentlichte ein Papier beschreibt die verbesserte EDVAC Architektur und Einbeziehung der entscheidenden speicherprogrammierbaren Einrichtung. Aus diesem Grund ist die Architektur der modernen Computer wird oft als die `` von Neumann-Architektur '' genannt. Wenn nach Mauchly kritisiert, Von-Neumann später räumte ein, dass er es versäumt hatte, die Beiträge von Eckert und Mauchly an die Design-Ideen in diesem Papier erkennen und später veröffentlicht eine geänderte Fassung anerkennen sie. Doch in seinem 1937 Papier, das von Neumann war vertraut, Turing hatte effektiv als ein wesentliches Merkmal seines Universelle Turing-Maschine, einer idealisierten abstrakten Universalcomputer beschrieb diese speicherprogrammierbaren Idee. Von Neumann versäumt Turing in beiden Fassung seines Papiers zu nennen. Und Zuse in Deutschland im Jahr 1936 machte deutlich Bezug auf die Idee (die aus praktischen Gründen, die er nicht beabsichtige, zu implementieren) in einem Computer-Patentanmeldung, die verwirrt Patentbehörden abgelehnt. Es sollte berücksichtigt werden, aber, wie oben erwähnt, dass in den frühen Tagen, als ein einzelnes Byte des Speichers war groß und teuer ist, war die Idee, eine ziemlich unpraktisch Luxus. So ist es fraglich, dass Maschinen, die die Bedeutung der Idee erkannt und in der Tat die Umsetzung gespeicherte Programm in Random Access Hintergrundspeicher, wie Colossus Hochgeschwindigkeits-Bandschleifen, als gemäß der gezählt werden gespeicherte Programm Design-Merkmal. Jedoch nahe auf andere Weise, es könnte zu einem modernen Computer sein, gibt es keine Möglichkeit, dass ein Computer-ähnliche Maschine, die diese fehlte gespeicherte Programm -Funktion könnte erweitert werden, damit könnte es wie ein moderner Computer zu verhalten, in der Lage, Entwicklung und Ausführung von komplexen Systemen geschichteten hierarchische Struktur. Aus diesem Grund ENIAC im Wesentlichen einem Taschenrechner, die so konfiguriert werden kann, um Algorithmen laufen, ist kein Kandidat für die erste Computer. ENIAC war eine Vorstufe des modernen Computers. In der Tat in der konzeptionelle Architektur war das elektronische Ventil (Schlauch) auf der Grundlage ENIAC Wesentlichen die gleichen wie Babbage Uhrwerk Analytical Engine der 1830er Jahre. [Die Regierung schließlich geschlossen Finanzierung für den Bau von Babbage Analytical Engine, bevor es fertig war, mit der Begründung, dass sie entweder nicht funktionieren würde, oder dass Babbage war nicht in der Lage sein, um es zu arbeiten. Seitdem gab es Diskussionen darüber, ob das Design war möglich, und wenn ja, ob der viktorianischen Technologie der Zeit war, bis zu der Aufgabe, die es. Das Science Museum (Kensington, Großbritannien) hat sowohl diese Fragen positiv durch den Bau der Rechenwerk der Analytical Engine nach Babbage Design, und nicht mit beliebigen Methoden nicht zur Verfügung stehen Babbage beantwortet. Es funktioniert sehr gut.] Die erste Beschreibung eines programmierbaren Allzweckcomputer Es besteht kein Zweifel, dass Turing war der Erste, der diese Architektur auf `` Berechenbare Numbers '', die die Existenz einer abstrakten Universalcomputer (heute Universal Turing-Maschine bekannt) bewiesen zu veröffentlichen, über seinem 1937 Papier. Obwohl Zuse erwähnt die Idee in seinem 1936 Patentanmeldung ist es klar, dass Turing hatte ein viel besseres Verständnis der theoretischen Bedeutung der Idee. Bei der Prüfung, ob eine Art von Gerät oder formale System hat die Macht der Computer für allgemeine Zwecke, Mathematiker und Informatiker nutzen jetzt den Begriff Turing-Äquivalent als Kurzform für diese Fähigkeit. Die erste Implementierung eines programmierbaren Allzweckcomputer Wer zuerst eine Maschine gebaut, mit diesen grundlegenden Architekturmerkmale? Der zweite Weltkrieg durcheinander die Chronologie ein bisschen, verbergen einige Entwicklungen, und andere zu verschieben. Sollten wir als erste Maschine ein, die nicht richtig für einen unwesentlichen technischen Grund funktionierte zählen? Nehmen wir den Zeitpunkt der Fertigstellung des Entwurfs, oder das Datum, wenn es richtig funktioniert? Sollten wir ausschließen, funktionierende Prototypen im Labor und bestehen auf der ersten hergestellten Computer, kaufen konnte? Angesichts der vielen konkurrierenden Ansprüchen ich kurz die meisten Kandidaten berücksichtigen. Atanasoff ABC? Während von 1937 bis 1942 entwickelt Atanasoff und mit Hilfe seiner Schüler Berry, baute das ABC (Atanasoff Berry Computer) an der Iowa State College (heute Universität). Mauchly verbrachte viele Tage mit Atanasoff 1940 Studium dieser Maschine. Im Wesentlichen ein leistungsfähiges konfigurierbare Rechner, war es in einigen Aspekten der Gestaltung technisch fortgeschritten als Mauchly-ENIAC, aber (wie ENIAC) fehlte die entscheidende gespeicherten Programmkonzept. Dies war der erste Computer, elektronische Ventile (Rohre) verwenden, um Rechenaufgaben. Atanasoff aufgehört, dies mit dem Aufkommen des Krieges, und es nie zurückgegeben. Blume Colossus? 1943 Flowers in Bletchley Park baute die erste Maschine Colossus, einen programmierbaren Rechner speziell für die deutschen Enigma-Chiffre Militärmaschinen zu knacken. Es wurde in der neuartige elektronische Ventil-Technik, die dem Bletchley Code brechenden Bemühungen von Blumen aus dem GPO gebracht worden war gebaut. Zu wirklich spezialisiert auf den Titel eines "Universalcomputer" verdient, aber dennoch enthalten alle Elemente des modernen Mehrzweck-Computer mit Ausnahme der entscheidenden gespeicherte Programm streng wörtlichen Bezug, aber es ist fraglich, dass ihre Hochgeschwindigkeitsbandschleifen waren eine Anerkennung und Umsetzung der Idee in einem Direktzugriffssicherungsspeicher. Britische Regierung Verschwiegenheit über Code-breaking gehalten dieser und den folgenden Arbeiten nur wenig außerhalb der unmittelbar mit der britischen Computer-Design verbunden bis vor kurzem bekannt. Am Ende des Krieges die Bletchley Colossus Maschinen wurden sorgfältig in kleine Stücke zerschlagen. Großbritannien über die Rechte an den deutschen Enigma cypher Maschinen als Kriegsbeute wurde und für den nächsten Jahrzehnten hergestellt und verkauft sie an ihre Verbündeten als äußerst sicher vollständig uncrackable cypher Maschinen. Britischen Besitz von einer Maschine, die leicht zu knacken konnte die Enigma-Codes wäre sehr nützlich gewesen, aber auch unbedingt gehalten sehr gut gehütetes Geheimnis. Ich bin mir daher sicher, dass die Fähigkeit beibehalten, durch den Bau eines Colossus ähnlichen Maschine an anderer Stelle (oder das Versäumnis, zu zerstören all die Bletchley Maschinen). So Colossus war nicht ganz die erste moderne Computer, obwohl näher als alles, was zu der Zeit anders. Aikens Harvard Mk1? 1943 Die Harvard Mark 1 (auch als IBM automatischen Ablauf gesteuert Rechner bekannt) wurde von Relais, rotierenden Wellen und Kupplungen aufgebaut. Es war im Wesentlichen ein Babbage Analytical Engine in Relaistechnik, und es fehlte die wichtige speicherprogrammierbare Funktion. Im Gegensatz zu früheren Zuses Z1-Z3 Maschinen beschäftigte es die eher verschwenderisch Dezimaldarstellung von Zahlen, natürlich für Babbage Gänge, aber für Relais ziemlich dumm. Zuses Computer? Zuses früheren Maschinen (Z1 [1938] -Z3 [1941]) waren sehr elegant, wirtschaftlich, und anspruchsvoll im Design, beispielsweise mit dem wesentlich wirtschaftlicher binären Darstellung der Zahlen. Die Z1 war mechanisch, aber die Verwendung von binären Zuse war viel sparsamer und schneller als Babbage dezimal Uhrwerk. Der Speicher wurde aus dünnen Streifen aus geschlitzter Metall und kleine Stifte ausgebildet und erwies schneller, kleiner und zuverlässiger als Relais. Die Z2 verwendet die mechanische Speicher der Z1, sondern verwendet Relais-basierte Rechen. Die Z3 wurde experimentell ganz aus Relais aufgebaut. Der Z4 ist der erste Versuch in einem kommerziellen Computer, Rückgriff auf die schnellere und kostengünstigere mechanische geschlitzte Metallband-Speicher, mit Relaisverarbeitung, der Z2, aber der Krieg unterbrach den Z4 Entwicklung. Für eine lange Zeit Zuse bezweifelte den Nutzen der bedingte Verzweigungen, da es nicht in der Art der Berechnung interessiert er sich. Zuse war verfügen versucht hatte, Hitler in die Möglichkeiten seines Computer interessieren, aber, vielleicht zum Glück, Hitler war nicht sehr beeindruckt und Zuses Kriegszeitmaschinen weitgehend ihren Unterhalt zu tun Flugzeugflügel Konstruktionsberechnungen verdient. Als er nach dem Krieg gelang es, seinen Rechenarbeit und eine Firma (Zuse KG) Herstellung und Verkauf von Computern war es 1957, bevor er tatsächlich gebaut ein gespeichertes Programm Computer, die Z22 wieder aufzunehmen. Die ersten kommerziellen Erfolge der Zuse KG waren die umgebauten Z4, nach Zürich Polytechnic verkauft für die mathematische Forschung und ihre schnellere Nachfolger, den Z5, um Leitz verkauft für optische Arbeit. Obwohl Zuses Entwürfe waren elegant, einzigartig, und sehr zu ihrer Zeit fortschrittlich, und er tat erkennen den Nutzen der gespeicherten Programmkonzept, die aus verschiedenen Gründen er nicht tatsächlich umsetzen, eine Maschine verkörpert dieses Konzept bis weit nach anderen Pionieren war getan. Ärgerlich ist es klar, dass er wahrscheinlich * könnte * haben so, bevor jemand anderes getan. Das in den frühen Tagen bekam er so weit vor dem Spiel trotz fast allein zu arbeiten, in Unkenntnis der Entwicklungen in anderen, auch früheren Arbeiten wie Babbage und mit wenig Unterstützung von außen ist sehr beeindruckend. Im Jahr 1964 Eigentum des Unternehmens überging an die Siemens AG, die später erkannt Zuses Leistungen und finanziert ihn zu einigen seiner frühesten Maschinen für Museumszwecke zu rekonstruieren. Eckert und Mauchly-ENIAC? Im Jahre 1945 wurde ENIAC in den USA arbeiten. Es wurde von einer Steckerleiste, die sich die verschiedenen Berechnungseinheiten in der richtigen Konfiguration verdrahtet, um eine bestimmte Polynom auszuwerten programmiert. In der Architektur war es im Wesentlichen ein Babbage Maschine in Ventil (Rohr) -Technologie umgerechnet. Eckert & Mauchly, die Designer, in dieser Zeit patentierte eine digitale Recheneinrichtung, und werden oft behauptet, die Erfinder der Computer sein. Es wurde später in einem 1973 US-Gericht Kampf zwischen Honeywell und Sperry Rand bewiesen, dass, während die Ausgaben fünf Tage Atanastoff Labor, Mauchly beobachtet das ABC und lesen Sie dessen 35-Seiten-Handbuch. Später wurde nachgewiesen, dass Mauchly diese Informationen bei der Konstruktion des ENIAC benutzt hatte. Daher ist John Atanasoff jetzt (von einigen US-Geschichte) als Erfinder des ersten elektronischen Computer eingeläutet. In unseren Bedingungen sowohl ENIAC und die ABC fehlte die entscheidende gespeicherte Programm-Funktion. Wenn jedoch ENIAC und Atanasoff ABC werden als mit den wesentlichen Merkmalen des modernen Computers zu betrachten, dann sollten wir auch die vor Ansprüchen von Zuse in Deutschland, dessen Z1 (1938) und Z2 (1939) und den Realisationen voran ENIAC, nicht zu Babbage Analytical Engine-Design von 1834 erwähnt, wurden Varianten von denen erfolgreich durch spätere Ingenieure, wie Scheutz (1843) und Wiberg (1860) gemacht. Mit anderen Worten, argumentiere ich, dass es schwierig ist, einen Weg, um die Definition von Computer zu ändern, um entweder ENIAC oder die ABC die erste machen finden. Im Jahr 1945 veröffentlichte John von Neumann die EDVAC Bericht, eine kritische Überprüfung der Gestaltung der ENIAC und einen Vorschlag für die hervorragende Gestaltung EDVAC. Dies ist weithin als der Ursprung der Idee des modernen Computers betrachtet, enthält die grundlegende Idee des gespeicherten Programms. Allerdings wurde diese Idee in der Allgemeinen Turing-Maschine Idee Turings 1937 Papier, das von Neumann war zweifellos vertraut mit enthalten (er wusste Turing als Berufskollegen), aber vergessen zu erwähnen. 1946 Die ENIAC-Team beendete das Design des EDVAC basierend auf von Neumanns Vorschläge. Dies war ein echter Computer gespeicherte Programm, aber nicht bekommen arbeiten bis 1952. Dadurch war es zu spät, um die erste echte Computer sein. Obwohl von Neumann hat zu versuchen, zu viel Originalität in seinen ersten Veröffentlichungen der wesentlichen Ideen der modernen Computer-Architektur behaupten vermutet, muss anerkannt werden, dass er selbstlos hat viel Rechen Forschung und Entwicklung durch die Weigerung, zu versuchen, profitieren voran diese Ideen, und stattdessen machte alle seine Ideen und Entwürfe so weit wie möglich zur Verfügung, damit so schnell wie möglich eine große, gut ausgestattete colloborative Forschungsgemeinschaft zu schaffen. Turings ACE? 1946 Das National Physical Laboratory ernannt Turing, der entwickelt hatte Ideen der Umsetzung seiner Turing-Maschine Konzept der Mehrzweckrechen in elektronischer Form, zu einer rivalisierenden britischen Projekt soll EDVAC, als ACE bekannt deklassieren. Turing schlug die wesentlich wirtschaftlicher Logik-basierte Rechen. Dieser Vorschlag ist das erste Mal, dass die Idee der softwaregestützte Programmierung, dh Software-Tools, freute im Detail setzen. Obwohl von 1946 Zuse hatte auch fertig Entwicklung der Ideen der Programmiersprache Plankalkül (nach 1942 begonnen), er war zu beschäftigt, laufen seine Computer Gesellschaft dann ist es bis 1972 veröffentlicht zu werden. Allerdings erwies sich die NPL inkompetent oder nicht bereit, die technische Seite zu verwalten und Manchester und Cambridge Rechenarbeit übernahm die Führung. Allerdings war Turings 1946 ACE Design zum Zeitpunkt der fortschrittlichsten und detaillierte Computer-Design in der Existenz. Er trat aus der NPL in Ekel vor ihrer Inkompetenz im Jahr 1948 jedoch im Jahr 1950 sie hatten schließlich runden das Pilot ACE und später sein Nachfolger zum Teufel. Es wurde vorgeschlagen, dass Turing wurde stark von der ACE-Projekt als bewusste Politik von den Sicherheitsdiensten angestiftet zu Turing von britischen Computerentwicklung Squeeze behandelt. Als sie sah, mit der Rückschau der außergewöhnliche Erfolg der Colossus in Bletchley Park in Risse deutschen militärischen Chiffren waren Computer red hot militärischen und geheimdienstlichen Technologie. Turing hatte keinen Respekt vor der Autorität, wusste zu viele Geheimnisse aus seiner Kriegsarbeit und als Homosexueller als hohes Sicherheitsrisiko wurde. Sie hatten keine andere Wahl als ihn für den Job bei der Notfall des Krieges zu benutzen, als der beste Mann, hatte. Nach dem Krieg war auf seinem Gesicht passte nicht. Es ist schwierig, die Höhe des Schadens abzuschätzen diese Behandlung von Turing und Verpackung dann weltweit führenden Computer-Know-how Großbritanniens in den Official Secrets Act, dem britischen Informatik und die Entwicklung der britischen Computer-Technologie hat. Die Offenheit der US Entwicklungen, absichtlich von von Neumann förderte, war ein starker Kontrast. Beachten Sie, dass im Jahr 1946 Eckert und Mauchly in den USA, in Großbritannien Turing und Zuse in Deutschland, alle hatten detaillierte Entwürfe für modernen speicherprogrammierbaren Computer. Der Manchester SSEM (`` Baby '') Am 21. Juni 1948 lief der erste gespeicherte Programm auf der Small-Scale Experimental Machine (SSEM), der Vorläufer des Manchester Mk 1. Diese SSEM war die erste Maschine, die alle Komponenten nun klassisch als charakteristisch für die grundlegende Computer angesehen hatte, die meisten Wichtiger Programmspeicher in der gleichen Form als Daten. So war der Manchester SSEM der Erste, zu arbeiten. Andere folgten schnell. Der Manchester MU1 Im April 1949 wurde der Manchester Mark 1 war fertig und war in der Regel für das wissenschaftliche Rechnen an der Universität zur Verfügung. Mit der Integration von einem Hochgeschwindigkeits-Magnettrommel im Herbst (die Vorfahren der heutigen CD) war dies die erste Maschine mit einem schnellen elektronischen und magnetischen Zwei-Ebenen-Speicher (dh der Fähigkeit für den virtuellen Speicher). Es war wiederum die Grundlage für die erste kommerziell erhältliche Computer, der Ferranti Mark 1, die erste Maschine aus der Produktion in Februar 1951 ausgeliefert. Die Cambridge EDSAC Im Mai 1949 wurde die britische EDSAC Computer in Cambridge begonnen, eine weitere echte speicherprogrammierbaren Computer, diesmal auf der Grundlage der EDVAC Design, und das Projekt von Lyon, das Teehaus Unternehmen, das später entwickelte das LEO kommerzielle Computer unterstützt. Die EDSAC war viel größer und schneller als die Maschine MU1, und könnte als der erste Computer gespeicherte Programm von mehr als experimenteller Prototyp Größe, der Lage, erhebliche eigentliche Arbeit werden. Harvard Mk 3 Aiken-Team runden das Harvard Mk 3, eine große speicherprogrammierbaren Computer. NPL Pilot ACE Turing war nun die NPL Gruppe verlassen, aber das NPL Pilot ACE auf seinem Design basiert und wurde Mai 1950 beendet. SEAC Im Mai 1950 wurde die Washington (Eastern) National Bureau of Standards beendet eine einfache gespeicherte Programm Computer ihrer eigenen und nicht warten, bis ein kommerzielles Computer um anzukommen. SWAC Im Juli 1950 wurde die West National Bureau of Standards Gruppe abgeschlossen eigene speicherprogrammierbaren Computer, in dieser Zeit der schnellsten der Welt, in der Lage, einen Zusatz in 64 Mikrosekunden zu tun. Z4-Z5 Im Jahre 1951 die Reparatur und Rekonstruktion von unterbrochenen Kriegszeit Z4 Entwicklung Zuses, schließlich fertig war und nahm ihre Arbeit im Eidgenössischen Polytechnikum in Zürich, die dank ihrer Rechenleistung wurde bald einer der führenden Zentren in der numerischen Analyse. Zu dieser Zeit war Deutschland an der Entwicklung der Computer auch, aber nicht wie, was sie als Zuses eigenwillige altmodische Technologie sah, im Vergleich zu den amerikanischen Designs. Ironischerweise, obwohl die amerikanischen Designs verwendet später Technik, war ihre Computer-Architektur nicht so weit oder so elegant wie Zuses oder als zuverlässig. Der Z4 war der letzte Zuse Computer Zuses einzigartige geschichteten Metallband mechanische Speicher. Die Z5 (1952) war eine schnellere Entwicklung der Z4 mit Relais, und wurde von Leitz für optische Berechnungen verwendet. Beachten Sie übrigens, dass die Remington Rand M9, eine Rechen Schlag, von denen 30 wurden und zwischen 1951 und 1955 verkauft wurden Zuse Z7S, gemacht für Remington bestellen. Die Ferranti Mk 1 Im Februar des Jahres 1951 Die Ferranti Mark 1, von der Manchester Mark 1 entwickelt, hat seine erste Maschine vom Band. Dies wird behauptet, um die erste kommerziell erhältliche Computer sein, nur das Schlagen der US UNIVAC. UNIVAC Im gleichen Jahr wurde die UNIVAC 1 kommerzielle Computer in USA produziert, auf der Grundlage der EDVAC Design und von Eckert und Mauchly, der zu dieser Zeit hatten ihre UNIVAC Firma Remington Rand verkauft werden. Es beschäftigt Dezimalarithmetik, mit einem zugrunde liegenden Darstellung der Zahl als "überschüssige drei Notation" bekannt. Wenn die Grundelemente der Computertechnologie so groß, teuer und nur von kurzer Dauer waren (elektronische Ventile oder Rohre) war dies eine sehr verschwenderische Art, die Dinge im Vergleich zu der die elegante Einfachheit von binären. Diese frühen Computer Pioniere oft der Größe ihrer Computer in Bezug auf die Anzahl von Rohren (Ventile) sie enthalten prahlte, aber dies war oft auf sehr verschwenderisch Design. LEO Im Frühjahr 1951 der erste britische Handels LEO Computer, von EDSAC abgeleitet, lief Demonstrationen. Im Herbst ist installiert und aktiv Akzidenzen wurde. Es hieß "LEO", weil sie von Lyons Teehäuser entwickelt zu handhaben ihre Bestandskontrolle, Gehälter, etc .. Diese bemerkenswert weitsichtigen Unternehmen in der Forschungs- und Entwicklungsarbeit zu produzieren, was eine sehr vorgerückte Maschine für die Zeit investiert, und besser zu kommerziellen Berechnung als die wissenschaftlich aromatisierte Ferranti geeignet. Die LEO Gesellschaft wurde anschließend in den Englisch-Elektro-Löwe-Marconi-Konsortium, einer von Großbritanniens zwei großen Computerfirmen, die Tony Benn als Minister für die Industrie im Jahr 1968 zusammengeschlossen mit dem anderen, ICT absorbiert, um ICL in einem Versuch, weiter zu bilden widerstehen die Vermarktung Macht der IBM. EDVAC 1952 EDVAC selbst arbeitete zum ersten Mal. Es ist EDVAC und UNIVAC, auf dem die USA könnten richtig beanspruchen nachdem entstand der erste moderne gespeicherte Programm "von Neumann" -Computer. Doch sowohl der britischen MU1 (1948) und dem britischen Cambridge EDSAC (1949) waren gut, bevor diese ausgeführt wird. Entscheidet man sich für die Definition der Computer wieder in den ersten programmierten Sequenz Rechner (im Wesentlichen Babbage Maschinen), dann die US ENIAC 1945 wurde es im Jahre 1943 von den Briten Koloss von Blumen an Bletchely Park und Zuses Z1 / Z3 geschlagen verschieben (1938 / 1941) in Deutschland. Es ist auch fraglich, dass Colossus war zu spezialisiert Richtung Codes zu knacken und so nicht gezählt habe. Manchester University Mark 2 1954 wurde die Universität Manchester Mark 2 begonnen, eine verbesserte Version des MU1, mit Hardware unterstützt Gleitkomma. Dieses wurde als das Ferranti Mercury Computer vermarktet. Computer-Generationen Man kann argumentieren, dass, obwohl die von Neumann / Turing-Architektur enthalten die entscheidenden Merkmale des modernen Computers, die Implementierungen von ihnen in der elektronischen Ventil (Schlauch) Technologie wurden zu stark in die Zuverlässigkeit und der Größe begrenzt, um diese Funktionen richtig zu nutzen. Hohe Zuverlässigkeit erforderlich, die Erfindung und die Verwendung des Transistors. Um Transistoren klein genug, dass die Computer könnten bei Megahertz Befehlssätze mit Megabyte schnellen Direktzugriffsspeicher ausgeführt erforderliche Miniaturisierung Techniken zuerst in LSI (Großintegration) und es werden schnell deutlich in VLSI (very large scale integration) verlängert, ansonsten bekannt als `` Siliziumchips ''. Der erste Computer, auf Transistoren basieren wurde an der Universität Manchester im Jahr 1953 fertig Dieses gestattet Computer zum ersten Mal zuverlässig und klein genug weit verkäuflich für die allgemeine Wirtschaft und Wissenschaft verwendet werden zu können, um zu werden, und wird oft als der zweiten Generation bezeichnet Computer, wobei die erste auf elektronische Ventile (Röhren) basiert. Wir haben nun in die vierte Generation, oder vielleicht die Fünfte bekam, wie der Liste unten erklärt. Seit der ersten speicherprogrammierbaren Computer wurde mit elektronischen Ventilen (US-Rohre) bauten wir nicht brauchen, um die `` nullten Generation '' der Relais oder die `` minus ersten Generation '' Uhrwerk berücksichtigen. Die Generationen werden von Veränderungen in der Technologie, die ausreichend radikal zu erheblichen Verbesserungen in der Leistung, die zu neuen Architekturen, Anwendungen und Märkten führte zu ermöglichen wurden getrennt. Erste Generation (c1950): Diese wurden von elektronischen Ventil (Vakuumröhre) Technologie. Folglich waren sie groß ist, verbraucht viel Strom, und waren nicht zuverlässig genug für den Dauerbetrieb für Tage am Stück. Sie waren nur für Enthusiasten und Menschen, die zu ihnen hatten geeignet. Second Generation (c1960): Diese wurden aus Transistoren aufgebaut. Das waren so viel kleiner, verbraucht so viel weniger Strom, und waren so langlebig im Vergleich zu Ventilen, dass es sich um die ersten Computer, der erfolgreich vermarktet werden konnten. Third Generation (c1970): Diese wurden von Large Scale Integration (LSI) für viele Transistoren auf einem einzigen Chip integriert. Dies gestattet die Diversifizierung der Computer-Markt in zwei verschiedene Bereiche. Die erste verwendet die Technologie, um viel mehr leistungsfähigen Computern in der gleichen Größe und nach wie vor noch unter dem Namen `` Mainframes '' Preis zu bauen. Die zweite verwendet die Technologie, um kleine billige Computer, die die Macht der vorherigen Generation von Mainframes zu einem Bruchteil der Größe und Kosten angeboten bauen. Dies waren genannt Minicomputer. Vierte Generation (c1980): Diese wurden von Very Large Scale Integration (VLSI) von vielen Tausenden von Transistoren auf einem einzigen Chip integriert. Dies gestattet die Diversifizierung der Computer-Markt in zwei verschiedene Bereiche. Die erste verwendet die Technologie, um viel mehr leistungsfähigen Computern in der gleichen Größe und nach wie vor noch unter dem Namen `` Mainframes '' und `` Minicomputer '' Preis zu bauen. Die zweite verwendet die Technologie, um kleine billige Computer, die die Macht der vorherigen Generation von Minicomputern zu einem Bruchteil der Größe und Kosten angeboten bauen. Dies waren genannt Mikrocomputer. Dies waren PCs, da sie klein und billig waren genug, dass sein Leerlauf, wenn die Besitzer nicht mit ihnen spielte keine Rolle. Fünfte Generation (c1990): Die Japaner verursachte einige Alarm in den USA und Großbritannien mit der Ankündigung ihrer Absicht, die fünfte Generation entwickeln, die auf Ideen der Künstlichen Intelligenz Forschung entwickelt. Im Gegensatz zu früheren Generationen war dies nicht auf eine klare Diskontinuität Hardware basiert, und das Projekt am Ende teilweise verfehlte ihre ursprünglichen Ziele und wurde teilweise durch die Ereignisse überholt. Kein wirklich guter Kandidat für das Label von der fünften Generation hat noch gedreht, obwohl eine Möglichkeit ist die Verknüpfung von Computern über das Internet und das World Wide Web, so dass sie zu Teilnehmern in einem sehr großen und schnell wachsenden weltweiten globalen Informations Laden. Während die Ideen und frühen Implementierungen sind Jahrzehnte alt (das Internet begann als DARPA Defence Research net in den USA und als Janet [Joint Academic Network] in Großbritannien), war es nur in den 1990er Jahren, dass eine große Zahl der Bevölkerung erworben ihre persönlichen Computer mit Internet und Web-Fähigkeit als Standardfunktion. [Tatsächlich vermute ich, dass die fünfte Generation hat auf uns in Form von interaktiven Berechnung, die die Macht der Turing-Typ algorithmische Berechnung erstreckt weitgehend unbemerkt eingeschlichen noch, und die wir schon seit einiger Zeit zu nutzen wurde ohne zu merken, seine volle theoretischen Implikationen zB Peter Wegners Interaktion Papiere .] Chris Malcolm 4. Mai 2000 Einige der nützlichen Web-Quellen, die ich bei der Zusammenstellung konsultiert dies unten angezeigt. Ich danke auch Simon Lavington ist `` Frühe britische Computer '' (Manchester University Press, 1980) und eine lange Karriere im Computer, beginnend mit einer ICL 1904 in den 1960er Jahren. In seiner Zeit diese ICL 1904 war ein großer leistungsstarke Maschine besetzt einen klimatisierten Raum größer als meine ganze Haus, ist aber jetzt ernsthaft in allen Rechen Hinsicht nach meiner Tasche Psion deklassiert. ABC Wiederaufbau . ABC / ENIAC gerichtlichen Auseinandersetzungen . Ein US-centric Computing Geschichte . Mining Co. Auflistung der Computerpioniere von Zuse an Apple . EPEMag die ausführliche Biographie Zuses Rechenarbeit , von seinem Sohn, Prof. Horst Zuse. Eine Rechen Biographie Konrad Zuse selbst . Mark Brader Computing Chronologie . Fourmilab die umfassende Überprüfung der Babbage Analytical Engine , einschließlich einem Emulator, sowie Greg Cook inoffizielle Rechenwerk Bugfixes . Transcript eines ausgezeichneten Vortrag von Doran Swade auf Babbage .

Chronologien

  • Maschinen
  • Theorien
  • Erfinder
  • Industrie

  •  

    Maschinen

    1937 Zuse Z1
    1941 Zuse Z3
    1941 Atanasoff-Berry-Computer
    1943 Colossus (Newmann)
    1944 Mark 1 (Aiken)
    1946 ENIAC
    1948 "Small Scale Mark"
    1949 Manchester Mark 1
    1971 Intel 4004
    1972 Intel 8008


     

    Theorien

    1936 On Computable Numbers
    1945
    FirstDraft


     

    Erfinder

    C.Babbage
    K. Zuse
    H. Aiken
    J. von Neumann
    Turing


     

    Industrie / Organisation

    1937 Beckman Coulter Gründung 1935, 1955 Shockley Semiconductor als Tochtergesellschaft.
    1955 Shockley Semiconductor Laboratory Transistoren auf Silicium.
    1957 Fairchild Semiconductor, abgesprungenes Shockley Personal
    1957 Intel Corporation, abgesprungenes Fairchild Personal

     

    Links

    Leitenberger


     

    Anmerkungen

    1) Die Kybernetik nicht fragt, was dieses Ding ist, sondern wie es funktioniert (Ashby1974, S,15). ( zurück)
     
    2) Computer sind heute in allen Bereichen des täglichen Lebens vorzufinden, meistens in spezialisierten Varianten, die auf einen vorliegenden Anwendungszweck zugeschnitten sind. So dienen integrierte Kleinstcomputer (eingebettetes System) zur Steuerung von Alltagsgeräten wie Waschmaschinen, Videorekorder oder zur Münzprüfung in Warenautomaten ( zurück)
     
    3) Siehe dazu auch Wie funktioniert ein Computer?, wo die Inversion auch behandelt wird. "Ueblicherweise erscheint die Funktion des Computers als irgendeine Art des Rechnens - schliesslich heisst der Computer ja so. Dabei wird der Bildschirm lediglich als Peripheriegerät gesehen, das Ergebnisse, die zuvor errechnet wurden, noch anzeigt. Wenn ich mit dieser Vorstellung erklären will, wie ein Computer funktioniert, muss ich erklären, wie der Computer rechnet. Wenn ich dagegen die hier vorgeschlagene, dazu inverse Vorstellung verwende, muss ich erklären, wie die jeweiligen Bildschirmanzeigen zustande kommen." ( zurück)
     
    4) Todesco, Rolf: Hypertext oder Was heisst Konstruktion im konstruktivistischen Diskurs? In: Rusch, G. / S.J. Schmidt (Hrsg): Konstruktivismus in Psychiatrie und Psychologie, Delfin, Suhrkamp 1999 ( zurück)
     
    5) Das kann man auch etwas differenzierter sehen: IBM - um das wichtigest Beispiel zu nennen - hat natürlich immer "verwendbare" Maschinen verkauft, sich also um den Softwareaspekt in verschiedensten Formen auch gekümmert, was Teil dieser Geschichte sein wird. ( zurück)