Kurze Geschichte der Entwicklung von Computerwerkzeugen. Generationen von Computern

Frühe Geräte und Zählgeräte

Die Menschheit hat vor Tausenden von Jahren gelernt, mit den einfachsten Zählgeräten umzugehen. Am beliebtesten war die Notwendigkeit, die Anzahl der im Tauschhandel verwendeten Gegenstände zu bestimmen. Eine der einfachsten Lösungen bestand darin, das Gewichtsäquivalent des zu ändernden Artikels zu verwenden, was keine genaue Neuberechnung der Anzahl seiner Komponenten erforderte. Zu diesem Zweck wurden einfachste Waagen verwendet, die damit zu einem der ersten Geräte zur quantitativen Bestimmung der Masse wurden.

Das Äquivalenzprinzip wurde häufig in einem anderen, vielen bekannten, einfachsten Zählgerät, dem Abacus oder Abacus, verwendet. Die Anzahl der gezählten Gegenstände entsprach der Anzahl der bewegten Dominosteine ​​dieses Instruments.

Ein relativ komplexes Gerät zum Zählen könnte ein Rosenkranz sein, der in der Praxis vieler Religionen verwendet wird. Der Gläubige zählte wie auf einem Abakus die Anzahl der Gebete, die auf den Körnern des Rosenkranzes gesprochen wurden, und als er einen vollen Kreis des Rosenkranzes passierte, bewegte er spezielle Gegenkörner auf einem separaten Schwanz, die die Anzahl der gezählten Kreise anzeigten.

Mit der Erfindung der Zahnräder entstanden wesentlich komplexere Geräte zur Durchführung von Berechnungen. Antikythera-Mechanismus, entdeckt zu Beginn des 20. Jahrhunderts, der an der Stelle des Wracks eines antiken Schiffes gefunden wurde, das um 65 v. Chr. sank. e. (anderen Quellen zufolge bereits 87 v. Chr.) verstand er es sogar, die Bewegung von Planeten zu simulieren. Vermutlich wurde es für Kalenderberechnungen für religiöse Zwecke, zur Vorhersage von Sonnen- und Mondfinsternissen, zur Bestimmung der Aussaat- und Erntezeit usw. verwendet. Berechnungen wurden durch die Verbindung von mehr als 30 Bronzerädern und mehreren Zifferblättern durchgeführt; Zur Berechnung der Mondphasen wurde die Differenzialübertragung verwendet, deren Erfindung Forscher lange Zeit erst im 16. Jahrhundert zuschrieben. Mit der Antike gerieten die Fähigkeiten zur Herstellung solcher Geräte jedoch in Vergessenheit; Es dauerte etwa eineinhalbtausend Jahre, bis die Menschen wieder lernten, Mechanismen ähnlicher Komplexität zu erschaffen.

„Zähluhren“ von Wilhelm Schickard

Es folgten Maschinen von Blaise Pascal (Pascalina, 1642) und Gottfried Wilhelm Leibniz.

ANITA Mark VIII, 1961

In der damaligen Sowjetunion war die mechanische Addiermaschine Felix die bekannteste und am weitesten verbreitete Rechenmaschine, die von 1929 bis 1978 in Fabriken in Kursk (Werk Schetmash), Pensa und Moskau hergestellt wurde.

Die Entstehung analoger Computer in den Vorkriegsjahren

Hauptartikel: Geschichte analoger Rechenmaschinen

Differentialanalysator, Cambridge, 1938

Die ersten elektromechanischen Digitalcomputer

Z-Serie von Konrad Zuse

Nachbau des Zuse Z1-Computers im Technikmuseum Berlin

Zuse und seine Firma bauten weitere Computer, die jeweils mit einem Großbuchstaben Z begannen. Die bekanntesten Maschinen waren der Z11, der an die optische Industrie und Universitäten verkauft wurde, und der Z22, der erste Computer mit Magnetspeicher.

Britischer Koloss

Im Oktober 1947 beschlossen die Direktoren von Lyons & Company, einem britischen Unternehmen, das eine Kette von Geschäften und Restaurants besaß, sich aktiv an der Entwicklung kommerzieller Computer zu beteiligen. Der LEO I-Computer ging 1951 in Betrieb und war der erste Computer der Welt, der regelmäßig für routinemäßige Büroarbeiten verwendet wurde.

Die Maschine der Universität Manchester wurde zum Prototyp des Ferranti Mark I. Die erste Maschine dieser Art wurde im Februar 1951 an die Universität geliefert, und zwischen 1951 und 1957 wurden mindestens neun weitere verkauft.

Der IBM 1401-Computer der zweiten Generation, der Anfang der 1960er Jahre auf den Markt kam, eroberte mit mehr als 10.000 verkauften Exemplaren etwa ein Drittel des weltweiten Computermarktes.

Der Einsatz von Halbleitern hat nicht nur den Zentralprozessor, sondern auch Peripheriegeräte verbessert. Die zweite Generation von Datenspeichergeräten ermöglichte die Speicherung von mehreren zehn Millionen Zeichen und Zahlen. Es entstand eine Einteilung in starr festgelegte ( Fest) Speichergeräte, die über eine Hochgeschwindigkeits-Datenverbindung mit dem Prozessor verbunden sind, und entfernbare ( abnehmbar) Geräte. Der Austausch einer Diskettenkassette in einem Wechseldatenträger dauerte nur wenige Sekunden. Obwohl die Kapazität von Wechselmedien meist geringer war, ermöglichte ihre Austauschbarkeit die Speicherung nahezu unbegrenzter Datenmengen. Für die Archivierung von Daten wurden üblicherweise Magnetbänder verwendet, da diese mehr Speicherkapazität bei geringeren Kosten boten.

In vielen Maschinen der zweiten Generation wurden die Funktionen der Kommunikation mit Peripheriegeräten an spezialisierte Coprozessoren delegiert. Während der Peripherieprozessor beispielsweise Lochkarten liest oder locht, führt der Hauptprozessor Berechnungen durch oder verzweigt im Programm. Ein Datenbus überträgt während des Befehlsabruf- und Ausführungszyklus Daten zwischen Speicher und Prozessor, und normalerweise bedienen andere Datenbusse Peripheriegeräte. Beim PDP-1 dauerte ein Speicherzugriffszyklus 5 Mikrosekunden; Die meisten Anweisungen benötigten 10 Mikrosekunden: 5 zum Abrufen der Anweisung und weitere 5 zum Abrufen des Operanden.

Als bester Haushaltscomputer der 2. Generation gilt der 1966 entwickelte BESM-6.

Ab den 1960er Jahren: dritte und nachfolgende Generationen

Der rasante Anstieg der Computernutzung begann mit dem sogenannten. „3. Generation“ von Computern. Dies begann mit der Erfindung integrierter Schaltkreise, die unabhängig voneinander von den Nobelpreisträgern Jack Kilby und Robert Noyce hergestellt wurden. Dies führte später zur Erfindung des Mikroprozessors durch Tad Hoff (Intel).

Das Aufkommen von Mikroprozessoren führte zur Entwicklung von Mikrocomputern, kleinen, kostengünstigen Computern, die kleinen Unternehmen oder Einzelpersonen gehören konnten. Mikrocomputer, Mitglieder der vierten Generation, tauchten erstmals in den 1970er Jahren auf und wurden in den 1980er Jahren und darüber hinaus allgegenwärtig. Steve Wozniak, einer der Gründer von Apple Computer, wurde als Entwickler des ersten in Massenproduktion hergestellten Heimcomputers und später des ersten Personalcomputers bekannt. Computer, die auf einer Mikrocomputerarchitektur basieren und über die Fähigkeiten ihrer größeren Verwandten verfügen, dominieren heute die meisten Marktsegmente.

In der UdSSR und in Russland

1940er Jahre

Im Jahr 1948 begann in Kiew unter der Leitung des Doktors der physikalischen und mathematischen Wissenschaften S. A. Lebedev die Arbeit an der Entwicklung einer MESM (kleine elektronische Rechenmaschine). Im Oktober 1951 wurde es in Betrieb genommen.

Ende 1948 benannten sich Mitarbeiter des Energieinstituts nach. Krizhizhanovsky I. S. Brook und B. I. Rameev erhielten 1950-1951 ein Autorenzertifikat auf einem Computer mit einem gemeinsamen Bus. erstelle es. Diese Maschine ist die erste weltweit, die Halbleiterdioden (Cuprox) anstelle von Vakuumröhren verwendet. Seit 1948 beschäftigt sich Brook mit elektronischen Digitalrechnern und deren Steuerung mithilfe von Computertechnologie.

Ende der 1950er Jahre wurden die Prinzipien der Parallelität von Berechnungen entwickelt (A.I. Kitov und andere), auf deren Grundlage einer der schnellsten Computer dieser Zeit gebaut wurde – der M-100 (für militärische Zwecke).

Im Juli 1961 brachte die UdSSR den ersten Halbleiter auf den Markt Universal- Kontrollmaschine „Dnepr“ (davor gab es nur spezialisierte Halbleitermaschinen). Bereits vor Beginn der Serienproduktion wurden damit Experimente zur Steuerung komplexer technologischer Prozesse durchgeführt

Das erste Gerät, das das Zählen erleichtern sollte, war der Abakus. Mit Hilfe von Abakus-Dominosteinen war es möglich, Additions- und Subtraktionsoperationen sowie einfache Multiplikationen durchzuführen.

1642 – Der französische Mathematiker Blaise Pascal entwarf die erste mechanische Addiermaschine, die Pascalina, die mechanisch Zahlen addieren konnte.

1673 – Gottfried Wilhelm Leibniz entwarf eine Rechenmaschine, die die vier Rechenoperationen mechanisch ausführen konnte.

Erste Hälfte des 19. Jahrhunderts - Der englische Mathematiker Charles Babbage versuchte, ein universelles Rechengerät, also einen Computer, zu bauen. Babbage nannte es die Analytical Engine. Er stellte fest, dass ein Computer über Speicher verfügen und von einem Programm gesteuert werden muss. Laut Babbage ist ein Computer ein mechanisches Gerät, für das Programme mithilfe von Lochkarten eingestellt werden – Karten aus dickem Papier mit durch Löcher aufgedruckten Informationen (damals waren sie bereits in Webstühlen weit verbreitet).

1941 – Der deutsche Ingenieur Konrad Zuse baute einen kleinen Computer auf Basis mehrerer elektromechanischer Relais.

1943 – Howard Aiken entwickelte in einem der IBM-Unternehmen in den USA einen Computer namens „Mark-1“. Es ermöglichte die Durchführung von Berechnungen um ein Hundertfaches schneller als von Hand (mit einer Rechenmaschine) und wurde für militärische Berechnungen verwendet. Es nutzte eine Kombination aus elektrischen Signalen und mechanischen Antrieben. „Mark-1“ hatte Abmessungen: 15 * 2-5 m und enthielt 750.000 Teile. Die Maschine war in der Lage, zwei 32-Bit-Zahlen in 4 Sekunden zu multiplizieren.

1943 – In den USA begann eine Gruppe von Spezialisten unter der Leitung von John Mauchly und Prosper Eckert mit dem Bau des ENIAC-Computers auf Basis von Vakuumröhren.

1945 – Der Mathematiker John von Neumann wurde mit der Arbeit an ENIAC beauftragt und erstellte einen Bericht über diesen Computer. In seinem Bericht formulierte von Neumann die allgemeinen Funktionsprinzipien von Computern, also universellen Rechengeräten. Bis heute werden die allermeisten Computer nach den Prinzipien von John von Neumann hergestellt.

1947 – Eckert und Mauchly beginnen mit der Entwicklung der ersten elektronischen Serienmaschine UNIVAC (Universal Automatic Computer). Das erste Modell der Maschine (UNIVAC-1) wurde für das US Census Bureau gebaut und im Frühjahr 1951 in Betrieb genommen. Auf Basis der ENIAC- und EDVAC-Rechner entstand der synchrone, sequentielle Rechner UNIVAC-1. Es arbeitete mit einer Taktfrequenz von 2,25 MHz und enthielt etwa 5.000 Vakuumröhren. Die interne Speicherkapazität von 1000 12-Bit-Dezimalzahlen wurde auf 100 Quecksilberverzögerungsleitungen implementiert.

1949 – Der englische Forscher Mornes Wilkes baute den ersten Computer, der von Neumanns Prinzipien verkörperte.

1951 – J. Forrester veröffentlichte einen Artikel über die Verwendung von Magnetkernen zum Speichern digitaler Informationen. Die Whirlwind-1-Maschine war die erste, die Magnetkernspeicher verwendete. Es bestand aus 2 Würfeln mit 32-32-17 Kernen, die die Speicherung von 2048 Wörtern für 16-Bit-Binärzahlen mit einem Paritätsbit ermöglichten.

1952 – IBM bringt seinen ersten industriellen elektronischen Computer auf den Markt, den IBM 701, einen synchronen Parallelcomputer mit 4.000 Vakuumröhren und 12.000 Dioden. Eine verbesserte Version der IBM 704-Maschine zeichnete sich durch hohe Geschwindigkeit aus, sie verwendete Indexregister und stellte Daten in Gleitkommaform dar.

Nach dem Computer IBM 704 erschien der IBM 709, der architektonisch den Maschinen der zweiten und dritten Generation nahe kam. In dieser Maschine wurde erstmals die indirekte Adressierung verwendet und es traten erstmals Eingabe-Ausgabe-Kanäle auf.

1952 – Remington Rand bringt den Computer UNIVAC-t 103 auf den Markt, der als erster Software-Interrupts nutzte. Mitarbeiter von Remington Rand verwendeten eine algebraische Form des Schreibens von Algorithmen namens „Short Code“ (der erste Interpreter, der 1949 von John Mauchly entwickelt wurde).

1956 – IBM entwickelt schwebende Magnetköpfe auf einem Luftkissen. Ihre Erfindung ermöglichte die Schaffung eines neuen Speichertyps – Plattenspeicher (SD), dessen Bedeutung in den folgenden Jahrzehnten der Entwicklung der Computertechnologie voll erkannt wurde. Die ersten Plattenspeichergeräte erschienen in IBM 305- und RAMAC-Maschinen. Letzterer verfügte über ein Paket bestehend aus 50 Metallscheiben mit Magnetbeschichtung, die mit einer Geschwindigkeit von 12.000 U/min rotierten. /Mindest. Auf der Oberfläche der Diskette befanden sich 100 Spuren zur Aufzeichnung von Daten mit jeweils 10.000 Zeichen.

1956 – Ferranti bringt den Pegasus-Computer auf den Markt, in dem das Konzept der General Purpose Registers (GPR) erstmals implementiert wurde. Mit dem Aufkommen von RON wurde die Unterscheidung zwischen Indexregistern und Akkumulatoren aufgehoben, und dem Programmierer standen nicht mehr ein, sondern mehrere Akkumulatorenregister zur Verfügung.

1957 – eine Gruppe unter der Leitung von D. Backus schloss die Arbeit an der ersten höheren Programmiersprache namens FORTRAN ab. Die erstmals auf dem IBM 704-Computer implementierte Sprache trug zur Erweiterung des Computerumfangs bei.

1960er Jahre - 2. Generation von Computern, Computerlogikelemente werden auf Basis von Halbleitertransistorbauelementen implementiert, algorithmische Programmiersprachen wie Algol, Pascal und andere werden entwickelt.

1970er Jahre - Computer der 3. Generation, integrierte Schaltkreise mit Tausenden von Transistoren auf einem Halbleiterwafer. Es wurden Betriebssysteme und strukturierte Programmiersprachen erstellt.

1974 – Mehrere Unternehmen kündigten die Entwicklung eines Personalcomputers auf Basis des Intel-8008-Mikroprozessors an – ein Gerät, das die gleichen Funktionen wie ein großer Computer ausführt, aber für einen Benutzer konzipiert ist.

1975 – der erste kommerziell vertriebene Personalcomputer Altair-8800 auf Basis des Intel-8080-Mikroprozessors erschien. Dieser Computer verfügte nur über 256 Byte RAM und es gab weder Tastatur noch Bildschirm.

Ende 1975 – Paul Allen und Bill Gates (zukünftige Gründer von Microsoft) entwickelten einen Basic-Sprachinterpreter für den Altair-Computer, der es Benutzern ermöglichte, einfach mit dem Computer zu kommunizieren und problemlos Programme dafür zu schreiben.

August 1981 – IBM stellt den IBM PC Personal Computer vor. Der Hauptmikroprozessor des Computers war ein 16-Bit-Intel-8088-Mikroprozessor, der das Arbeiten mit 1 Megabyte Speicher ermöglichte.

1980er Jahre - 4. Generation von Computern, die auf großen integrierten Schaltkreisen basieren. Mikroprozessoren werden in Form eines einzelnen Chips in Massenproduktion von Personalcomputern implementiert.

1990er Jahre — 5. Computergeneration, ultragroße integrierte Schaltkreise. Prozessoren enthalten Millionen von Transistoren. Die Entstehung globaler Computernetzwerke für den Massengebrauch.

2000er Jahre — 6. Computergeneration. Integration von Computern und Haushaltsgeräten, eingebettete Computer, Entwicklung von Network Computing.

Städtische Bildungseinrichtung Sekundarschule Nr. 3 des Bezirks Karasuk

Thema : Geschichte der Entwicklung der Computertechnologie.

Zusammengestellt von:

Student MOUSOSH Nr. 3

Kochetov Jegor Pawlowitsch

Geschäftsführer und Berater:

Serdjukow Valentin Iwanowitsch,

Informatiklehrer MOUSOSH Nr. 3

Karasuk 2008

Relevanz

Einführung

Erste Schritte in der Entwicklung von Zählgeräten

Rechengeräte aus dem 17. Jahrhundert

Rechengeräte aus dem 18. Jahrhundert

Zählgeräte aus dem 19. Jahrhundert

Entwicklung der Computertechnologie zu Beginn des 20. Jahrhunderts

Die Entstehung und Entwicklung der Computertechnologie in den 40er Jahren des 20. Jahrhunderts

Entwicklung der Computertechnologie in den 50er Jahren des 20. Jahrhunderts

Entwicklung der Computertechnologie in den 60er Jahren des 20. Jahrhunderts

Entwicklung der Computertechnologie in den 70er Jahren des 20. Jahrhunderts

Entwicklung der Computertechnologie in den 80er Jahren des 20. Jahrhunderts

Entwicklung der Computertechnologie in den 90er Jahren des 20. Jahrhunderts

Die Rolle der Computertechnologie im menschlichen Leben

Meine Forschung

Abschluss

Referenzliste

Relevanz

Mathematik und Informatik werden in allen Bereichen der modernen Informationsgesellschaft eingesetzt. Moderne Produktion, Computerisierung der Gesellschaft und die Einführung moderner Informationstechnologien erfordern Mathematik- und Informationskompetenz und -kompetenz. Heutzutage bieten Schulkurse in Informatik und IKT jedoch häufig einen einseitigen Bildungsansatz, der es aufgrund des Mangels an mathematischer Logik, die für die vollständige Beherrschung des Stoffes erforderlich ist, nicht ermöglicht, den Wissensstand angemessen zu verbessern. Darüber hinaus wirkt sich die mangelnde Förderung des kreativen Potenzials der Schüler negativ auf die Lernmotivation und damit auf das endgültige Niveau der Fähigkeiten, Kenntnisse und Fertigkeiten aus. Wie kann man ein Fach studieren, ohne seine Geschichte zu kennen? Dieses Material kann im Geschichts-, Mathematik- und Informatikunterricht verwendet werden.

Heutzutage ist es kaum vorstellbar, dass man auf Computer verzichten kann. Doch vor nicht allzu langer Zeit, bis in die frühen 70er Jahre, standen Computer nur einem sehr begrenzten Kreis von Spezialisten zur Verfügung, und ihre Nutzung blieb in der Regel geheim und der breiten Öffentlichkeit kaum bekannt. Doch im Jahr 1971 ereignete sich ein Ereignis, das die Situation radikal veränderte und den Computer mit unglaublicher Geschwindigkeit zu einem alltäglichen Arbeitsgerät für zig Millionen Menschen machte.

Einführung

Die Menschen lernten, mit ihren eigenen Fingern zu zählen. Als dies nicht ausreichte, kamen die einfachsten Zählgeräte auf den Markt. Einen besonderen Platz nahm unter ihnen ABAK ein, das in der Antike weit verbreitet war. Dann, nach Jahren der menschlichen Entwicklung, erschienen die ersten elektronischen Computer (Computer). Sie beschleunigten nicht nur die Computerarbeit, sondern gaben den Menschen auch Impulse für die Entwicklung neuer Technologien. Das Wort „Computer“ bedeutet „Computer“, d.h. Computergerät. Der Bedarf, die Datenverarbeitung, einschließlich Berechnungen, zu automatisieren, ist schon vor langer Zeit entstanden. Heutzutage ist es kaum vorstellbar, dass man auf Computer verzichten kann. Doch vor nicht allzu langer Zeit, bis in die frühen 70er Jahre, standen Computer nur einem sehr begrenzten Kreis von Spezialisten zur Verfügung, und ihre Nutzung blieb in der Regel geheim und der breiten Öffentlichkeit kaum bekannt. Doch im Jahr 1971 ereignete sich ein Ereignis, das die Situation radikal veränderte und den Computer mit unglaublicher Geschwindigkeit zu einem alltäglichen Arbeitsgerät für zig Millionen Menschen machte. In diesem zweifellos bedeutenden Jahr brachte das fast unbekannte Unternehmen Intel aus einer amerikanischen Kleinstadt mit dem schönen Namen Santa Clara (Kalifornien) den ersten Mikroprozessor auf den Markt. Ihm verdanken wir die Entstehung einer neuen Klasse von Computersystemen – Personalcomputern, die heute praktisch jeder nutzt, von Grundschülern und Buchhaltern bis hin zu Wissenschaftlern und Ingenieuren. Am Ende des 20. Jahrhunderts ist ein Leben ohne Personal Computer nicht mehr vorstellbar. Der Computer ist fest in unserem Leben verankert und zum wichtigsten Assistenten des Menschen geworden. Heutzutage gibt es auf der Welt viele Computer von verschiedenen Unternehmen, unterschiedlichen Komplexitätsgruppen, Zwecken und Generationen. In diesem Aufsatz werfen wir einen Blick auf die Entwicklungsgeschichte der Computertechnologie sowie einen kurzen Überblick über die Einsatzmöglichkeiten moderner Computersysteme und weitere Trends in der Entwicklung von Personalcomputern.

Erste Schritte in der Entwicklung von Zählgeräten

Die Geschichte der Zählgeräte reicht viele Jahrhunderte zurück. Das älteste Recheninstrument, das die Natur selbst dem Menschen zur Verfügung stellte, war seine eigene Hand. Um das Zählen zu erleichtern, begannen die Menschen, zuerst die Finger einer Hand, dann beide und bei einigen Stämmen auch die Zehen zu benutzen. Im 16. Jahrhundert wurden Fingerzähltechniken in Lehrbüchern beschrieben.

Der nächste Schritt in der Entwicklung des Zählens war die Verwendung von Kieselsteinen oder anderen Gegenständen sowie zum Auswendiglernen von Zahlen – Kerben an Tierknochen, Knoten an Seilen. Der bei Ausgrabungen entdeckte sogenannte „Vestonitsa-Knochen“ mit Kerben lässt Historiker vermuten, dass unsere Vorfahren schon damals, 30.000 Jahre v. Chr., mit den Grundlagen des Zählens vertraut waren:


Die frühe Entwicklung des schriftlichen Zählens wurde durch die Komplexität der damals existierenden arithmetischen Operationen bei der Multiplikation von Zahlen behindert. Darüber hinaus wussten nur wenige Menschen, wie man schreibt, und es gab kein Lehrmaterial zum Schreiben – etwa im 2. Jahrhundert v. Chr. begann man mit der Herstellung von Pergament, Papyrus war zu teuer und Tontafeln waren unpraktisch in der Verwendung.

Diese Umstände erklären die Entstehung eines besonderen Rechengeräts – des Abakus. Bis zum 5. Jahrhundert v. Chr. Abakus verbreitete sich in Ägypten, Griechenland und Rom. Es war ein Brett mit Rillen, in das nach dem Positionsprinzip einige Gegenstände gelegt wurden – Kieselsteine, Knochen.


Ein abakusartiges Instrument war bei allen Völkern bekannt. Der altgriechische Abakus (Brett oder „Salamin-Brett“, benannt nach der Insel Salamis in der Ägäis) war ein mit Meersand bestreutes Brett. Im Sand waren Rillen, auf denen mit Kieselsteinen Zahlen markiert waren. Eine Rille entsprach der Einerstelle, die andere der Zehnerstelle usw. Wenn beim Zählen mehr als 10 Kieselsteine ​​in einer Rille gesammelt wurden, wurden diese entfernt und ein Kieselstein in die nächste Reihe hinzugefügt.

Die Römer verbesserten den Abakus und gingen von Holzbrettern, Sand und Kieselsteinen zu Marmorbrettern mit gemeißelten Rillen und Marmorkugeln über. Später, um 500 n. Chr., wurde der Abakus verbessert und es entstand ein Abakus, ein Gerät, das aus einem Satz auf Stangen aufgereihter Knöchel besteht. Der chinesische Abakus Suan-Pan bestand aus einem Holzrahmen, der in einen oberen und einen unteren Abschnitt unterteilt war. Die Stäbchen entsprechen den Säulen und die Perlen entsprechen den Zahlen. Bei den Chinesen basierte die Zählung nicht auf zehn, sondern auf fünf.


Es ist in zwei Teile geteilt: Im unteren Teil befinden sich in jeder Reihe 5 Samen, im oberen Teil sind es zwei. Um die Zahl 6 auf diese Abakusse zu setzen, platzierten sie zunächst den Knochen, der der Fünf entspricht, und fügten dann eins zur Einerziffer hinzu.


Die Japaner nannten das gleiche Gerät zum Zählen von Serobyan:


In Russland zählte man lange Zeit nach auf Haufen gelegten Knochen. Etwa im 15. Jahrhundert verbreitete sich der „Plankenabakus“, der sich fast nicht vom gewöhnlichen Abakus unterschied und aus einem Rahmen mit verstärkten horizontalen Seilen bestand, auf dem gebohrte Pflaumen- oder Kirschkerne aufgereiht waren.


Um das 6. Jahrhundert. ANZEIGE In Indien wurden sehr fortschrittliche Methoden zum Schreiben von Zahlen und Regeln für die Durchführung arithmetischer Operationen entwickelt, die heute als Dezimalzahlensystem bezeichnet werden. Beim Schreiben einer Zahl ohne Ziffer (z. B. 101 oder 1204) sagten die Inder das Wort „leer“. ” anstelle des Namens der Nummer. Bei der Aufnahme wurde anstelle der „leeren“ Ziffer ein Punkt gesetzt und später ein Kreis gezeichnet. Ein solcher Kreis wurde „Sunya“ genannt – auf Hindi bedeutete es „leerer Raum“. Arabische Mathematiker übersetzten dieses Wort in ihre eigene Sprache – sie sagten „Sifr“. Das moderne Wort „Null“ wurde erst vor relativ kurzer Zeit geboren – später als „Ziffer“. Es kommt vom lateinischen Wort „nihil“ – „nein“. Um 850 n. Chr. Der arabische Wissenschaftler und Mathematiker Muhammad ben Musa al-Khorezm (aus der Stadt Khorezm am Fluss Amu Darya) schrieb ein Buch über die allgemeinen Regeln für die Lösung arithmetischer Probleme mithilfe von Gleichungen. Es wurde „Kitab al-Jabr“ genannt. Dieses Buch gab der Wissenschaft der Algebra ihren Namen. Eine sehr wichtige Rolle spielte ein weiteres Buch von al-Khwarizmi, in dem er die indische Arithmetik ausführlich beschrieb. Dreihundert Jahre später (1120) wurde dieses Buch ins Lateinische übersetzt und war das erste ein Lehrbuch der „indischen“ (also unserer modernen) Arithmetik für alle europäischen Städte.


Das Erscheinen des Begriffs „Algorithmus“ verdanken wir Muhammad ben Musa al-Khorezm.

Ende des 15. Jahrhunderts erstellte Leonardo da Vinci (1452-1519) eine Skizze eines 13-Bit-Addiergeräts mit Zehn-Zahn-Ringen. Da Vincis Manuskripte jedoch erst 1967 entdeckt wurden, stammt die Biografie mechanischer Geräte von Pascals Rechenmaschine. Basierend auf seinen Zeichnungen hat heute ein amerikanischer Computerhersteller eine funktionierende Maschine für Werbezwecke gebaut.

Rechengeräte aus dem 17. Jahrhundert


Im Jahr 1614 erfand der schottische Mathematiker John Naiper (1550-1617) Logarithmentabellen. Ihr Prinzip besteht darin, dass jede Zahl einer speziellen Zahl entspricht – einem Logarithmus – einem Exponenten, auf den die Zahl erhöht werden muss (die Basis des Logarithmus), um eine bestimmte Zahl zu erhalten. Auf diese Weise kann jede Zahl ausgedrückt werden. Logarithmen machen Division und Multiplikation sehr einfach. Um zwei Zahlen zu multiplizieren, addieren Sie einfach ihre Logarithmen. Dank dieser Eigenschaft wird die komplexe Multiplikationsoperation auf eine einfache Additionsoperation reduziert. Zur Vereinfachung wurden Logarithmentabellen erstellt, die später in ein Gerät eingebaut wurden, das den Rechenvorgang deutlich beschleunigen konnte – einen Rechenschieber.


Napier schlug 1617 eine andere (nicht logarithmische) Methode zur Multiplikation von Zahlen vor. Das Instrument, Napier-Stick (oder Knuckle) genannt, bestand aus dünnen Platten oder Blöcken. Jede Seite des Blocks trägt Zahlen, die eine mathematische Folge bilden.


Mit der Blockmanipulation können Sie Quadrat- und Kubikwurzeln ziehen sowie große Zahlen multiplizieren und dividieren.


Wilhelm Schickard

Im Jahr 1623 beschrieb Wilhelm Schickard, Orientalist und Mathematiker, Professor an der Universität Tjubin, in Briefen an seinen Freund Johannes Kepler den Aufbau einer „Zähluhr“ – einer Rechenmaschine mit einer Vorrichtung zum Einstellen von Zahlen und Walzen mit Schieber und ein Fenster zum Ablesen des Ergebnisses. Diese Maschine konnte nur addieren und subtrahieren (einige Quellen sagen, dass diese Maschine auch multiplizieren und dividieren konnte). Dies war das erste mechanische Auto. In unserer Zeit wurde seiner Beschreibung zufolge sein Vorbild gebaut:

Blaise Pascal


Im Jahr 1642 entwarf der französische Mathematiker Blaise Pascal (1623–1662) ein Rechengerät, um die Arbeit seines Vaters, eines Steuerinspektors, zu erleichtern. Dieses Gerät ermöglichte die Addition von Dezimalzahlen. Äußerlich sah es aus wie eine Kiste mit zahlreichen Zahnrädern.


Die Basis der Addiermaschine war der Zählerschreiber oder Zählwerk. Es hatte zehn Vorsprünge, auf denen jeweils Zahlen standen. Um die Zehnerstelle zu übertragen, gab es einen länglichen Zahn am Zahnrad, der in das Zwischenrad eingriff und es drehte, das die Drehung auf das Zehnerrad übertrug. Um sicherzustellen, dass sich beide Zählräder – Einer und Zehner – in die gleiche Richtung drehten, war ein zusätzliches Zahnrad erforderlich. Das Zählwerk war über einen Ratschenmechanismus mit dem Hebel verbunden (Übertragung der Vorwärtsbewegung, nicht Übertragung der Rückwärtsbewegung). Durch die Auslenkung des Hebels in den einen oder anderen Winkel war es möglich, einstellige Zahlen in den Zähler einzugeben und aufzusummieren. Bei Pascals Maschine war an allen Zählrädern ein Ratschenantrieb angebracht, der die Addition mehrstelliger Zahlen ermöglichte.

Im Jahr 1642 entwickelten der Brite Robert Bissacar und 1657 – unabhängig voneinander – S. Partridge einen rechteckigen Rechenschieber, dessen Design bis heute weitgehend erhalten ist.


Im Jahr 1673 entwickelte der deutsche Philosoph, Mathematiker und Physiker Gottfried Wilhelm Leibniz (Gottfried Wilhelm Leibniz, 1646-1716) einen „Stufenrechner“ – eine Rechenmaschine, mit der Sie mit dem Addieren, Subtrahieren, Multiplizieren, Dividieren und Quadratwurzeln ziehen können binäres Zahlensystem.

Es handelte sich um ein fortschrittlicheres Gerät, das ein bewegliches Teil (einen Prototyp eines Wagens) und einen Griff verwendete, mit dem der Bediener das Rad drehte. Leibniz‘ Produkt erlitt das traurige Schicksal seiner Vorgänger: Wenn jemand es benutzte, waren es nur Leibniz‘ Familie und Freunde seiner Familie, da die Zeit der Massennachfrage nach solchen Mechanismen noch nicht gekommen war.

Die Maschine war der Prototyp der Addiermaschine, die von 1820 bis in die 60er Jahre des 20. Jahrhunderts verwendet wurde.

Rechengeräte aus dem 18. Jahrhundert.


Im Jahr 1700 veröffentlichte Charles Perrault „A Collection of a Large Number of Machines of Claude Perrault’s Own Invention“, in dem sich unter den Erfindungen von Claude Perrault (Charles Perraults Bruder) eine Rechenmaschine befindet, in der Zahnstangen anstelle von Zahnrädern verwendet werden. Die Maschine wurde „Rhabdologischer Abakus“ genannt. Dieses Gerät wurde so genannt, weil die Alten Abakus ein kleines Brett nannten, auf das Zahlen geschrieben wurden, und Rhabdologie – die Wissenschaft der Darbietung

Rechenoperationen mit kleinen Stäbchen mit Zahlen.


Im Jahr 1703 verfasste Gottfried Wilhelm Leibniz eine Abhandlung „Expication de l“Arithmetique Binary“ – über die Verwendung des binären Zahlensystems in Computern. Seine ersten Arbeiten zur binären Arithmetik stammen aus dem Jahr 1679.

Der deutsche Mathematiker, Physiker und Astronom Christian Ludwig Gersten, Mitglied der Royal Society of London, erfand 1723 eine Rechenmaschine und stellte sie zwei Jahre später her. Die Gersten-Maschine zeichnet sich dadurch aus, dass sie als erste ein Gerät zur Berechnung des Quotienten und der Anzahl aufeinanderfolgender Additionsoperationen verwendet, die beim Multiplizieren von Zahlen erforderlich sind, und außerdem die Möglichkeit bietet, die Richtigkeit der Eingabe (Einstellung) des zweiten Summanden zu kontrollieren verringert die Wahrscheinlichkeit subjektiver Fehler, die mit der Ermüdung des Rechners verbunden sind.

Im Jahr 1727 entwickelte Jacob Leupold eine Rechenmaschine, die das Leibniz-Maschinenprinzip nutzte.

Im Bericht der Kommission der Pariser Akademie der Wissenschaften, der 1751 im Journal of Scientists veröffentlicht wurde, finden sich bemerkenswerte Zeilen: „Die Ergebnisse der Methode von Herrn Pereira, die wir gesehen haben, reichen völlig aus, um die Meinung noch einmal zu bestätigen. . dass diese Methode, Taubstummen zu unterrichten, äußerst praktisch ist und dass die Person, die sie mit so viel Erfolg anwendet, Lob und Ermutigung verdient ... Wenn ich von den Fortschritten spreche, die der Schüler von Herrn Pereira in sehr kurzer Zeit gemacht hat Aufgrund seiner Kenntnis der Zahlen müssen wir hinzufügen, dass Herr Pereira die Arithmetische Maschine benutzte, die er selbst erfunden hatte.“ Diese Rechenmaschine wird im „Journal of Scientists“ beschrieben, aber leider enthält das Journal keine Zeichnungen. Diese Rechenmaschine nutzte einige Ideen von Pascal und Perrault, war aber im Großen und Ganzen ein völlig originelles Design. Sie unterschied sich von bekannten Maschinen dadurch, dass ihre Zählräder nicht auf parallelen Achsen angeordnet waren, sondern auf einer einzigen Achse, die durch die gesamte Maschine ging. Diese Innovation, die das Design kompakter machte, wurde später von anderen Erfindern – Felt und Odner – in großem Umfang genutzt.

In der zweiten Hälfte des 17. Jahrhunderts (spätestens 1770) wurde in der Stadt Nesvizh eine Summiermaschine geschaffen. Die Inschrift auf dieser Maschine besagt, dass sie „von der Jüdin Evna Jacobson, einer Uhrmacherin und Mechanikerin in der Stadt Neswisch in Litauen“, „Woiwodschaft Minsk“, erfunden und hergestellt wurde. Diese Maschine befindet sich derzeit in der Sammlung wissenschaftlicher Instrumente des M.V. Lomonossow-Museums (St. Petersburg). Ein interessantes Merkmal der Jacobson-Maschine war eine spezielle Vorrichtung, die es ermöglichte, die Anzahl der durchgeführten Subtraktionen automatisch zu zählen, also den Quotienten zu bestimmen. Das Vorhandensein dieses Geräts, ein genial gelöstes Problem der Zahleneingabe, die Möglichkeit, Zwischenergebnisse aufzuzeichnen – all dies ermöglicht es uns, den „Uhrmacher aus Nesvizh“ als herausragenden Konstrukteur von Rechengeräten zu betrachten.


Im Jahr 1774 entwickelte der Landpfarrer Philip Matthaos Hahn die erste funktionierende Rechenmaschine. Es gelang ihm, eine kleine Anzahl von Rechenmaschinen zu bauen und, was das Unglaublichste war, zu verkaufen.

Im Jahr 1775 schuf Graf Steinhope in England ein Rechengerät, in das keine neuen mechanischen Systeme eingebaut waren, das jedoch zuverlässiger im Betrieb war.


Rechengeräte aus dem 19. Jahrhundert.

Im Jahr 1804 entwickelte der französische Erfinder Joseph-Marie Jacquard (1752–1834) eine Möglichkeit, den Faden bei der Arbeit an einem Webstuhl automatisch zu steuern. Die Methode bestand darin, spezielle Karten mit Löchern an den richtigen Stellen zu verwenden (abhängig von dem Muster, das auf den Stoff aufgetragen werden sollte). So entwarf er eine Spinnmaschine, deren Betrieb mithilfe spezieller Karten programmiert werden konnte. Der Betrieb der Maschine wurde mithilfe eines ganzen Stapels Lochkarten programmiert, von denen jede einen Schiffchenhub steuerte. Beim Übergang zu einer neuen Ziehung tauschte der Bediener einfach einen Stapel Lochkarten durch einen anderen aus. Die Schaffung eines Webstuhls, der durch Karten mit gestanzten Löchern gesteuert und in Form eines Bandes miteinander verbunden wird, ist eine der wichtigsten Entdeckungen, die die Weiterentwicklung der Computertechnologie bestimmte.

Charles Xavier Thomas

Charles Xavier Thomas (1785-1870) im Jahr 1820 schuf den ersten mechanischen Taschenrechner, der nicht nur addieren und multiplizieren, sondern auch subtrahieren und dividieren konnte. Die rasante Entwicklung mechanischer Rechenmaschinen führte bis 1890 dazu, dass eine Reihe nützlicher Funktionen hinzugefügt wurden: Zwischenergebnisse speichern und in Folgeoperationen verwenden, Ergebnisse ausdrucken usw. Die Entwicklung kostengünstiger und zuverlässiger Maschinen ermöglichte den Einsatz dieser Maschinen für kommerzielle Zwecke und wissenschaftliche Berechnungen.

Charles Babbage

Im Jahr 1822 Der englische Mathematiker Charles Babbage (1792-1871) brachte die Idee vor, eine programmgesteuerte Rechenmaschine mit Rechengerät, Steuergerät, Eingabe und Drucken zu schaffen.

Die erste von Babbage entworfene Maschine, die Difference Engine, wurde von einer Dampfmaschine angetrieben. Sie berechnete Logarithmentabellen nach der Methode der konstanten Differentiation und hielt die Ergebnisse auf einer Metallplatte fest. Das Arbeitsmodell, das er 1822 schuf, war ein sechsstelliger Rechner, der Berechnungen durchführen und numerische Tabellen drucken konnte.

Ada Lovelace

Lady Ada Lovelace (Ada Byron, Countess of Lovelace, 1815-1852) arbeitete gleichzeitig mit der englischen Wissenschaftlerin. Sie entwickelte die ersten Programme für die Maschine, legte viele Ideen fest und führte eine Reihe von Konzepten und Begriffen ein, die bis heute erhalten sind.

Babbages Analytical Engine wurde von Enthusiasten des London Science Museum gebaut. Es besteht aus viertausend Eisen-, Bronze- und Stahlteilen und wiegt drei Tonnen. Es stimmt, es ist sehr schwierig zu bedienen – bei jeder Berechnung muss man den Griff der Maschine mehrere hundert (oder sogar tausende) Mal drehen.

Die Zahlen werden auf vertikal angeordnete Scheiben geschrieben (getippt) und auf die Positionen 0 bis 9 eingestellt. Der Motor wird durch eine Folge von Lochkarten mit Anweisungen (Programm) angetrieben.

Erster Telegraph

Der erste elektrische Telegraph wurde 1937 von den englischen Erfindern William Cook (1806–1879) und Charles Wheatstone (1802–1875) entwickelt. Durch die Drähte wurde ein elektrischer Strom zum Empfänger geschickt. Die Signale aktivierten Pfeile auf dem Empfänger, die auf verschiedene Buchstaben zeigten und so Botschaften übermittelten.

Der amerikanische Künstler Samuel Morse (1791–1872) erfand einen neuen Telegraphencode, der den Cook- und Wheatstone-Code ersetzte. Für jeden Buchstaben entwickelte er Punkte und Striche. Morse demonstrierte seinen Code, indem er eine 6 km lange Telegrafenleitung von Baltimore nach Washington verlegte und darüber Nachrichten über die Präsidentschaftswahlen übermittelte.

Später (im Jahr 1858) entwickelte Charles Wheatstone ein System, bei dem ein Bediener mithilfe des Morsecodes Nachrichten auf ein langes Papierband tippte, das in ein Telegrafengerät eingespeist wurde. Am anderen Ende der Leitung tippte der Rekorder die empfangene Nachricht auf ein anderes Papierband. Die Produktivität der Telegrafisten verzehnfacht sich – Nachrichten werden jetzt mit einer Geschwindigkeit von einhundert Wörtern pro Minute gesendet.

Im Jahr 1846 erschien der Kummer-Rechner, der mehr als 100 Jahre lang in Massenproduktion hergestellt wurde – bis in die siebziger Jahre des 20. Jahrhunderts. Taschenrechner sind mittlerweile aus dem modernen Leben nicht mehr wegzudenken. Doch als es noch keine Taschenrechner gab, war der Kummer-Rechner im Einsatz, der sich nach Lust und Laune der Designer später in „Addiator“, „Produkte“, „Rechenlineal“ oder „Fortschritt“ verwandelte. Dieses wunderbare Gerät, das Mitte des 19. Jahrhunderts entwickelt wurde, konnte nach Angaben seines Herstellers die Größe einer Spielkarte haben und daher problemlos in eine Tasche passen. Das Gerät von Kummer, einem Musiklehrer aus St. Petersburg, zeichnete sich unter den zuvor erfundenen Geräten durch seine Tragbarkeit aus, die zu seinem wichtigsten Vorteil wurde. Kummers Erfindung sah aus wie ein rechteckiges Brett mit gemusterten Lamellen. Addition und Subtraktion erfolgten durch einfachste Bewegung von Lamellen. Interessant ist, dass Kummers Taschenrechner, der 1946 der St. Petersburger Akademie der Wissenschaften vorgestellt wurde, auf Geldberechnungen ausgerichtet war.

In Russland erfreuten sich neben dem Slonimsky-Gerät und Modifikationen des Kummer-Zählers auch die sogenannten Zählbalken, die 1881 vom Wissenschaftler Ioffe erfunden wurden, großer Beliebtheit.

George Boole

Im Jahr 1847 veröffentlichte der englische Mathematiker George Boole (1815-1864) das Werk „Mathematische Analyse der Logik“. So entstand ein neuer Zweig der Mathematik. Es wurde Boolesche Algebra genannt. Jeder darin enthaltene Wert kann nur einen von zwei Werten annehmen: wahr oder falsch, 1 oder 0. Diese Algebra war für die Entwickler moderner Computer sehr nützlich. Schließlich versteht der Computer nur zwei Symbole: 0 und 1. Er gilt als Begründer der modernen mathematischen Logik.

1855 bauten die Brüder George und Edvard Scheutz aus Stockholm den ersten mechanischen Computer nach der Arbeit von Ch. Babbage.

Im Jahr 1867 erfand Bunyakovsky Selbstrechner, die auf dem Prinzip verbundener digitaler Räder (Pascals Zahnrad) basierten.

Im Jahr 1878 erfand der englische Wissenschaftler Joseph Swan (1828-1914) die elektrische Glühbirne. Es war ein Glaskolben mit einem Kohlenstofffaden darin. Um ein Durchbrennen des Fadens zu verhindern, entfernte Swan die Luft aus dem Kolben.

Im folgenden Jahr erfand der amerikanische Erfinder Thomas Edison (1847-1931) auch die Glühbirne. Im Jahr 1880 begann Edison mit der Produktion von Sicherheitsglühbirnen und verkaufte sie für 2,50 Dollar. Anschließend gründeten Edison und Swan ein gemeinsames Unternehmen, Edison and Swan United Electric Light Company.

Als Edison 1883 mit einer Lampe experimentierte, führte er eine Platinelektrode in einen Vakuumzylinder ein, legte Spannung an und entdeckte zu seiner Überraschung, dass zwischen der Elektrode und dem Kohlenstofffaden Strom floss. Da Edisons Hauptziel in diesem Moment darin bestand, die Lebensdauer der Glühlampe zu verlängern, interessierte ihn dieses Ergebnis wenig, aber der unternehmungslustige Amerikaner erhielt trotzdem ein Patent. Das uns bekannte Phänomen der thermionischen Emission wurde damals „Edison-Effekt“ genannt und geriet für einige Zeit in Vergessenheit.

Wilgodt Teofilowitsch Odner

Im Jahr 1880 Vilgodt Teofilovich Odner, ein Schwede mit Nationalität, der in St. Petersburg lebte, entwarf eine Rechenmaschine. Man muss zugeben, dass es vor Odner auch Rechenmaschinen gab – die Systeme von K. Thomas. Sie waren jedoch unzuverlässig, groß und unpraktisch in der Bedienung.

Er begann 1874 mit der Arbeit an der Rechenmaschine und begann 1890 mit deren Massenproduktion. Ihre Modifikation „Felix“ wurde bis in die 50er Jahre produziert. Das Hauptmerkmal von Odhners Idee ist die Verwendung von Zahnrädern mit variabler Zähnezahl (dieses Rad trägt Odhners Namen) anstelle der Stufenrollen von Leibniz. Es ist konstruktiv einfacher als eine Walze und hat kleinere Abmessungen.

Hermann Hollerith

Im Jahr 1884 meldete der amerikanische Ingenieur Herman Hillerith (1860-1929) ein Patent „für eine Volkszählungsmaschine“ (statistischer Tabulator) an. Die Erfindung umfasste eine Lochkarte und eine Sortiermaschine. Holleriths Lochkarte erwies sich als so erfolgreich, dass sie bis heute ohne die geringsten Veränderungen existiert.

Die Idee, Daten auf Lochkarten zu schreiben und diese dann automatisch zu lesen und zu verarbeiten, stammte von John Billings, und die technische Lösung stammte von Herman Hollerith.

Der Tabulator akzeptierte Karten in der Größe eines Dollarscheins. Es gab 240 Positionen auf den Karten (12 Reihen mit 20 Positionen). Beim Lesen von Informationen aus Lochkarten wurden diese Karten von 240 Nadeln durchstochen. Dort, wo die Nadel in das Loch eindrang, schloss sie einen elektrischen Kontakt, wodurch sich der Wert im entsprechenden Zähler um eins erhöhte.

Entwicklung der Computertechnologie

zu Beginn des 20. Jahrhunderts

1904 Der berühmte russische Mathematiker, Schiffbauer und Akademiker A. N. Krylov schlug den Entwurf einer Maschine zur Integration gewöhnlicher Differentialgleichungen vor, die 1912 gebaut wurde.

Der englische Physiker John Ambrose Fleming (1849-1945) erforscht den „Edison-Effekt“ und erschafft eine Diode. Mit Dioden werden Funkwellen in elektrische Signale umgewandelt, die über große Entfernungen übertragen werden können.

Zwei Jahre später erschienen durch die Bemühungen des amerikanischen Erfinders Lee di Forest Trioden.

1907 Der amerikanische Ingenieur J. Power entwarf einen automatischen Kartenstanzer.

Der St. Petersburger Wissenschaftler Boris Rosing meldet ein Patent für eine Kathodenstrahlröhre als Datenempfänger an.

1918 Der russische Wissenschaftler M.A. Bonch-Bruevich und die englischen Wissenschaftler V. Iccles und F. Jordan (1919) entwickelten unabhängig voneinander ein elektronisches Gerät, das von den Briten Trigger genannt wurde und eine große Rolle bei der Entwicklung der Computertechnologie spielte.

1930 entwirft Vannevar Bush (1890-1974) einen Differentialanalysator. Tatsächlich ist dies der erste erfolgreiche Versuch, einen Computer zu entwickeln, der in der Lage ist, umständliche wissenschaftliche Berechnungen durchzuführen. Bushs Rolle in der Geschichte der Computertechnologie ist sehr groß, aber sein Name erscheint am häufigsten im Zusammenhang mit dem prophetischen Artikel „As We May Think“ (1945), in dem er das Konzept des Hypertexts beschreibt.

Konrad Zuse schuf den Z1-Computer, der über eine Tastatur zur Eingabe von Problembedingungen verfügte. Nach Abschluss der Berechnungen wurde das Ergebnis auf einer Tafel mit vielen kleinen Lichtern angezeigt. Die Gesamtfläche der Maschine betrug 4 qm.

Konrad Zuse patentierte ein Verfahren zur automatischen Berechnung.

Für das nächste Modell Z2 entwickelte K. Zuse ein sehr raffiniertes und günstiges Eingabegerät: Zuse begann, Anweisungen für das Gerät zu kodieren, indem er Löcher in gebrauchte 35-mm-Fotofilme stanzte.

Im Jahr 1838 Der amerikanische Mathematiker und Ingenieur Claude Shannon und der russische Wissenschaftler V. I. Shestakov zeigten 1941 die Möglichkeit eines mathematischen Logikgeräts zur Synthese und Analyse von Relaiskontaktschaltsystemen.

Im Jahr 1938 entwickelte die Telefongesellschaft Bell Laboratories den ersten binären Addierer (eine elektrische Schaltung, die binäre Addition durchführte) – eine der Hauptkomponenten jedes Computers. Der Autor der Idee war George Stibits, der mit der Booleschen Algebra und verschiedenen Teilen experimentierte – alten Relais, Batterien, Glühbirnen und Kabeln. 1940 wurde eine Maschine geboren, die vier arithmetische Operationen mit komplexen Zahlen durchführen konnte.

Aussehen und

in den 40er Jahren des 20. Jahrhunderts.

Im Jahr 1941 begann der IBM-Ingenieur B. Phelps mit der Entwicklung elektronischer Dezimalzähler für Tabulatoren und erstellte 1942 ein experimentelles Modell eines elektronischen Multiplikationsgeräts. 1941 baute Konrad Zuse den weltweit ersten betriebsfähigen programmgesteuerten Relais-Binärrechner, den Z3.

Gleichzeitig mit dem Bau von ENIAC wurde in Großbritannien ebenfalls im Geheimen ein Computer entwickelt. Geheimhaltung war notwendig, weil ein Gerät zur Entschlüsselung der Codes entwickelt wurde, die die deutschen Streitkräfte während des Zweiten Weltkriegs verwendeten. Die mathematische Entschlüsselungsmethode wurde von einer Gruppe von Mathematikern entwickelt, darunter Alan Turing. Im Jahr 1943 wurde in London die Colossus-Maschine mit 1.500 Vakuumröhren gebaut. Die Entwickler der Maschine sind M. Newman und T. F. Flowers.

Obwohl sowohl ENIAC als auch Colossus mit Vakuumröhren betrieben wurden, kopierten sie im Wesentlichen elektromechanische Maschinen: Neuer Inhalt (Elektronik) wurde in eine alte Form (die Struktur vorelektronischer Maschinen) gepresst.

Im Jahr 1937 schlug der Harvard-Mathematiker Howard Aiken ein Projekt zur Entwicklung einer großen Rechenmaschine vor. Die Arbeit wurde vom IBM-Präsidenten Thomas Watson gesponsert, der 500.000 US-Dollar darin investierte. Der Entwurf des Mark-1 begann 1939; der Computer wurde von der New Yorker Firma IBM gebaut. Der Computer enthielt etwa 750.000 Teile, 3304 Relais und mehr als 800 km Kabel.

1944 wurde die fertige Maschine offiziell an die Harvard University übergeben.

Im Jahr 1944 stellte der amerikanische Ingenieur John Presper Eckert erstmals das Konzept eines im Computerspeicher gespeicherten Programms vor.

Aiken, der über die intellektuellen Ressourcen von Harvard und eine leistungsfähige Mark-1-Maschine verfügte, erhielt mehrere Befehle vom Militär. Daher wurde das nächste Modell, der Mark-2, vom US Navy Weapons Directorate bestellt. Der Entwurf begann 1945 und der Bau endete 1947. Der Mark-2 war die erste Multitasking-Maschine – mehrere Busse ermöglichten die gleichzeitige Übertragung mehrerer Nummern von einem Teil des Computers zu einem anderen.

Im Jahr 1948 schlugen Sergei Aleksandrovich Lebedev (1990-1974) und B. I. Rameev das erste Projekt eines heimischen digitalen elektronischen Computers vor. Unter der Leitung des Akademiemitglieds Lebedev S.A. und Glushkova V.M. Haushaltscomputer werden entwickelt: zuerst MESM – kleine elektronische Rechenmaschine (1951, Kiew), dann BESM – schnelle elektronische Rechenmaschine (1952, Moskau). Parallel dazu entstanden Strela, Ural, Minsk, Hrasdan und Nairi.

Im Jahr 1949 Eine englische Speicherprogrammmaschine, EDSAC (Electronic Delay Storage Automatic Computer), wurde in Betrieb genommen, entworfen von Maurice Wilkes von der Universität Cambridge. Der EDSAC-Computer enthielt 3.000 Vakuumröhren und war sechsmal produktiver als seine Vorgänger. Maurice Wilkis führte ein Mnemoniksystem für Maschinenanweisungen ein, das Assemblersprache genannt wird.

Im Jahr 1949 John Mauchly schuf den ersten Programmierspracheninterpreter namens „Short Order Code“.

Entwicklung der Computertechnologie

in den 50er Jahren des 20. Jahrhunderts.

1951 wurden die Arbeiten zur Schaffung von UNIVAC (Universal Automatic Computer) abgeschlossen. Das erste Exemplar der UNIVAC-1-Maschine wurde für das US Census Bureau gebaut. Der synchrone, sequentielle Rechner UNIVAC-1 entstand auf Basis der ENIAC- und EDVAC-Rechner. Er arbeitete mit einer Taktfrequenz von 2,25 MHz und enthielt etwa 5000 Vakuumröhren. Das interne Speichergerät mit einer Kapazität von 1000 Zwölf-Bit-Dezimalzahlen wurde auf 100 Quecksilberverzögerungsleitungen hergestellt.

Dieser Computer ist interessant, weil er auf eine relativ Massenproduktion ohne Änderung der Architektur abzielte und besonderes Augenmerk auf den Peripherieteil (Eingabe-Ausgabe-Möglichkeiten) gelegt wurde.

Jay Forrester patentierter Magnetkernspeicher. Zum ersten Mal wurde ein solcher Speicher auf der Whirlwind-1-Maschine verwendet. Es bestand aus zwei Würfeln mit 32x32x17 Kernen, die die Speicherung von 2048 Wörtern für 16-Bit-Binärzahlen mit einem Paritätsbit ermöglichten.

Diese Maschine war die erste, die einen universellen, nicht spezialisierten Bus verwendete (die Beziehungen zwischen verschiedenen Computergeräten werden flexibler), und zwei Geräte wurden als Eingabe-Ausgabe-Systeme verwendet: eine Williams-Kathodenstrahlröhre und eine Schreibmaschine mit Lochstreifen (Flexoschreiber).

„Tradis“, erschienen 1955. – der erste Transistorcomputer der Bell Telephone Laboratories – enthielt 800 Transistoren, von denen jeder in einem separaten Gehäuse untergebracht war.

Im Jahr 1957 Im Modell IBM 350 RAMAC tauchten erstmals Plattenspeicher (magnetisierte Aluminiumscheiben mit einem Durchmesser von 61 cm) auf.

G. Simon, A. Newell und J. Shaw haben GPS entwickelt – einen universellen Problemlöser.

Im Jahr 1958 Jack Kilby von Texas Instruments und Robert Noyce von Fairchild Semiconductor erfinden unabhängig voneinander den integrierten Schaltkreis.

1955-1959 Russische Wissenschaftler A.A. Lyapunov, S.S. Kamynin, E.Z. Lyubimsky, A.P. Ershov, L.N. Korolev, V.M. Kurochkin, M.R. Shura-Bura und andere erstellten „Programmierprogramme“ – Prototypen von Übersetzern. V.V. Martynyuk schuf ein symbolisches Codierungssystem – ein Mittel zur Beschleunigung der Entwicklung und des Debuggens von Programmen.

1955-1959 Der Grundstein wurde für die Programmiertheorie (A.A. Lyapunov, Yu.I. Yanov, A.A. Markov, L.A. Kaluzhin) und numerische Methoden (V.M. Glushkov, A.A. Samarsky, A.N. Tikhonov) gelegt. Es werden Schemata des Denkmechanismus und genetischer Prozesse sowie Algorithmen zur Diagnose medizinischer Krankheiten modelliert (A.A. Lyapunov, B.V. Gnedenko, N.M. Amosov, A.G. Ivakhnenko, V.A. Kovalevsky usw.).

1959 Unter der Führung von S.A. Lebedev schuf die BESM-2-Maschine mit einer Produktivität von 10.000 Operationen/s. Sein Einsatz ist mit Berechnungen von Starts von Weltraumraketen und den weltweit ersten künstlichen Erdsatelliten verbunden.

1959 Die M-20-Maschine wurde entwickelt, Chefdesigner S.A. Lebedew. Zu seiner Zeit einer der schnellsten der Welt (20.000 Operationen/s). Mit dieser Maschine wurden die meisten theoretischen und angewandten Probleme im Zusammenhang mit der Entwicklung der damals fortschrittlichsten Wissenschafts- und Technologiebereiche gelöst. Basierend auf dem M-20 entstand der einzigartige Multiprozessor M-40 – der damals schnellste Computer der Welt (40.000 Operationen/Sek.). Der M-20 wurde durch den Halbleiter BESM-4 und M-220 (200.000 Operationen/s) ersetzt.

Entwicklung der Computertechnologie

in den 60er Jahren des 20. Jahrhunderts.

Im Jahr 1960 entwickelte die CADASYL-Gruppe (Conference on Data System Languages) unter der Leitung von Joy Wegstein und mit Unterstützung von IBM für kurze Zeit eine standardisierte Geschäftsprogrammiersprache, COBOL (Common Business Oriented Language). Diese Sprache konzentriert sich auf die Lösung wirtschaftlicher Probleme, genauer gesagt auf die Verarbeitung von Informationen.

Im selben Jahr entwickelten J. Schwartz und andere von der Firma System Development die Programmiersprache Jovial. Der Name stammt von Jules eigener Version der International Algorithmic Language. Prozedurales Java, Version von Algol-58. Wird hauptsächlich für militärische Anwendungen von der US Air Force verwendet.

IBM hat ein leistungsstarkes Computersystem namens Stretch (IBM 7030) entwickelt.

1961 führte IBM Deutschland den Anschluss eines Computers an eine Telefonleitung über ein Modem ein.

Außerdem entwickelte der amerikanische Professor John McCartney die Sprache LISP (List Procssing Language).

J. Gordon, Leiter der Entwicklung von Simulationssystemen bei IBM, hat die Sprache GPSS (General Purpose Simulation System) entwickelt.

Mitarbeiter der University of Manchester unter der Leitung von T. Kilburn entwickelten den Atlas-Computer, der erstmals das Konzept des virtuellen Speichers umsetzte. Der erste Minicomputer (PDP-1) erschien vor 1971, dem Zeitpunkt der Entwicklung des ersten Mikroprozessors (Intel 4004).

1962 entwickelte R. Griswold die Programmiersprache SNOBOL, die sich auf die String-Verarbeitung konzentrierte.

Steve Russell entwickelte das erste Computerspiel. Um welche Art von Spiel es sich handelte, ist leider nicht bekannt.

E. V. Evreinov und Yu. Kosarev schlugen ein Modell eines Computerteams vor und begründeten die Möglichkeit, Supercomputer auf den Prinzipien der parallelen Ausführung von Operationen, variabler logischer Struktur und struktureller Homogenität zu bauen.

IBM brachte die ersten externen Speichergeräte mit Wechseldatenträgern auf den Markt.

Kenneth E. Iverson (IBM) hat ein Buch mit dem Titel „A Programming Language“ (APL) veröffentlicht. Ursprünglich diente diese Sprache als Notation zum Schreiben von Algorithmen. Die erste Implementierung von APL/360 erfolgte 1966 durch Adin Falkoff (Harvard, IBM). Es gibt Versionen von Dolmetschern für den PC. Aufgrund der Schwierigkeit, Atom-U-Boot-Programme zu lesen, wird es manchmal als „Chinese BASIC“ bezeichnet. Tatsächlich handelt es sich um eine prozedurale, sehr kompakte Sprache auf höchstem Niveau. Erfordert eine spezielle Tastatur. Weiterentwicklung – APL2.

1963 Der amerikanische Standardcode für den Informationsaustausch wurde genehmigt – ASCII (American Standard Code Informatio Interchange).

General Electric entwickelte das erste kommerzielle DBMS (Datenbankverwaltungssystem).

1964 U. Dahl und K. Nygort haben die Modellierungssprache SIMULA-1 erstellt.

Im Jahr 1967 Unter der Leitung von S.A. Lebedev und V.M. Melnikov wurde am ITM und VT eine Hochgeschwindigkeits-Rechenmaschine BESM-6 entwickelt.

Es folgte „Elbrus“ – ein neuer Computertyp mit einer Produktivität von 10 Millionen Operationen/s.

Entwicklung der Computertechnologie

in den 70er Jahren des 20. Jahrhunderts.

Im Jahr 1970 Charles Murr, ein Mitarbeiter des National Radio Astronomy Observatory, hat die Programmiersprache FORT entwickelt.

Denis Ritchie und Kenneth Thomson veröffentlichen die erste Version von Unix.

Dr. Codd veröffentlicht den ersten Artikel zum relationalen Datenmodell.

Im Jahr 1971 Intel (USA) hat den ersten Mikroprozessor (MP) entwickelt – ein programmierbares logisches Gerät, das mit VLSI-Technologie hergestellt wurde.

Der 4004-Prozessor war 4-Bit und konnte 60.000 Operationen pro Sekunde ausführen.

1974 entwickelte Intel den ersten universellen Acht-Bit-Mikroprozessor, den 8080, mit 4500 Transistoren. Edward Roberts vom MITS baute den ersten Personal Computer, Altair, auf einem neuen Chip von Intel, dem 8080. Altair erwies sich als der erste in Massenproduktion hergestellte PC und markierte im Grunde den Beginn einer ganzen Industrie. Das Kit enthielt einen Prozessor, ein 256-Byte-Speichermodul, einen Systembus und einige andere Kleinigkeiten.

Der junge Programmierer Paul Allen und der Harvard-Student Bill Gates implementierten die BASIC-Sprache für Altair. Anschließend gründeten sie Microsoft, den heute größten Softwarehersteller.

Entwicklung der Computertechnologie

in den 80er Jahren des 20. Jahrhunderts.

1981 Compaq brachte den ersten Laptop heraus.

Niklaus Wirth entwickelte die Programmiersprache MODULA-2.

Der erste tragbare Computer wurde entwickelt – Osborne-1, mit einem Gewicht von etwa 12 kg. Trotz eines recht erfolgreichen Starts ging das Unternehmen zwei Jahre später bankrott.

1981 brachte IBM den ersten Personal Computer auf den Markt, den IBM PC, der auf dem Mikroprozessor 8088 basierte.

1982 brachte Intel den Mikroprozessor 80286 auf den Markt.

Der amerikanische Computerhersteller IBM, der zuvor eine führende Position in der Produktion von Großcomputern innehatte, begann mit der Produktion professioneller Personalcomputer IBM PC mit dem Betriebssystem MS DOS.

Sun begann mit der Produktion der ersten Workstations.

Lotus Development Corp. veröffentlichte die Lotus 1-2-3-Tabelle.

Das englische Unternehmen Inmos hat basierend auf den Ideen des Oxford-Universitätsprofessors Tony Hoare über „interagierende sequentielle Prozesse“ und dem Konzept der experimentellen Programmiersprache David May die Sprache OCCAM entwickelt.

1985 Intel hat einen 32-Bit-Mikroprozessor 80386 herausgebracht, der aus 250.000 Transistoren besteht.

Seymour Cray hat den Supercomputer CRAY-2 mit einer Kapazität von 1 Milliarde Operationen pro Sekunde entwickelt.

Microsoft hat die erste Version der grafischen Windows-Betriebssystemumgebung veröffentlicht.

Die Entstehung einer neuen Programmiersprache, C++.

Entwicklung der Computertechnologie

in den 90er Jahren des 20. Jahrhunderts.

1990 Microsoft hat Windows 3.0 veröffentlicht.

Tim Berners-Lee entwickelte die HTML-Sprache (Hypertext Markup Language; das Hauptformat von Webdokumenten) und den Prototyp des World Wide Web.

Cray brachte den Supercomputer Cray Y-MP C90 mit 16 Prozessoren und einer Geschwindigkeit von 16 Gflops auf den Markt.

1991 veröffentlichte Microsoft Windows 3.1.

JPEG-Grafikformat entwickelt

Philip Zimmerman erfand PGP, ein Nachrichtenverschlüsselungssystem mit öffentlichem Schlüssel.

1992 Das erste kostenlose Betriebssystem mit großartigen Fähigkeiten erschien – Linux. Der finnische Student Linus Torvalds (der Autor dieses Systems) beschloss, mit den Befehlen des Intel 386-Prozessors zu experimentieren und veröffentlichte das Ergebnis im Internet. Hunderte Programmierer aus der ganzen Welt begannen, das Programm zu ergänzen und zu überarbeiten. Es hat sich zu einem voll funktionsfähigen Betriebssystem entwickelt. Die Geschichte schweigt darüber, wer beschlossen hat, es Linux zu nennen, aber wie dieser Name entstand, ist ziemlich klar. „Linu“ oder „Lin“ im Namen des Erstellers und „x“ oder „ux“ – von UNIX, weil das neue Betriebssystem war diesem sehr ähnlich, nur dass es jetzt auf Computern mit x86-Architektur funktionierte.

DEC stellte den ersten 64-Bit-RISC-Alpha-Prozessor vor.

1993 Intel veröffentlichte einen 64-Bit-Pentium-Mikroprozessor, der aus 3,1 Millionen Transistoren bestand und 112 Millionen Operationen pro Sekunde ausführen konnte.

Das MPEG-Videokomprimierungsformat ist erschienen.

1994 Beginn der Veröffentlichung der Apple-Computerserie Power PC durch Power Mac.

1995 kündigte DEC die Veröffentlichung von fünf neuen Modellen von Celebris XL-Personalcomputern an.

NEC gab den Abschluss der Entwicklung des weltweit ersten Chips mit einer Speicherkapazität von 1 GB bekannt.

Das Betriebssystem Windows 95 erschien.

SUN führte die Programmiersprache Java ein.

Das RealAudio-Format ist erschienen – eine Alternative zu MPEG.

1996 veröffentlichte Microsoft den Internet Explorer 3.0, einen ziemlich ernstzunehmenden Konkurrenten von Netscape Navigator.

1997 veröffentlichte Apple das Betriebssystem Macintosh OS 8.

Abschluss

Der Personalcomputer hielt schnell Einzug in unser Leben. Noch vor ein paar Jahren war es selten, einen Personalcomputer zu sehen – es gab ihn, aber er war sehr teuer, und nicht einmal jedes Unternehmen konnte einen Computer in seinem Büro haben. Mittlerweile verfügt jeder dritte Haushalt über einen Computer, der bereits fest im menschlichen Leben verankert ist.

Moderne Computer stellen eine der bedeutendsten Errungenschaften des menschlichen Denkens dar, deren Einfluss auf die Entwicklung des wissenschaftlichen und technischen Fortschritts kaum zu überschätzen ist. Der Umfang der Computeranwendungen ist enorm und erweitert sich ständig.

Meine Forschung

Anzahl der Computer, die Schüler in der Schule im Jahr 2007 besaßen.

Anzahl der Schüler

Computer haben

Prozentsatz der Gesamtmenge

Anzahl der Computer, die Schüler in der Schule im Jahr 2008 besaßen.

Anzahl der Schüler

Computer haben

Prozentsatz der Gesamtmenge

Anstieg der Computeranzahl bei Studierenden:

Der Aufstieg der Computer in der Schule

Abschluss

Leider ist es unmöglich, die gesamte Geschichte der Computer im Rahmen einer Zusammenfassung abzudecken. Wir könnten lange darüber reden, wie sich in der Kleinstadt Palo Alto (Kalifornien) im Forschungszentrum Xerox PARK die Crème der damaligen Programmierer versammelte, um revolutionäre Konzepte zu entwickeln, die das Image von Autos radikal veränderten und den Weg ebneten für Computer Ende des 20. Jahrhunderts. Als talentierter Schüler lernten Bill Gates und sein Freund Paul Allen Ed Robertson kennen und schufen die erstaunliche BASIC-Sprache für den Altair-Computer, die es ermöglichte, Anwendungsprogramme dafür zu entwickeln. Als sich das Erscheinungsbild des Personalcomputers allmählich veränderte, erschienen ein Monitor und eine Tastatur, ein Diskettenlaufwerk, die sogenannten Disketten, und dann eine Festplatte. Ein Drucker und eine Maus wurden zum integralen Zubehör. Man könnte über den unsichtbaren Krieg auf den Computermärkten um das Recht, Standards zu setzen, zwischen dem Riesenkonzern IBM und dem jungen Apple sprechen, der es wagte, mit ihm zu konkurrieren und die ganze Welt dazu zwingt, zu entscheiden, was besser ist, Macintosh oder PC? Und über viele andere interessante Dinge, die erst vor kurzem passiert sind, aber bereits Geschichte sind.

Für viele ist eine Welt ohne Computer eine ferne Geschichte, etwa so weit entfernt wie die Entdeckung Amerikas oder die Oktoberrevolution. Doch jedes Mal, wenn man den Computer einschaltet, kommt man nicht umhin, aus dem Staunen über die menschliche Genialität zu staunen, die dieses Wunder geschaffen hat.

Moderne persönliche IBM PC-kompatible Computer sind der am weitesten verbreitete Computertyp, ihre Leistung nimmt ständig zu und ihr Anwendungsbereich erweitert sich. Diese Computer können miteinander vernetzt werden, sodass Dutzende oder Hunderte von Benutzern problemlos Informationen austauschen und gleichzeitig auf Datenbanken zugreifen können. Mithilfe der elektronischen Post können Computerbenutzer Text- und Faxnachrichten über das reguläre Telefonnetz in andere Städte und Länder senden und Informationen aus großen Datenbanken abrufen. Das globale elektronische Kommunikationssystem Internet bietet eine äußerst kostengünstige Möglichkeit, Informationen aus allen Teilen der Welt schnell zu empfangen, bietet Sprach- und Faxkommunikationsmöglichkeiten und erleichtert die Schaffung unternehmensinterner Informationsübertragungsnetze für Unternehmen mit Niederlassungen in verschiedenen Städten und Ländern. Allerdings sind die Fähigkeiten von IBM PC-kompatiblen Personalcomputern zur Informationsverarbeitung noch begrenzt und ihr Einsatz ist nicht in allen Situationen gerechtfertigt.

Um die Geschichte der Computertechnologie zu verstehen, umfasst die besprochene Zusammenfassung mindestens zwei Aspekte: Erstens wurden alle Aktivitäten im Zusammenhang mit automatischer Datenverarbeitung vor der Entwicklung des ENIAC-Computers als Vorgeschichte betrachtet; Zweitens wird die Entwicklung der Computertechnologie nur in Bezug auf Hardwaretechnologie und Mikroprozessorschaltungen definiert.

Referenzliste:

1. Guk M. „IBM PC Hardware“ – St. Petersburg: „Peter“, 1997.

2. Ozertsovsky S. „Intel-Mikroprozessoren: von 4004 bis Pentium Pro“, Computer Week Magazin Nr. 41 –

3. Figurov V.E. „IBM PC für den Benutzer“ – M.: „Infra-M“, 1995.

4. Figurov V.E. „IBM PC für den Benutzer. Kurzkurs“ - M.: 1999.

5. 1996 Frolov A.V., Frolov G.V. „IBM PC-Hardware“ – M.: DIALOG-MEPhI, 1992.

Generationen:

I. Computer auf el. Lampen, die Leistung beträgt etwa 20.000 Operationen pro Sekunde, jede Maschine hat ihre eigene Programmiersprache. („BESM“, „Strela“). II. 1960 wurden die 1948 erfundenen Transistoren in Computern eingesetzt; sie waren zuverlässiger, langlebiger und verfügten über einen großen Arbeitsspeicher. 1 Transistor kann ~40 EL ersetzen. Lampen und arbeitet mit einer höheren Geschwindigkeit. Als Speichermedium dienten Magnetbänder. („Minsk-2“, „Ural-14“). III. Im Jahr 1964 erschienen die ersten integrierten Schaltkreise (ICs), die weit verbreitet waren. Ein IC ist ein Kristall mit einer Fläche von 10 mm2. 1 IC kann 1000 Transistoren ersetzen. 1 Kristall - 30 Tonnen „Eniak“. Es wurde möglich, mehrere Programme parallel abzuarbeiten. IV. Erstmals wurden großintegrierte Schaltkreise (LSIs) eingesetzt, deren Leistung in etwa 1000 ICs entsprach. Dies hat zu einer Senkung der Kosten für die Herstellung von Computern geführt. 1980 wurde es möglich, den Zentralprozessor eines Kleincomputers auf einem 1/4-Zoll-Chip unterzubringen. („Illiak“, „Elbrus“). V. Synthesizer, Geräusche, die Fähigkeit, Dialoge zu führen, Befehle auszuführen, die durch Stimme oder Berührung gegeben werden.

Frühe Geräte und Zählgeräte

Computertechnologie ist ein entscheidender Bestandteil des Computer- und Datenverarbeitungsprozesses. Die ersten Rechengeräte waren Zählstäbe. Mit der Entwicklung wurden diese Geräte immer komplexer, beispielsweise phönizische Tonfiguren, die ebenfalls dazu dienten, die Anzahl der zu zählenden Gegenstände visuell darzustellen. Solche Geräte wurden damals von Händlern und Buchhaltern verwendet. Nach und nach wurden aus den einfachsten Zählgeräten immer komplexere Geräte geboren: Abakus (Abakus), Rechenschieber, mechanische Rechenmaschine, elektronischer Computer. Das Äquivalenzprinzip wurde häufig im einfachsten Rechengerät, dem Abacus oder Abacus, verwendet. Die Anzahl der gezählten Gegenstände entsprach der Anzahl der bewegten Dominosteine ​​dieses Instruments. Ein relativ komplexes Gerät zum Zählen könnte ein Rosenkranz sein, der in der Praxis vieler Religionen verwendet wird. Der Gläubige zählte wie auf einem Abakus die Anzahl der Gebete, die auf den Perlen eines Rosenkranzes gesprochen wurden, und wann „

„Zähluhren“ von Wilhelm Schickard

Im Jahr 1623 erfand Wilhelm Schickard die „Zähluhr“ – die erste mechanische Rechenmaschine, die vier Rechenoperationen ausführen konnte. Es folgten Maschinen von Blaise Pascal (Pascalina, 1642) und Gottfried Wilhelm Leibniz.

Um 1820 entwickelte Charles Es basierte hauptsächlich auf der Arbeit von Leibniz. Bis in die 1970er Jahre wurden mechanische Taschenrechner verwendet, die Dezimalzahlen zählen. Leibniz beschrieb auch das binäre Zahlensystem, den zentralen Bestandteil aller modernen Computer. Bis in die 1940er Jahre basierten jedoch viele spätere Entwicklungen (einschließlich der Maschinen von Charles Babbage und sogar der ENIAC von 1945) auf einem schwieriger zu implementierenden Dezimalsystem.

Lochkarten-Jukebox-System

Im Jahr 1801 entwickelte Joseph Marie Jacquard einen Webstuhl, bei dem das Stickmuster durch Lochkarten bestimmt wurde. Die Kartenserie konnte ausgetauscht werden, und eine Änderung des Musters erforderte keine Änderungen an der Mechanik der Maschine. Dies war ein wichtiger Meilenstein in der Geschichte der Programmierung. Im Jahr 1838 ging Charles Babbage von der Entwicklung der Differenzmaschine zum Entwurf einer komplexeren Analysemaschine über, deren Programmierprinzipien direkt auf Jaccards Lochkarten zurückgingen. Im Jahr 1890 nutzte das US Census Bureau Lochkarten und Sortiermechanismen, die von Herman Hollerith entwickelt wurden, um die in der Verfassung vorgeschriebene Flut von zehnjährlichen Volkszählungsdaten zu verarbeiten. Holleriths Unternehmen wurde schließlich zum Kern von IBM. Dieses Unternehmen entwickelte die Lochkartentechnologie zu einem leistungsstarken Werkzeug für die Verarbeitung von Geschäftsdaten und produzierte eine umfangreiche Reihe spezieller Datenaufzeichnungsgeräte. Bis 1950 war die IBM-Technologie in Industrie und Regierung allgegenwärtig. Viele Computerlösungen nutzten vor (und nach) den späten 1970er Jahren Lochkarten.

1835–1900: Erste programmierbare Maschinen

Im Jahr 1835 beschrieb Charles Babbage seine Analytical Engine. Es handelte sich um ein Allzweck-Computerdesign, das Lochkarten als Eingabedaten und Programmspeicher sowie eine Dampfmaschine als Energiequelle nutzte. Eine der Schlüsselideen war die Verwendung von Zahnrädern zur Ausführung mathematischer Funktionen. In Babbages Fußstapfen trat Percy Ludgate, ein Buchhalter aus Dublin (Irland), obwohl er sich seiner früheren Arbeit nicht bewusst war. Er entwarf unabhängig einen programmierbaren mechanischen Computer, den er in einem 1909 veröffentlichten Artikel beschrieb.

1930er – 1960er: Tischrechner

Die Felix-Addiermaschine ist die am weitesten verbreitete in der UdSSR. Hergestellt in den Jahren 1929-1978

1948 erschien Curta, ein kleiner mechanischer Taschenrechner, der in einer Hand gehalten werden konnte. In den 1950er und 1960er Jahren erschienen mehrere Marken ähnlicher Geräte auf dem westlichen Markt. Der erste vollelektronische Tischrechner war der britische ANITA Mk. VII, das eine „Nixie“-Röhrenanzeige und 177 Miniatur-Thyratronröhren verwendete. Im Juni 1963 stellte Friden den EC-130 mit vier Funktionen vor. Es war vollständig mit Transistoren ausgestattet, hatte eine 13-stellige Auflösung auf einer 5-Zoll-Kathodenstrahlröhre und wurde von der Firma für 2.200 US-Dollar für den Taschenrechnermarkt vermarktet. Dem Modell EC 132 wurden Quadratwurzel- und Umkehrfunktionen hinzugefügt. Im Jahr 1965 produzierten die Wang Laboratories den LOCI-2, einen 10-stelligen Transistor-Tischrechner, der eine Nixie-Röhrenanzeige nutzte und Logarithmen berechnen konnte.

Die Entstehung analoger Computer in den Vorkriegsjahren

Differentialanalysator, Cambridge, 1938 Vor dem Zweiten Weltkrieg galten mechanische und elektrische Analogcomputer als die fortschrittlichsten Maschinen und galten allgemein als die Zukunft der Datenverarbeitung. Analoge Computer machten sich die Tatsache zunutze, dass die Mathematik kleinräumiger Phänomene – Radpositionen oder elektrische Spannung und Stromstärke – der Mathematik anderer physikalischer Phänomene wie ballistischen Flugbahnen, Trägheit, Resonanz, Energieübertragung, Trägheitsmoment usw. ähnelt. usw. Sie modellierten diese und andere physikalische Phänomene anhand der Werte der elektrischen Spannung und des elektrischen Stroms.

Die ersten elektromechanischen Digitalcomputer

Konrad Zuses Z-Serie Im Jahr 1936 begann Konrad Zuse während seiner isolierten Arbeit im nationalsozialistischen Deutschland mit der Arbeit an seinem ersten Computer der Z-Serie, der über Speicher und (noch begrenzte) Programmierbarkeit verfügte. Das hauptsächlich auf mechanischer Basis, aber auf binärer Logik basierende Z1-Modell, das 1938 fertiggestellt wurde, funktionierte aufgrund unzureichender Präzision bei der Ausführung seiner Einzelteile nie zuverlässig genug. Zuses nächstes Auto, der Z3, wurde 1941 fertiggestellt. Es basierte auf Telefonrelais und funktionierte recht zufriedenstellend. Damit war der Z3 der erste funktionierende Computer, der von einem Programm gesteuert wurde. In vielerlei Hinsicht ähnelte die Z3 modernen Maschinen und war Vorreiter bei einer Reihe von Innovationen wie der Gleitkomma-Arithmetik. Der Ersatz des schwer zu implementierenden Dezimalsystems durch ein Binärsystem machte Zuse-Maschinen einfacher und damit zuverlässiger; Es wird angenommen, dass dies einer der Gründe dafür ist, dass Zuse dort Erfolg hatte, wo Babbage scheiterte. Programme für die Z3 wurden auf perforierter Folie gespeichert. Es gab keine bedingten Verzweigungen, aber in den 1990er Jahren erwies sich der Z3 theoretisch als Allzweckcomputer (wenn man die Beschränkungen der physischen Speichergröße außer Acht lässt). In zwei Patenten von 1936 erwähnte Konrad Zuse, dass Maschinenanweisungen im selben Speicher wie Daten gespeichert werden könnten – und nahm damit die spätere von Neumann-Architektur vorweg, die erstmals 1949 von der britischen EDSAC implementiert wurde.

Britischer „Koloss“

Der britische Koloss wurde im Zweiten Weltkrieg eingesetzt, um deutsche Codes zu knacken. Colossus war das erste vollelektronische Computergerät. Es wurde eine große Anzahl von Vakuumröhren verwendet und die Informationen wurden über Lochstreifen eingegeben. Colossus konnte so konfiguriert werden, dass es verschiedene boolesche Logikoperationen ausführte, es handelte sich jedoch nicht um eine vollständige Turing-Maschine. Neben dem Colossus Mk I wurden neun weitere Mk II-Modelle gebaut. Informationen über die Existenz dieser Maschine wurden bis in die 1970er Jahre geheim gehalten. Winston Churchill unterzeichnete persönlich den Befehl, die Maschine in Stücke zu zerstören, die nicht größer als eine menschliche Hand sind. Aufgrund seiner Geheimhaltung wird Colossus in vielen Werken zur Computergeschichte nicht erwähnt.

Erste Generation von Computern mit Von-Neumann-Architektur

Speicher auf Ferritkernen. Jeder Kern ist ein Bit. Die erste funktionierende Maschine mit von-Neumann-Architektur war die Manchester „Baby“ – Small-Scale Experimental Machine, die 1948 an der Universität Manchester entwickelt wurde; 1949 folgte der Computer Manchester Mark I, der bereits ein komplettes System mit Williams-Röhren und einer Magnettrommel als Speicher sowie Indexregistern war. Ein weiterer Anwärter auf den Titel „erster digital gespeicherter Programmcomputer“ war EDSAC, der an der Universität Cambridge entworfen und gebaut wurde. Weniger als ein Jahr nach Baby auf den Markt gebracht, konnte es bereits zur Lösung realer Probleme eingesetzt werden. Tatsächlich wurde EDSAC auf der Grundlage der Architektur des EDVAC-Computers, dem Nachfolger von ENIAC, erstellt. Im Gegensatz zu ENIAC, das parallele Verarbeitung verwendete, verfügte EDVAC über eine einzige Verarbeitungseinheit. Diese Lösung war einfacher und zuverlässiger, sodass diese Option nach jeder aufeinanderfolgenden Miniaturisierungswelle als erste implementiert wurde. Viele glauben, dass der Manchester Mark I / EDSAC / EDVAC zu den „Evas“ wurde, von denen fast alle modernen Computer ihre Architektur ableiten.

Der erste universell programmierbare Computer in Kontinentaleuropa wurde von einem Wissenschaftlerteam unter der Leitung von Sergei Alekseevich Lebedev vom Kiewer Institut für Elektrotechnik der UdSSR, Ukraine, entwickelt. Der MESM-Rechner (Small Electronic Computing Machine) ging 1950 in Betrieb. Es enthielt etwa 6.000 Vakuumröhren und verbrauchte 15 kW. Die Maschine könnte etwa 3.000 Operationen pro Sekunde ausführen. Eine weitere Maschine dieser Zeit war der australische CSIRAC, der 1949 sein erstes Testprogramm durchführte.

Im Oktober 1947 beschlossen die Direktoren von Lyons & Company, einem britischen Unternehmen, das eine Kette von Geschäften und Restaurants besaß, sich aktiv an der Entwicklung kommerzieller Computer zu beteiligen. Der LEO I-Computer ging 1951 in Betrieb und war der erste Computer der Welt, der regelmäßig für routinemäßige Büroarbeiten verwendet wurde.

Die Maschine der Universität Manchester wurde zum Prototyp des Ferranti Mark I. Die erste Maschine dieser Art wurde im Februar 1951 an die Universität geliefert, und zwischen 1951 und 1957 wurden mindestens neun weitere verkauft.

Im Juni 1951 wurde UNIVAC 1 vom US Census Bureau installiert. Die Maschine wurde von Remington Rand entwickelt, das schließlich 46 dieser Maschinen für jeweils mehr als 1 Million US-Dollar verkaufte. UNIVAC war der erste in Massenproduktion hergestellte Computer; Alle seine Vorgänger wurden in einer einzigen Kopie hergestellt. Der Computer bestand aus 5200 Vakuumröhren und verbrauchte 125 kW Energie. Es wurden Quecksilberverzögerungsleitungen verwendet, die 1000 Speicherwörter mit jeweils 11 Dezimalstellen plus Vorzeichen (72-Bit-Wörter) speichern. Im Gegensatz zu IBM-Geräten, die mit einem Lochkarteneingang ausgestattet waren, nutzte der UNIVAC einen metallisierten Magnetbandeingang im Stil der 1930er Jahre, was die Kompatibilität mit einigen bestehenden kommerziellen Speichersystemen gewährleistete. Andere Computer der damaligen Zeit verwendeten Hochgeschwindigkeits-Lochbandeingaben und E/A mit moderneren Magnetbändern.

Der erste sowjetische Seriencomputer war der Strela, der seit 1953 in der Moskauer Fabrik für Computer- und Analysemaschinen hergestellt wurde. „Strela“ gehört zur Klasse der großen Universalrechner (Mainframe) mit einem Drei-Adressen-Befehlssystem. Der Computer hatte eine Geschwindigkeit von 2000-3000 Operationen pro Sekunde. Als externer Speicher dienten zwei Magnetbandlaufwerke mit einer Kapazität von 200.000 Wörtern, die RAM-Kapazität betrug 2048 Zellen zu je 43 Bit. Der Computer bestand aus 6.200 Lampen, 60.000 Halbleiterdioden und verbrauchte 150 kW Energie.

Im Jahr 1955 erfand Maurice Wilkes die Mikroprogrammierung, ein Prinzip, das später in den Mikroprozessoren verschiedenster Computer weit verbreitet war. Mit der Mikroprogrammierung können Sie einen grundlegenden Befehlssatz mithilfe integrierter Programme (Mikroprogramm oder Firmware genannt) definieren oder erweitern.

Im Jahr 1956 verkaufte IBM erstmals ein Gerät zum Speichern von Informationen auf Magnetplatten – RAMAC (Random Access Method of Accounting and Control). Es verwendet 50 Metallscheiben mit einem Durchmesser von 24 Zoll und 100 Spuren auf jeder Seite. Das Gerät speicherte bis zu 5 MB Daten und kostete 10.000 US-Dollar pro MB. (Im Jahr 2006 kosteten ähnliche Speichergeräte – Festplatten – etwa 0,001 US-Dollar pro MB.)

1950er – Anfang der 1960er Jahre: zweite Generation

Der nächste große Schritt in der Geschichte der Computertechnologie war die Erfindung des Transistors im Jahr 1947. Sie sind zu einem Ersatz für zerbrechliche und energieintensive Lampen geworden. Transistorisierte Computer werden üblicherweise als die „zweite Generation“ bezeichnet, die in den 1950er und frühen 1960er Jahren vorherrschte. Dank Transistoren und Leiterplatten konnte eine deutliche Reduzierung von Größe und Energieverbrauch sowie eine erhöhte Zuverlässigkeit erreicht werden. Beispielsweise hatte der mit Transistoren betriebene IBM 1620, der den röhrenbasierten IBM 650 ersetzte, die Größe eines Büroschreibtisches. Allerdings waren Computer der zweiten Generation noch recht teuer und wurden daher nur von Universitäten, Regierungen und Großkonzernen genutzt.

Computer der zweiten Generation bestanden typischerweise aus einer großen Anzahl von Leiterplatten, die jeweils ein bis vier Logikgatter oder Flip-Flops enthielten. Insbesondere das IBM Standard Modular System definierte den Standard für solche Platinen und Anschlussstecker dafür. Im Jahr 1959 brachte IBM auf Basis von Transistoren den Großrechner IBM 7090 und die Mittelklassemaschine IBM 1401 auf den Markt. Letzterer nutzte die Lochkarteneingabe und wurde zum beliebtesten Allzweckcomputer der Zeit: im Zeitraum 1960-1964. Von diesem Auto wurden mehr als 100.000 Exemplare produziert. Es wurde ein 4.000-Zeichen-Speicher verwendet (später auf 16.000 Zeichen erhöht). Viele Aspekte dieses Projekts basierten auf dem Wunsch, die von den 1920er bis Anfang der 1970er Jahre weit verbreiteten Lochkartenmaschinen zu ersetzen. Im Jahr 1960 brachte IBM die Transistormaschine IBM 1620 auf den Markt, zunächst nur eine Lochstreifenmaschine, die jedoch bald auf Lochkarten umgerüstet wurde. Das Modell wurde als wissenschaftlicher Computer populär und es wurden etwa 2.000 Exemplare hergestellt. Die Maschine verwendete einen Magnetkernspeicher mit einer Kapazität von bis zu 60.000 Dezimalstellen.

Ebenfalls im Jahr 1960 brachte DEC sein erstes Modell auf den Markt, den PDP-1, der für den Einsatz durch technisches Personal in Labors und für Forschungszwecke gedacht war.

1961 brachte die Burroughs Corporation den B5000 auf den Markt, den ersten Dual-Prozessor-Computer mit virtuellem Speicher. Weitere einzigartige Merkmale waren die stapelbasierte Architektur, die Handle-basierte Adressierung und das Fehlen einer Programmierung direkt in Assemblersprache.

Die ersten sowjetischen seriellen Halbleitercomputer waren „Spring“ und „Snow“ und wurden von 1964 bis 1972 hergestellt. Die Spitzenleistung des Snow-Computers betrug 300.000 Operationen pro Sekunde. Die Maschinen wurden auf Basis von Transistoren mit einer Taktfrequenz von 5 MHz hergestellt. Insgesamt wurden 39 Computer hergestellt.

Der 1966 entwickelte BESM-6 gilt als der beste Haushaltscomputer der 2. Generation. In der BESM-6-Architektur wurde erstmals das Prinzip der Kombination der Befehlsausführung weit verbreitet (bis zu 14 Unicast-Maschinenbefehle konnten gleichzeitig ausgeführt werden). verschiedene Phasen der Ausführung). Unterbrechungsmechanismen, Speicherschutz und andere innovative Lösungen ermöglichten den Einsatz von BESM-6 im Multiprogramm-Modus und Time-Sharing-Modus. Der Computer verfügte über 128 KB RAM auf Ferritkernen und externen Speicher auf Magnettrommeln und Band. BESM-6 arbeitete mit einer Taktfrequenz von 10 MHz und einer Rekordleistung für die damalige Zeit – etwa 1 Million Operationen pro Sekunde. Insgesamt wurden 355 Computer hergestellt.

Ab den 1960er Jahren: dritte und nachfolgende Generationen

Der rasante Anstieg der Computernutzung begann mit dem sogenannten. „3. Generation“ von Computern. Dies begann mit der Erfindung integrierter Schaltkreise, die unabhängig voneinander von den Nobelpreisträgern Jack Kilby und Robert Noyce erfunden wurden. Dies führte später zur Erfindung des Mikroprozessors durch Tad Hoff (Intel). In den 1960er Jahren gab es einige Überschneidungen zwischen Technologien der 2. und 3. Generation. Ende 1975 setzte Sperry Univac die Produktion von Maschinen der 2. Generation wie der UNIVAC 494 fort.

Das Aufkommen von Mikroprozessoren führte zur Entwicklung von Mikrocomputern, kleinen, kostengünstigen Computern, die kleinen Unternehmen oder Einzelpersonen gehören konnten. Mikrocomputer, Mitglieder der vierten Generation, tauchten erstmals in den 1970er Jahren auf und wurden in den 1980er Jahren und darüber hinaus allgegenwärtig. Steve Wozniak, einer der Gründer von Apple Computer, wurde als Entwickler des ersten in Massenproduktion hergestellten Heimcomputers und später des ersten Personalcomputers bekannt. Computer, die auf einer Mikrocomputerarchitektur basieren und über die Fähigkeiten ihrer größeren Verwandten verfügen, dominieren heute die meisten Marktsegmente.

1970-1990 – vierte Computergeneration

Man geht allgemein davon aus, dass es sich um den Zeitraum von 1970 bis 1990 handelt gehört zu Computern der vierten Generation. Es gibt jedoch eine andere Meinung: Viele glauben, dass die Errungenschaften dieser Zeit nicht so groß sind, dass man sie als gleichberechtigte Generation betrachten könnte. Befürworter dieser Sichtweise nennen dieses Jahrzehnt die „dritte anderthalb“ Computergeneration, und erst ab 1985 dürfen wir ihrer Meinung nach die Lebensjahre der heute noch lebenden vierten Generation selbst zählen .

Auf die eine oder andere Weise ist es offensichtlich, dass es seit Mitte der 70er Jahre immer weniger grundlegende Innovationen in der Informatik gab. Der Fortschritt schreitet hauptsächlich auf dem Weg der Weiterentwicklung bereits Erfundener und Erfundener voran, vor allem durch Leistungssteigerung und Miniaturisierung der Elementbasis und der Computer selbst.

Und das Wichtigste ist natürlich, dass die Computertechnologie seit Anfang der 80er Jahre dank des Aufkommens von Personalcomputern wirklich weit verbreitet und für die Öffentlichkeit zugänglich ist. Es entsteht eine paradoxe Situation: Obwohl Personal- und Minicomputer noch immer in allen Belangen hinter großen Maschinen zurückbleiben, verdankt der Löwenanteil der Innovationen des letzten Jahrzehnts – grafische Benutzeroberflächen, neue Peripheriegeräte, globale Netzwerke – ihr Aufkommen und ihre Entwicklung genau diesem „frivole“ Technologie. Großrechner und Supercomputer sind natürlich keineswegs ausgestorben und entwickeln sich weiter. Doch mittlerweile dominieren sie die Computerwelt nicht mehr wie früher.

Die elementare Basis eines Computers sind große integrierte Schaltkreise (LSI). Die Maschinen sollten die Arbeitsproduktivität in Wissenschaft, Produktion, Management, Gesundheitswesen, Dienstleistung und Alltag drastisch steigern. Ein hoher Integrationsgrad trägt dazu bei, die Packungsdichte elektronischer Geräte zu erhöhen und ihre Zuverlässigkeit zu verbessern, was zu einer Steigerung der Computerleistung und einer Reduzierung ihrer Kosten führt. All dies hat erhebliche Auswirkungen auf die logische Struktur (Architektur) des Computers und seiner Software. Die Verbindung zwischen der Struktur der Maschine und ihrer Software wird enger, insbesondere dem Betriebssystem (oder Monitor) – einer Reihe von Programmen, die den kontinuierlichen Betrieb der Maschine ohne menschliches Eingreifen organisieren. Diese Generation umfasst EC-Computer: ES-1015, -1025, -1035, -1045, -1055, -1065 („Zeile 2“), -1036, -1046, -1066, SM-1420, -1600, -1700, alle Personalcomputer („Electronics MS 0501“, „Electronics-85“, „Iskra-226“, ES-1840, -1841, -1842 usw.) sowie andere Typen und Modifikationen. Der Computer der vierten Generation umfasst auch den Elbrus-Multiprozessor-Rechnerkomplex. „Elbrus-1KB“ hatte eine Geschwindigkeit von bis zu 5,5 Millionen Gleitkommaoperationen pro Sekunde und eine RAM-Kapazität von bis zu 64 MB. Elbrus-2 hat eine Leistung von bis zu 120 Millionen Operationen pro Sekunde, eine RAM-Kapazität von bis zu 144 MB oder 16 MSwords (72-Bit-Wort) und einen maximalen Durchsatz von I/O-Kanälen von 120 MB/s.

Beispiel: IBM 370-168

Hergestellt im Jahr 1972. Dieses Automodell war eines der am weitesten verbreiteten. RAM-Kapazität - 8,2 MB. Leistung – 7,7 Millionen Operationen pro Sekunde.


1990-...bis heute - 5. Computergeneration

Der Übergang zu Computern der fünften Generation bedeutete einen Übergang zu neuen Architekturen, die auf die Schaffung künstlicher Intelligenz abzielten.

Es wurde angenommen, dass die Computerarchitektur der fünften Generation zwei Hauptblöcke enthalten würde. Einer davon ist der Computer selbst, bei dem die Kommunikation mit dem Benutzer über eine Einheit namens „Intelligente Schnittstelle“ erfolgt. Die Aufgabe der Schnittstelle besteht darin, in natürlicher Sprache oder Sprache geschriebene Texte zu verstehen und die so dargelegte Problemstellung in ein Arbeitsprogramm zu übersetzen.

Grundvoraussetzungen für Computer der 5. Generation: Schaffung einer entwickelten Mensch-Maschine-Schnittstelle (Spracherkennung, Bilderkennung); Entwicklung von Logikprogrammen zur Erstellung von Wissensdatenbanken und Systemen der künstlichen Intelligenz; Schaffung neuer Technologien bei der Herstellung von Computergeräten; Erstellung neuer Computerarchitekturen und Computersysteme.

Neue technische Möglichkeiten der Computertechnik hätten das Spektrum der zu lösenden Aufgaben erweitern und den Übergang zu den Aufgaben der Schaffung künstlicher Intelligenz ermöglichen sollen. Eine der notwendigen Komponenten zur Schaffung künstlicher Intelligenz sind Wissensdatenbanken (Datenbanken) in verschiedenen Bereichen der Wissenschaft und Technologie. Die Erstellung und Nutzung von Datenbanken erfordert Hochgeschwindigkeits-Rechensysteme und viel Speicher. Allzweckcomputer sind in der Lage, Hochgeschwindigkeitsberechnungen durchzuführen, eignen sich jedoch nicht für schnelle Vergleichs- und Sortiervorgänge an großen Datensätzen, die normalerweise auf Magnetplatten gespeichert sind. Um Programme zu erstellen, die Datenbanken füllen, aktualisieren und mit ihnen arbeiten, wurden spezielle objektorientierte und logische Programmiersprachen erstellt, die im Vergleich zu herkömmlichen prozeduralen Sprachen die größten Fähigkeiten bieten. Die Struktur dieser Sprachen erfordert einen Übergang von der traditionellen von Neumann-Computerarchitektur zu Architekturen, die die Anforderungen der Aufgaben der Schaffung künstlicher Intelligenz berücksichtigen.

Beispiel: IBM eServer z990

Hergestellt im Jahr 2003. Physikalische Parameter: Gewicht 2000 kg, Stromverbrauch 21 kW, Fläche 2,5 qm. m., Höhe 1,94 m., RAM-Kapazität 256 GB, Leistung - 9 Milliarden Anweisungen/Sek.

Der von ihnen entwickelte Computer arbeitete tausendmal schneller als der Mark 1. Es stellte sich jedoch heraus, dass dieser Computer die meiste Zeit im Leerlauf war, da es zum Einstellen der Berechnungsmethode (Programm) in diesem Computer erforderlich war, die Kabel mehrere Stunden oder sogar mehrere Tage lang in der erforderlichen Weise anzuschließen. Und die Berechnung selbst könnte dann nur wenige Minuten oder sogar Sekunden dauern.

Um den Prozess der Programmeinstellung zu vereinfachen und zu beschleunigen, begannen Mauchly und Eckert mit der Entwicklung eines neuen Computers, der das Programm in seinem Speicher speichern konnte. Im Jahr 1945 wurde der berühmte Mathematiker John von Neumann mit der Arbeit beauftragt und verfasste einen Bericht über diesen Computer. Der Bericht wurde an viele Wissenschaftler verschickt und erlangte große Bekanntheit, weil von Neumann darin die allgemeinen Funktionsprinzipien von Computern, also universellen Rechengeräten, klar und einfach formulierte. Und bis heute wird die überwiegende Mehrheit der Computer nach den Prinzipien hergestellt, die John von Neumann 1945 in seinem Bericht darlegte. Der erste Computer, der von Neumanns Prinzipien verkörperte, wurde 1949 vom englischen Forscher Maurice Wilkes gebaut.

Die Entwicklung der ersten elektronischen Serienmaschine UNIVAC (Universal Automatic Computer) begann um 1947 durch Eckert und Mauchli, die im Dezember desselben Jahres die Firma ECKERT-MAUCHLI gründeten. Das erste Modell der Maschine (UNIVAC-1) wurde für das US Census Bureau gebaut und im Frühjahr 1951 in Betrieb genommen. Auf Basis der ENIAC- und EDVAC-Rechner entstand der synchrone, sequentielle Rechner UNIVAC-1. Es arbeitete mit einer Taktfrequenz von 2,25 MHz und enthielt etwa 5000 Vakuumröhren. Der interne Speicher mit einer Kapazität von 1000 12-Bit-Dezimalzahlen wurde auf 100 Quecksilberverzögerungsleitungen implementiert.

Schon bald nach der Inbetriebnahme der UNIVAC-1-Maschine kamen deren Entwickler auf die Idee der automatischen Programmierung. Es ging darum sicherzustellen, dass die Maschine selbst die zur Lösung eines bestimmten Problems erforderliche Befehlsfolge vorbereiten konnte.

Ein stark einschränkender Faktor in der Arbeit von Computerdesignern in den frühen 1950er Jahren war der Mangel an Hochgeschwindigkeitsspeicher. Laut einem der Pioniere der Informatik, D. Eckert, „wird die Architektur einer Maschine durch den Speicher bestimmt.“ Die Forscher konzentrierten ihre Bemühungen auf die Gedächtniseigenschaften von Ferritringen, die auf Drahtmatrizen aufgereiht waren.

Im Jahr 1951 veröffentlichte J. Forrester einen Artikel über die Verwendung von Magnetkernen zur Speicherung digitaler Informationen. Die Whirlwind-1-Maschine war die erste Maschine, die einen Magnetkernspeicher verwendete. Es bestand aus zwei Würfeln von 32 x 32 x 17 mit Kernen, die die Speicherung von 2048 Wörtern für 16-Bit-Binärzahlen mit einem Paritätsbit ermöglichten.

Bald beteiligte sich IBM an der Entwicklung elektronischer Computer. 1952 brachte das Unternehmen seinen ersten industriellen elektronischen Computer auf den Markt, den IBM 701, einen synchronen Parallelcomputer mit 4.000 Vakuumröhren und 12.000 Germaniumdioden. Eine verbesserte Version der IBM 704-Maschine zeichnete sich durch hohe Geschwindigkeit aus, sie verwendete Indexregister und stellte Daten in Gleitkommaform dar.

IBM 704
Nach dem Computer IBM 704 erschien der IBM 709, der architektonisch den Maschinen der zweiten und dritten Generation nahe kam. In dieser Maschine wurde zum ersten Mal die indirekte Adressierung verwendet und E/A-Kanäle erschienen zum ersten Mal.

1956 entwickelte IBM schwebende Magnetköpfe auf einem Luftkissen. Ihre Erfindung ermöglichte die Schaffung eines neuen Speichertyps – Plattenspeicher (SD), dessen Bedeutung in den folgenden Jahrzehnten der Entwicklung der Computertechnologie voll erkannt wurde. Die ersten Plattenspeichergeräte erschienen in IBM 305- und RAMAC-Maschinen. Letzterer verfügte über ein Paket bestehend aus 50 magnetisch beschichteten Metallscheiben, die mit einer Geschwindigkeit von 12.000 U/min rotierten. Auf der Oberfläche der Diskette befanden sich 100 Spuren zur Aufzeichnung von Daten mit jeweils 10.000 Zeichen.

Nach dem ersten Seriencomputer UNIVAC-1 brachte Remington-Rand 1952 den Computer UNIVAC-1103 auf den Markt, der 50-mal schneller arbeitete. Später wurden Software-Interrupts erstmals im Computer UNIVAC-1103 verwendet.

Die Mitarbeiter von Rernington-Rand verwendeten eine algebraische Form des Schreibens von Algorithmen namens „Short Code“ (der erste Interpreter, der 1949 von John Mauchly entwickelt wurde). Darüber hinaus ist die Offizierin der US-Marine und Leiterin des Programmierteams sowie die damalige Kapitänin (später die einzige Admiralin der Marine) Grace Hopper zu erwähnen, die das erste Compilerprogramm entwickelte. Der Begriff „Compiler“ wurde übrigens erstmals 1951 von G. Hopper eingeführt. Dieses Kompilierungsprogramm übersetzte das gesamte Programm in eine Maschinensprache, geschrieben in einer für die Verarbeitung geeigneten algebraischen Form. G. Hopper ist auch der Autor des Begriffs „Bug“, wie er auf Computer angewendet wird. Einmal flog ein Käfer (auf Englisch - Käfer) durch ein offenes Fenster in das Labor, der auf den Kontakten saß und diese kurzschloss, was zu einer schwerwiegenden Fehlfunktion der Maschine führte. Der verbrannte Käfer wurde in das Verwaltungsprotokoll geklebt, wo verschiedene Störungen verzeichnet waren. So wurde der erste Fehler in Computern dokumentiert.

Die ersten Schritte auf dem Gebiet der Programmierautomatisierung unternahm IBM mit der Entwicklung des „Fast Coding System“ für die IBM 701-Maschine im Jahr 1953. In der UdSSR schlug A. A. Lyapunov eine der ersten Programmiersprachen vor. Im Jahr 1957 schloss eine Gruppe unter der Leitung von D. Backus die Arbeit an der ersten höheren Programmiersprache namens FORTRAN ab, die später populär wurde. Die erstmals auf dem IBM 704-Computer implementierte Sprache trug zur Erweiterung des Computerumfangs bei.

Alexey Andreevich Lyapunov
In Großbritannien stellte M. Wilkes im Juli 1951 auf einer Konferenz an der Universität Manchester einen Bericht „Die beste Methode zum Entwurf einer automatischen Maschine“ vor, der zu einer bahnbrechenden Arbeit über die Grundlagen der Mikroprogrammierung wurde. Die von ihm vorgeschlagene Methode zum Entwurf von Steuergeräten hat breite Anwendung gefunden.

M. Wilkes verwirklichte seine Idee der Mikroprogrammierung 1957, als er die EDSAC-2-Maschine entwickelte. Im Jahr 1951 schrieb M. Wilkes zusammen mit D. Wheeler und S. Gill das erste Programmierlehrbuch „Composing Programs for Electronic Computing Machines“.

1956 veröffentlichte Ferranti den Pegasus-Computer, der erstmals das Konzept der General Purpose Registers (GPR) umsetzte. Mit dem Aufkommen von RON wurde die Unterscheidung zwischen Indexregistern und Akkumulatoren aufgehoben und dem Programmierer standen nicht mehr ein, sondern mehrere Akkumulatorenregister zur Verfügung.

Das Aufkommen von Personalcomputern

Mikroprozessoren wurden erstmals in verschiedenen Spezialgeräten eingesetzt, beispielsweise in Taschenrechnern. Doch 1974 kündigten mehrere Unternehmen die Entwicklung eines Personalcomputers auf Basis des Intel-8008-Mikroprozessors an, also eines Geräts, das die gleichen Funktionen wie ein großer Computer ausführt, aber für einen Benutzer konzipiert ist. Anfang 1975 erschien der erste kommerziell vertriebene Personalcomputer, Altair-8800, basierend auf dem Intel-8080-Mikroprozessor. Dieser Computer wurde für etwa 500 US-Dollar verkauft. Und obwohl seine Fähigkeiten sehr begrenzt waren (der RAM betrug nur 256 Byte, es gab keine Tastatur und keinen Bildschirm), wurde sein Erscheinen mit großer Begeisterung aufgenommen: In den ersten Monaten wurden mehrere tausend Exemplare der Maschine verkauft. Käufer lieferten diesen Computer mit zusätzlichen Geräten: einem Monitor zur Anzeige von Informationen, einer Tastatur, Speichererweiterungseinheiten usw. Bald wurden diese Geräte von anderen Unternehmen hergestellt. Ende 1975 entwickelten Paul Allen und Bill Gates (zukünftige Gründer von Microsoft) einen Basic-Sprachinterpreter für den Altair-Computer, der es Benutzern ermöglichte, problemlos mit dem Computer zu kommunizieren und problemlos Programme dafür zu schreiben. Dies trug auch zur steigenden Beliebtheit von Personalcomputern bei.

Der Erfolg des Altair-8800 zwang viele Unternehmen, auch mit der Produktion von Personalcomputern zu beginnen. Man begann, Personalcomputer komplett ausgestattet mit Tastatur und Monitor zu verkaufen; die Nachfrage nach ihnen belief sich auf Zehntausende und dann Hunderttausende Einheiten pro Jahr. Es erschienen mehrere Zeitschriften zum Thema Personalcomputer. Das Umsatzwachstum wurde durch zahlreiche nützliche Programme von praktischer Bedeutung erheblich erleichtert. Es erschienen auch kommerziell vertriebene Programme, beispielsweise das Textbearbeitungsprogramm WordStar und der Tabellenkalkulationsprozessor VisiCalc (1978 bzw. 1979). Diese und viele andere Programme machten die Anschaffung von Personalcomputern für Unternehmen sehr rentabel: Mit ihrer Hilfe wurde es möglich, Buchhaltungsberechnungen durchzuführen, Dokumente zu erstellen usw. Der Einsatz großer Computer für diese Zwecke war zu teuer.

Ende der 1970er Jahre führte die Verbreitung von Personalcomputern sogar zu einem leichten Rückgang der Nachfrage nach Großrechnern und Minicomputern (Minicomputern). Für IBM, das führende Unternehmen in der Herstellung großer Computer, wurde dies zu einem ernsten Problem, und 1979 beschloss IBM, sich auf dem Markt für Personalcomputer zu versuchen. Die Unternehmensleitung unterschätzte jedoch die zukünftige Bedeutung dieses Marktes und betrachtete die Entwicklung eines Personalcomputers nur als ein kleines Experiment – ​​so etwas wie eine von Dutzenden Arbeiten, die das Unternehmen zur Entwicklung neuer Geräte durchführte. Um nicht zu viel Geld für dieses Experiment auszugeben, hat die Unternehmensleitung der für dieses Projekt verantwortlichen Einheit im Unternehmen beispiellose Freiheiten eingeräumt. Insbesondere durfte er einen Personal Computer nicht von Grund auf entwerfen, sondern Blöcke anderer Unternehmen verwenden. Und diese Einheit nutzte die gegebene Chance voll aus.

Als Hauptmikroprozessor des Computers wurde der damals neueste 16-Bit-Mikroprozessor Intel-8088 ausgewählt. Durch seinen Einsatz konnte die Leistungsfähigkeit des Computers deutlich gesteigert werden, da der neue Mikroprozessor das Arbeiten mit 1 Megabyte Speicher ermöglichte und alle damals verfügbaren Computer auf 64 Kilobyte begrenzt waren.

Im August 1981 wurde ein neuer Computer namens IBM PC offiziell der Öffentlichkeit vorgestellt und erfreute sich bald darauf großer Beliebtheit bei den Benutzern. Ein paar Jahre später nahm der IBM-PC eine führende Position auf dem Markt ein und verdrängte 8-Bit-Computermodelle.

IBM-PC
Das Geheimnis der Popularität des IBM-PCs liegt darin, dass IBM seinen Computer nicht zu einem einzigen einteiligen Gerät gemacht und sein Design nicht durch Patente geschützt hat. Stattdessen baute sie den Computer aus unabhängig hergestellten Teilen zusammen und hielt die Spezifikationen dieser Teile und die Art und Weise ihrer Verbindung nicht geheim. Im Gegensatz dazu standen die Designprinzipien des IBM-PCs jedem zur Verfügung. Dieser als Prinzip der offenen Architektur bezeichnete Ansatz machte den IBM-PC zu einem überwältigenden Erfolg, obwohl er IBM daran hinderte, die Vorteile seines Erfolgs zu teilen. Hier erfahren Sie, wie die Offenheit der IBM PC-Architektur die Entwicklung von Personalcomputern beeinflusste.

Das Versprechen und die Popularität des IBM-PCs machten die Produktion verschiedener Komponenten und Zusatzgeräte für den IBM-PC sehr attraktiv. Der Wettbewerb zwischen den Herstellern hat zu günstigeren Komponenten und Geräten geführt. Sehr bald gaben sich viele Unternehmen nicht mehr mit der Rolle der Hersteller von Komponenten für den IBM PC zufrieden und begannen, eigene Computer zusammenzubauen, die mit dem IBM PC kompatibel waren. Da diese Unternehmen nicht die enormen Kosten von IBM für Forschung und Aufrechterhaltung der Struktur eines riesigen Unternehmens tragen mussten, konnten sie ihre Computer viel billiger (manchmal 2-3-mal) als ähnliche IBM-Computer verkaufen.

Mit dem IBM-PC kompatible Computer wurden zunächst verächtlich als „Klone“ bezeichnet, doch dieser Spitzname setzte sich nicht durch, da viele Hersteller von IBM-PC-kompatiblen Computern begannen, technische Fortschritte schneller als IBM selbst umzusetzen. Benutzer konnten ihre Computer selbstständig aufrüsten und mit zusätzlichen Geräten von Hunderten verschiedener Hersteller ausstatten.

Personalcomputer der Zukunft

Die Basis zukünftiger Computer werden nicht Siliziumtransistoren sein, bei denen Informationen durch Elektronen übertragen werden, sondern optische Systeme. Der Informationsträger werden Photonen sein, da sie leichter und schneller als Elektronen sind. Dadurch wird der Computer günstiger und kompakter. Aber das Wichtigste ist, dass optoelektronisches Rechnen viel schneller ist als das, was heute verwendet wird, sodass der Computer viel leistungsfähiger sein wird.

Der PC wird klein sein und die Leistung moderner Supercomputer haben. Der PC wird zu einem Informationsspeicher, der alle Aspekte unseres täglichen Lebens abdeckt, und ist nicht an elektrische Netzwerke gebunden. Dieser PC wird dank eines biometrischen Scanners, der seinen Besitzer anhand des Fingerabdrucks erkennt, vor Dieben geschützt.

Die Kommunikation mit dem Computer erfolgt hauptsächlich über Sprache. Der Desktop-Computer verwandelt sich in einen „Schokoriegel“, oder besser gesagt, in einen riesigen Computerbildschirm – ein interaktives photonisches Display. Eine Tastatur ist nicht erforderlich, da alle Aktionen per Fingerdruck ausgeführt werden können. Wer aber eine Tastatur bevorzugt, kann jederzeit eine virtuelle Tastatur auf dem Bildschirm erstellen und entfernen, wenn sie nicht mehr benötigt wird.

Der Computer wird zum Betriebssystem des Hauses, und das Haus beginnt, auf die Bedürfnisse des Eigentümers zu reagieren, seine Vorlieben zu kennen (Kaffee um 7 Uhr kochen, seine Lieblingsmusik abspielen, die gewünschte Fernsehsendung aufzeichnen, die Temperatur anpassen usw.). Luftfeuchtigkeit usw.)

Die Bildschirmgröße wird bei den Computern der Zukunft keine Rolle mehr spielen. Es kann so groß wie Ihr Desktop oder klein sein. Größere Versionen von Computerbildschirmen werden auf photonisch angeregten Flüssigkristallen basieren, die einen deutlich geringeren Stromverbrauch haben als heutige LCD-Monitore. Die Farben werden lebendig und die Bilder präzise sein (Plasmaanzeigen möglich). Tatsächlich wird das heutige Konzept der „Lösung“ stark verkümmern.