Tabela rozmiarów generacji komputerów. Generacje komputerów - historia rozwoju techniki komputerowej

Novruzlu Elnura 10 a

1. Komputer elektroniczny (komputer)

2.

2.1. Igeneracja komputerów

2.2. IIgeneracja komputerów

2.3. IIIgeneracja komputerów

2.4. IV generacja komputerów

2.5. V generacja komputerów

3. Generacja komputerowa (tabela)

Wykaz używanej literatury

1. KOMPUTER GENERACJI

Pokolenie

Lata

Podstawa elementu

Wydajność

Objętość OP

Urządzenia wejścia/wyjścia

Oprogramowanie

Przykłady komputerów

Lampa elektryczna

10-20 tysięcy operacji w 1 s.

2KB

Taśmy dziurkowane

Karty dziurkowane

Kody maszynowe

UNIVAC,MESM, BESM, STRZAŁKA

C 1955

Tranzystor

2 – 32 kB

„Tradis”

BESM-6

C 1966

Układ scalony (IC)

1-10 milionów operacji w ciągu 1 s.

64KB

Systemy wieloterminalowe

system operacyjny

BESM-6

C 1975

1-100 milionów operacji w ciągu 1 s.

1-64 kB

Sieci komputerowe

Bazy danych i banki danych

Kornet

UKSC

od lat 90-tych XX wieku.

Systemy eksperckie

Pobierać:

Zapowiedź:

Szkoła średnia MBOU Astrachań nr 52

STRESZCZENIE na temat:

„ELEKTRONICZNA MASZYNA LICZĄCA”

Przygotowany

Uczeń klasy 10

Novruzlu Elnura

Sprawdzone przez nauczyciela informatyki i ICT

Komissarova I.M.

Astrachań, 2013

Strona

  1. Komputer elektroniczny (komputer) 3
  2. Elektroniczny etap rozwoju technologia komputerowa
  1. Komputer I generacji 3
  2. Komputery II generacji 4-5
  3. III generacja komputerów 5-7
  4. IV generacja komputerów 7-8
  5. Komputery V generacji 8-10
  1. Generacja komputerów (tabela) 11
  2. Referencje 12
  1. ELEKTRONICZNA MASZYNA LICZĄCA (KOPUTER)

Komputer elektroniczny (komputer) - szybkie komputery rozwiązujące zadania matematyczne i problemy logiczne z dużą dokładnością przy wykonywaniu kilkudziesięciu tysięcy operacji na sekundę. Podstawą techniczną komputera są obwody elektroniczne. Komputer ma urządzenie magazynujące (pamięć) przeznaczone do odbierania, przechowywania i wyprowadzania informacji, urządzenie arytmetyczne do operacji na liczbach oraz urządzenie sterujące. Każda maszyna ma pewnego systemu polecenia

  1. ELEKTRONICZNY ETAP ROZWOJU INŻYNIERII KOMPUTEROWEJ
  1. I generacja komputerów

Powszechnie przyjmuje się, że pierwsza generacja komputerów pojawiła się w czasie II wojny światowej po 1943 roku, choć za pierwszego działającego przedstawiciela należy uznać maszynę V-1 (Z1) Konrada Zuse, zademonstrowaną przyjaciołom i bliskim w 1938 roku. Była to pierwsza maszyna elektroniczna (zbudowana na domowych analogach przekaźników), kapryśna w obsłudze i zawodna w obliczeniach. W maju 1941 roku w Berlinie Zuse zaprezentował samochód Z3, co wywołało zachwyt wśród specjalistów. Mimo szeregu niedociągnięć był to pierwszy komputer, który w innych okolicznościach mógł odnieść komercyjny sukces. Za pierwsze komputery uważa się jednak angielskiego Colossusa (1943) i amerykańskiego ENIAC (1945). ENIAC był pierwszym komputerem lampowym.

Cechy charakteru

  • Baza elementu –elektronowe lampy próżniowe.
  • Połączenie elementów –instalacja na przewodzie.
  • Wymiary – Komputer wykonany jest w formie ogromnych szafek.
  • Wydajność -10-20 tysięcy operacji na sekundę.
  • Operacja jest trudna z powodu częstych awarii lamp próżniowych.
  • Programowanie – kody maszynowe.
  • RAM – do 2KB.
  • Wejście i wyjście danych za pomocąkarty dziurkowane, taśma dziurkowana.
  1. II generacja komputerów

Druga generacja komputerów to przejście na bazę elementów tranzystorowych, pojawienie się pierwszych minikomputerów. Zasada autonomii jest dalej rozwijana – jest już realizowana na poziomie poszczególnych urządzeń, co wyraża się w ich modułowej budowie. Urządzenia I/O wyposażone są we własne jednostki sterujące (zwane kontrolerami), co umożliwiło uwolnienie centralnej jednostki sterującej od zarządzania operacjami I/O. Udoskonalenie i obniżenie kosztów komputerów spowodowało zmniejszenie jednostkowego kosztu czasu pracy komputera i zasobów obliczeniowych w całkowitym koszcie zautomatyzowanego rozwiązania problemu przetwarzania danych, przy jednoczesnym obniżeniu kosztów opracowania programu (tj. programowania). prawie nie spadła, a w niektórych przypadkach wykazywała tendencję wzrostową. Tym samym zaistniał trend w kierunku efektywnego programowania, który zaczął być realizowany w drugiej generacji komputerów i rozwija się do dnia dzisiejszego. Rozpoczyna się rozwój oparty na bibliotekach standardowe programy systemy zintegrowane posiadające właściwość przenośności, tj. działa na komputerach różnych marek. Najczęściej używane narzędzia programowe są przydzielane w oprogramowaniu do rozwiązywania problemów określonej klasy. Udoskonalana jest technologia wykonywania programów na komputerze: tworzone są specjalne narzędzia programowe - oprogramowanie systemowe. Celem tworzenia oprogramowania systemowego jest przyspieszenie i uproszczenie przejścia procesora z jednego zadania do drugiego. Pojawiły się pierwsze systemy przetwarzanie wsadowe, co po prostu zautomatyzowało uruchamianie jednego programu po drugim, zwiększając w ten sposób współczynnik obciążenia procesora. Systemy przetwarzania wsadowego były prototypem nowoczesnych systemów operacyjnych, stały się pierwszymi programy systemowe, przeznaczony do sterowania procesem obliczeniowym. Podczas wdrażania systemów przetwarzania wsadowego opracowano sformalizowany język sterowania zadaniami, za pomocą którego programista informował system i operatora, jaką pracę chce wykonać na komputerze. Zbiór kilku zadań, zwykle w formie talii kart perforowanych, nazywany jest pakietem zadań. Ten element wciąż żyje: tak zwane pliki wsadowe (lub polecenia) MS DOS to nic innego jak pakiety zadań (rozszerzenie w ich nazwie bat to skrót od angielskiego słowa „batch”, czyli pakiet). Komputery domowe drugiej generacji to Promin, Mińsk, Hrazdan i Mir.

Cechy charakteru

  • Baza elementu –elementy półprzewodnikowe(tranzystory).
  • Połączenie elementów –płytki drukowane i montaż powierzchniowy.
  • Wymiary – .
  • Wydajność -100-500 tysięcy operacji na sekundę.
  • Eksploatacja - centra obliczeniowewraz ze specjalną kadrą personelu serwisowego pojawiła się nowa specjalność - operator komputera.
  • Programowanie –w językach algorytmicznych pojawienie się systemu operacyjnego.
  • BARAN - 2 – 32 kB.
  • Wprowadzono zasada podziału czasu.
  • Wprowadzono zasada sterowania mikroprogramem.
  • Wada - niekompatybilność oprogramowania.
  1. III generacja komputerów

Rozwój w latach 60. układów scalonych – całych urządzeń i zespołów dziesiątek i setek tranzystorów wykonanych na jednym krysztale półprzewodnikowym (obecnie nazywane mikroukładami) doprowadził do powstania komputerów trzeciej generacji. W tym samym czasie pojawiła się pamięć półprzewodnikowa, która do dziś stosowana jest w komputerach osobistych jako pamięć operacyjna. Zastosowanie układów scalonych znacznie zwiększyło możliwości komputerów. Teraz centralny procesor ma możliwość pracy równoległej i sterowania wieloma urządzeniami peryferyjnymi. Komputery mogły przetwarzać jednocześnie kilka programów (zasada wieloprogramowania). W wyniku wdrożenia zasady wieloprogramowości stała się możliwa praca w trybie podziału czasu w trybie interaktywnym. Użytkownicy zdalni od komputera otrzymali możliwość, niezależnej od siebie, szybkiej interakcji z maszyną. W ciągu tych lat produkcja komputerów nabrała skali przemysłowej. IBM, który stał się liderem, jako pierwszy wdrożył rodzinę komputerów - serię komputerów w pełni ze sobą kompatybilnych, od najmniejszego, wielkości małej szafy (nigdy wcześniej nie robili niczego mniejszego), do najpotężniejszego i drogie modele. Najpopularniejszym w tamtych latach była rodzina System/360 firmy IBM. Począwszy od komputerów trzeciej generacji, rozwój komputerów szeregowych stał się tradycyjny. Chociaż maszyny tej samej serii bardzo różniły się od siebie możliwościami i wydajnością, były kompatybilne informacyjnie, programowo i sprzętowo. Na przykład kraje CMEA produkowały komputery z jednej serii („ES EVM”) „ES-1022”, „ES-1030”, „ES-1033”, „ES-1046”, „ES-1061”, „ES -1066” itd. Wydajność tych maszyn sięgała od 500 tysięcy do 2 milionów operacji na sekundę, ilość pamięci RAM sięgała od 8 MB do 192 MB. Do komputerów tej generacji zaliczają się także „IVM-370”, „Electronics - 100/25”, „Electronics - 79”, „SM-3”, „SM-4” itp. W przypadku serii komputerów oprogramowanie (systemy operacyjne , języki programowania wysoki poziom, programy użytkowe itp.). Słabą stroną radzieckich komputerów trzeciej generacji była niska jakość podzespołów elektronicznych. Stąd ciągłe opóźnienie w stosunku do zachodnich rozwiązań pod względem szybkości, masy i wymiarów, ale – jak twierdzą twórcy SM – nie pod względem funkcjonalność. Aby zrekompensować to opóźnienie, opracowano specjalne procesory, które umożliwiły budowanie wysokowydajnych systemów do określonych zadań. Wyposażony w specjalny procesor z transformacją Fouriera, SM-4 był używany na przykład do mapowania radarowego Wenus. Już na początku lat 60. pojawiły się pierwsze minikomputery - małe potężne komputery, przystępne dla małych firm lub laboratoriów. Minikomputery stanowiły pierwszy krok w kierunku komputerów osobistych, których prototypy wypuszczono dopiero w połowie lat 70-tych. Prototypem radzieckiej serii maszyn SM była znana rodzina minikomputerów PDP firmy Digital Equipment. Tymczasem liczba elementów i połączeń między nimi mieszczących się w jednym mikroukładzie stale rosła, a w latach 70. układy scalone zawierały już tysiące tranzystorów. Umożliwiło to połączenie większości podzespołów komputera w jedną małą część - tak właśnie uczynił Intel w 1971 roku, wypuszczając pierwszy mikroprocesor, który był przeznaczony do dopiero co pojawiających się kalkulatorów stacjonarnych. Wynalazek ten miał w najbliższej dekadzie wywołać prawdziwą rewolucję – w końcu mikroprocesor jest sercem i duszą współczesnego komputera osobistego. Ale to nie wszystko – przełom lat 60. i 70. to naprawdę fatalny czas. W 1969 roku narodziła się pierwsza globalna sieć komputerowa – zalążek tego, co obecnie nazywamy Internetem. W tym samym roku 1969 pojawił się jednocześnie system operacyjny Unix i język programowania C, co wywarło ogromny wpływ na świat oprogramowania i nadal utrzymuje wiodącą pozycję.

Cechy charakteru

  • Baza elementu –obwody scalone.
  • Połączenie elementów – płytki drukowane.
  • Wymiary – Komputer wykonany jest w formie identycznych stojaków.
  • Wydajność -1-10 milionów operacji na sekundę.
  • Eksploatacja - centra komputerowe, zajęcia z wyświetlaczy, nowa specjalność - programista systemów.
  • Programowanie –języki algorytmiczne, OS.
  • BARAN - 64KB.
  • Odpowiedni zasada podziału czasu, zasada modułowości, zasada sterowania mikroprogramem, zasada trunkingu.
  • Wygląd dyski magnetyczne, wyświetlacze, plotery.
  1. IV generacja komputerów

Niestety, począwszy od połowy lat 70. XX w. uporządkowany obraz zmiany pokoleniowej został zakłócony. W informatyce pojawia się coraz mniej fundamentalnych innowacji. Postęp następuje głównie drogą rozwoju tego, co zostało już wynalezione i wynalezione – przede wszystkim poprzez zwiększanie mocy i miniaturyzację bazy elementów oraz samych komputerów. Okres od roku 1975 jest powszechnie uważany za czwartą generację komputerów. Ich podstawą elementarną były duże układy scalone (LSI. W jednym krysztale integruje się do 100 tys. elementów). Prędkość tych maszyn wynosiła dziesiątki milionów operacji na sekundę, a Baran osiągnął setki MB. Pojawiły się mikroprocesory (1971 firmy Intel), mikrokomputery i komputery osobiste. Stało się możliwe wspólne wykorzystanie mocy różnych maszyn (łączenie maszyn w jeden węzeł obliczeniowy i praca w trybie podziału czasu). Istnieje jednak inna opinia – wielu uważa, że ​​osiągnięcia okresu 1975-1985. nie na tyle duże, aby można je było uznać za równe pokolenie. Zwolennicy tego punktu widzenia nazywają tę dekadę należącą do „trzeciej i pół” generacji komputerów. I dopiero od 1985 roku, kiedy pojawiły się superduże układy scalone (VLSI). Kryształ takiego układu może pomieścić do 10 milionów elementów. Lata życia samej czwartej generacji, która żyje do dziś, powinny być liczone.

Kierunek 1 - tworzenie superkomputerów - kompleksów maszyn wieloprocesorowych. Prędkość takich maszyn sięga kilku miliardów operacji na sekundę. Potrafią przetwarzać ogromne ilości informacji. Obejmuje to kompleksy ILLIAS-4, CRAY, CYBER, Elbrus-1, Elbrus-2 itp. Wieloprocesorowe kompleksy obliczeniowe (MCC) Elbrus-2 były aktywnie wykorzystywane w Związku Radzieckim w obszarach wymagających dużej liczby obliczeń, przede wszystkim przemysł obronny. Systemy komputerowe Elbrus-2 były eksploatowane w Centrum Kontroli Lotów Kosmicznych oraz w ośrodkach badań jądrowych. Wreszcie, od 1991 roku w systemie obrony przeciwrakietowej i innych obiektach wojskowych wykorzystywane są kompleksy Elbrus-2.

Kierunek II – dalszy rozwój w oparciu o mikrokomputery LSI i VLSI oraz komputery osobiste(komputer). Pierwszymi przedstawicielami tych maszyn są Apple, IBM - PC (XT, AT, PS/2), Iskra, Elektronika, Mazovia, Agat, ES-1840, ES-1841 itp. Począwszy od tej generacji komputery zaczęto nazywać wszędzie komputery. A słowo „komputeryzacja” na dobre wkroczyło w naszą codzienność. Dzięki pojawieniu się i rozwojowi komputerów osobistych (PC) technologia komputerowa staje się naprawdę powszechna i dostępna dla ogółu społeczeństwa. Powstaje paradoksalna sytuacja: mimo że komputery osobiste i minikomputery wciąż pod każdym względem pozostają w tyle za dużymi maszynami, lwią część innowacji stanowią graficzny interfejs użytkownika, nowe urządzenia peryferyjne, sieci globalne- zawdzięczają swój wygląd i rozwój właśnie tej „frywolnej” technice. Duże komputery i superkomputery oczywiście nie wymarły i nadal się rozwijają. Ale teraz nie dominują już na arenie komputerowej, jak kiedyś.

Cechy charakteru

  • Baza elementu –duże układy scalone (LSI).
  • Połączenie elementów – płytki drukowane.
  • Wymiary – komputery kompaktowe, laptopy.
  • Wydajność -10-100 milionów operacji na sekundę.
  • Eksploatacja - systemach wieloprocesorowych i wielomaszynowych, wszyscy użytkownicy komputerów.
  • Programowanie –bazy danych i banki danych.
  • BARAN - 2-5MB.
  • Przetwarzanie danych telekomunikacyjnych, integracja z sieciami komputerowymi.
  1. V generacja komputerów

Komputer piątej generacji to komputer przyszłości. Program rozwoju tzw. piątej generacji komputerów został przyjęty w Japonii w 1982 roku. Zakładano, że do 1991 roku powstaną zasadniczo nowe komputery, nastawione na rozwiązywanie problemów sztuczna inteligencja. Przy pomocy języka Prolog i innowacji w projektowaniu komputerów planowano zbliżyć się do rozwiązania jednego z głównych problemów tej gałęzi informatyki – problemu przechowywania i przetwarzania wiedzy. Krótko mówiąc, w przypadku komputerów piątej generacji nie byłoby potrzeby pisania programów, wystarczyłoby wyjaśnić w „niemal naturalnym” języku, czego się od nich wymaga. Zakłada się, że ich bazą elementarną nie będzie VLSI, ale stworzone na ich bazie urządzenia z elementami sztucznej inteligencji. Aby zwiększyć pamięć i szybkość, wykorzystane zostaną osiągnięcia optoelektroniki i bioprocesorów. Przed komputerami piątej generacji postawiono zupełnie inne zadania niż podczas rozwoju wszystkich poprzednich komputerów. Gdyby twórcy komputerów od I do IV generacji stanęli przed takimi zadaniami, jak zwiększenie produktywności w zakresie obliczeń numerycznych, osiągnięcie Duża pojemność pamięci, wówczas głównym zadaniem twórców komputerów V generacji jest stworzenie sztucznej inteligencji maszyny (umiejętności wyciągania logicznych wniosków z przedstawionych faktów), rozwój „intelektualizacji” komputerów – wyeliminowanie bariery pomiędzy człowiekiem a komputer.

Niestety, japoński projekt komputerowy piątej generacji powtórzył tragiczny los wczesnych badań w dziedzinie sztucznej inteligencji. Zmarnowano ponad 50 miliardów jenów inwestycji, projekt zarzucono, a opracowane urządzenia okazały się nie wyższe wydajnością od systemów produkowanych wówczas masowo. Jednakże badania przeprowadzone w ramach projektu oraz doświadczenie zdobyte w zakresie reprezentacji wiedzy i metod wnioskowania równoległego znacznie pomogły w ogólnym postępie w dziedzinie systemów sztucznej inteligencji. Już teraz komputery są w stanie odczytać informacje z tekstu pisanego odręcznie lub wydrukować, z formularzy, z ludzkiego głosu, rozpoznawać użytkownika po głosie i tłumaczyć z jednego języka na drugi. Dzięki temu wszyscy użytkownicy mogą komunikować się z komputerami, nawet ci, którzy ich nie mają specjalna wiedza na tym obszarze. Wiele osiągnięć dokonanych przez sztuczną inteligencję jest wykorzystywanych w przemyśle i świecie biznesu. Do zadań klasyfikacyjnych (filtrowanie spamu, kategoryzacja tekstów itp.) skutecznie wykorzystywane są systemy eksperckie i sieci neuronowe. Algorytmy genetyczne sumiennie służą człowiekowi (wykorzystywane np. do optymalizacji portfeli w działalności inwestycyjnej), robotyce (przemysł, produkcja, życie codzienne – wszędzie tam, gdzie położyła swoją cybernetyczną rękę), a także systemom wieloagentowym. Inne obszary sztucznej inteligencji również nie śpią, np. reprezentacja wiedzy rozproszonej i rozwiązywanie problemów w Internecie: dzięki nim w ciągu najbliższych lat możemy spodziewać się rewolucji w wielu obszarach ludzkiej aktywności.

Oprogramowanie

Przykłady komputerów

od 1946 roku

Lampa elektryczna

10-20 tysięcy operacji w 1 s.

2KB

Taśmy dziurkowane

Karty dziurkowane

Kody maszynowe

UNIVAC, MESM, BESM, STRELA

od 1955 roku

Tranzystor

100-1000 tysięcy operacji w ciągu 1 s.

2 – 32 kB

Taśma magnetyczna, bębny magnetyczne

Języki algorytmiczne, systemy operacyjne

„Tradis”

M-20

IBM-701

BESM-6

od 1966 roku

Układ scalony (IC)

1-10 milionów operacji w ciągu 1 s.

64KB

Systemy wieloterminalowe

system operacyjny

EC-1030

IBM-360

BESM-6

od 1975 r

Układ scalony dużej skali (LSI)

1-100 milionów operacji w ciągu 1 s.

1-64 kB

Sieci komputerowe

Bazy danych i banki danych

IBM-386

IBM-486

Kornet

UKSC

od lat 90-tych XX wieku.

Układ scalony o bardzo dużej skali (VLSI)

Ponad 100 milionów operacji w ciągu 1 sekundy.

Urządzenia optyczne i laserowe

Systemy eksperckie

4. WYKAZ WYKORZYSTANYCH BIBLIOGRAFII

  1. http://evm-story.narod.ru/#P0
  1. http://www.wikiznanie.ru/ru-wz/index.php/EVM

Wstęp

W miarę rozwoju społeczeństwa ludzkiego opanowało ono nie tylko materię i energię, ale także informację. Wraz z pojawieniem się i powszechną dystrybucją komputerów ludzie otrzymali potężne narzędzie do efektywnego wykorzystania. zasoby informacji, aby zwiększyć swoją aktywność intelektualną. Od tego momentu (połowa XX w.) rozpoczęło się przejście od społeczeństwa przemysłowego do społeczeństwa informacyjnego, w którym głównym zasobem staje się informacja.

Zdolność członków społeczeństwa do pełnego, terminowego i wiarygodne informacje w dużej mierze zależy od stopnia rozwoju i opanowania nowych technologii informatycznych, których podstawą są komputery. Rozważmy główne kamienie milowe w historii ich rozwoju.

Początek ery

Pierwszy komputer ENIAC powstał pod koniec 1945 roku w USA.

Podstawowe idee, na których przez wiele lat rozwijała się technologia komputerowa, zostały sformułowane w 1946 roku przez amerykańskiego matematyka Johna von Neumanna. Nazywano je architekturą von Neumanna.

W 1949 roku zbudowano pierwszy komputer o architekturze von Neumanna – angielską maszynę EDSAC. Rok później pojawił się amerykański komputer EDVAC.

W naszym kraju pierwszy komputer powstał w 1951 roku. Nazywała się MESM – mała elektroniczna maszyna licząca. Projektantem MESM był Siergiej Aleksiejewicz Lebiediew. Założyciel technologii komputerowej w ZSRR, dyrektor IT&VT, akademik Akademii Nauk ZSRR (1953) i Ukraińskiej Akademii Nauk (12.02.1945). Bohater Pracy Socjalistycznej. Laureat Nagrody Stalinowskiej III stopnia, Nagrody Lenina i Nagrody Państwowej ZSRR. W 1996 roku został pośmiertnie odznaczony medalem „Pionier Techniki Komputerowej” za opracowanie MESM (Małej Elektronicznej Maszyny Obliczeniowej), pierwszego komputera w ZSRR i Europie kontynentalnej, a także za powstanie radzieckiego przemysłu komputerowego.



Produkcja seryjna komputerów rozpoczęła się w latach 50-tych XX wieku.

Elektroniczną technologię komputerową dzieli się zwykle na generacje związane ze zmianą podstawy elementu. Oprócz tego samochody różne pokolenia różnią się architekturą logiczną i oprogramowaniem, szybkością, pamięcią RAM, metodą wprowadzania i wyprowadzania informacji itp.

Pierwsza generacja

Pierwszą generacją komputerów były maszyny lampowe z lat 50-tych. Prędkość liczenia najszybszych maszyn pierwszej generacji sięgała 20 tysięcy operacji na sekundę. Do wprowadzania programów i danych używano taśm dziurkowanych i kart dziurkowanych. Ponieważ pamięć wewnętrzna tych maszyn była niewielka (mogła pomieścić kilka tysięcy liczb i poleceń programowych), wykorzystywano je głównie do obliczeń inżynierskich i naukowych, niezwiązanych z przetwarzaniem dużych ilości danych. Były to dość nieporęczne konstrukcje, zawierające tysiące lamp, czasami zajmujące setki metry kwadratowe, zużywając setki kilowatów energii elektrycznej. Programy dla takich maszyn były kompilowane w językach poleceń maszynowych, więc programowanie w tamtych czasach było dostępne dla nielicznych.

Drugie pokolenie

W 1949 roku w USA powstało pierwsze urządzenie półprzewodnikowe, zastępujące lampę próżniową. Nazywano go tranzystorem. W latach 60 tranzystory stały się podstawową podstawą komputerów drugiej generacji. Przejście na elementy półprzewodnikowe poprawiło jakość komputerów pod każdym względem: stały się one bardziej kompaktowe, niezawodne i mniej energochłonne. Prędkość większości maszyn osiągnęła dziesiątki i setki tysięcy operacji na sekundę. Objętość pamięci wewnętrznej wzrosła setki razy w porównaniu do komputera pierwszej generacji. Zewnętrzne (magnetyczne) urządzenia pamięci znacznie się rozwinęły: bębny magnetyczne, napędy taśm magnetycznych. Dzięki temu możliwe stało się tworzenie dokumentów informacyjnych i referencyjnych na komputerze, Wyszukiwarki(wynika to z konieczności długotrwałego przechowywania dużej ilości informacji na nośnikach magnetycznych). W drugiej generacji zaczęły aktywnie rozwijać się języki programowania wysokiego poziomu. Pierwszymi z nich były FORTRAN, ALGOL, COBOL. Programowanie jako element umiejętności czytania i pisania stało się powszechne, głównie wśród osób z wyższym wykształceniem.

Trzecia generacja

Trzecia generacja komputerów powstała na bazie nowego elementu – układów scalonych: złożone układy elektroniczne zamontowano na małej płytce z materiału półprzewodnikowego o powierzchni mniejszej niż 1 cm2. Nazywano je układami scalonymi (IC). Pierwsze układy scalone zawierały dziesiątki, potem setki elementów (tranzystory, rezystancje itp.). Kiedy stopień integracji (liczba elementów) zbliżył się do tysiąca, zaczęto nazywać je dużymi układami scalonymi - LSI; następnie pojawiły się ultrawielkoskalowe układy scalone (VLSI). Produkcja komputerów trzeciej generacji rozpoczęła się w drugiej połowie lat 60-tych, kiedy amerykańska firma IBM rozpoczęła produkcję systemu maszynowego IBM-360. W Związku Radzieckim w latach 70. rozpoczęto produkcję maszyn serii ES EVM (Unified Computer System). Przejście na trzecią generację wiąże się ze znaczącymi zmianami w architekturze komputerów. Stało się możliwe jednoczesne uruchamianie kilku programów na jednej maszynie. Ten tryb działania nazywany jest trybem wieloprogramowym (wieloprogramowym). Prędkość robocza jest największa potężne modele Komputer osiągnął kilka milionów operacji na sekundę. Pojawił się na maszynach trzeciej generacji nowy typ zewnętrzne urządzenia pamięci masowej – dyski magnetyczne. Powszechnie stosowane są nowe typy urządzeń wejścia/wyjścia: wyświetlacze, plotery. W tym okresie obszary zastosowań komputerów znacznie się rozszerzyły. Zaczęto tworzyć bazy danych, pierwsze systemy sztucznej inteligencji, projektowanie wspomagane komputerowo(CAD) i sterowanie (ACS). W latach 70. linia małych (mini) komputerów znacznie się rozwinęła.

Czwarta generacja

Kolejne rewolucyjne wydarzenie w elektronice miało miejsce w 1971 roku, kiedy amerykańska firma Intel ogłosiła stworzenie mikroprocesora. Mikroprocesor to bardzo duży układ scalony zdolny do wykonywania funkcji jednostki głównej komputera - procesora. Początkowo mikroprocesory zaczęto wbudowywać w różne urządzenia techniczne: obrabiarki, samochody, samoloty. Łącząc mikroprocesor z urządzeniami wejścia-wyjścia i pamięcią zewnętrzną, otrzymaliśmy nowy typ komputera: mikrokomputer. Mikrokomputery to maszyny czwartej generacji. Istotną różnicą między mikrokomputerami a ich poprzednikami są ich niewielkie rozmiary (wielkość domowego telewizora) i porównywalnie niski koszt. To pierwszy typ komputera, który pojawił się w sprzedaży detalicznej.

Najpopularniejszym obecnie typem komputera jest komputery osobiste(komputer). Pierwszy komputer PC narodził się w 1976 roku w USA. Od 1980 roku amerykańska firma IBM stała się trendsetterem na rynku komputerów osobistych. Jej projektantom udało się stworzyć architekturę, która faktycznie stała się Międzynarodowy standard do komputerów profesjonalnych. Maszyny z tej serii nosiły nazwę IBM PC (ang. Personal Computer). Pojawienie się i rozpowszechnienie komputera osobistego w jego znaczeniu dla rozwoju społecznego jest porównywalne z pojawieniem się druku książek. To był komputer PC umiejętność obsługi komputera zjawisko masowe. Wraz z rozwojem tego typu maszyn koncepcja „ technologia informacyjna”, bez którego w większości dziedzin ludzkiej działalności nie da się już obejść.

Kolejną linią rozwoju komputerów czwartej generacji są superkomputery. Maszyny tej klasy wykonują prędkości rzędu setek milionów i miliardów operacji na sekundę. Superkomputer to wieloprocesorowy kompleks obliczeniowy.

Wniosek

Rozwój technologii komputerowej trwa nadal. Komputery piątej generacji to maszyny niedalekiej przyszłości. Ich główną cechą powinien być wysoki poziom intelektualny. Umożliwią wprowadzanie głosu, komunikację głosową, „widzenie” maszynowe i „dotyk” maszynowy.

W maszynach piątej generacji realizowana jest sztuczna inteligencja.

Charakterystyka porównawcza generacji komputerów

Charakterystyka I ja ja ja ja ja IV
Lata użytkowania 1946 – 1958 1958 – 1964 1964 – 1972 1972 – obecnie
Podstawa elementarna Lampy elektroniczne Tranzystory Układy scalone (IC) VLSI, mikroprocesor
Wymiary Duży Znacząco mniej Minikomputer mikrokomputer
Liczba komputerów na świecie Dziesiątki Tysiące Dziesiątki tysięcy Miliony
Wydajność 10-20 tys. (operacji/sek.) 100 tys. (operacji/sek.) 10 milionów (op/s) 10 9 (operacje/sek.)
Pojemność pamięci RAM 100KB 1MB 10 MB 1 GB
Typowe modele ENIAK, MESM Setun, BESM-6, Mińsk 23 IBM360 IBM PC, Macintosh
Nośnik danych Karta dziurkowana, taśma dziurkowana Taśma magnetyczna Dysk Dyskietka i dysk laserowy

Spis literatury i zasobów internetowych

1. http://gym075.edusite.ru/istoriyavt.html

2. http://chernykh.net/

3. http://ru.wikipedia.org/wiki/

  1. _______________________________________________________________ Wstęp
  2. __________________________________________ Początek ery komputerów
  3. ____________________________________________________Pierwsza generacja komputerów
  4. ____________________________________________________Druga generacja komputerów
  5. ____________________________________________________ Trzecia generacja komputerów
  6. ________________________________________________Czwarta generacja komputerów
  7. _____________________________________________________________Wniosek
  8. ____________________________________________ Charakterystyka porównawcza generacji komputerów
  9. ______________________ Lista literatury i zasobów internetowych

„Komputer” i „komputer” to to samo (synonimy).

Wstęp

1. Pierwsza generacja komputerów, lata 50.-60. XX wieku

2. Druga generacja komputerów: lata 60.-70. XX wieku

3. Trzecia generacja komputerów: lata 70.-80. XX wieku

4. Czwarta generacja komputerów: lata 80-90 XX wieku

5. Piąta generacja komputerów: 1990-obecnie

Wniosek

Wstęp

Od 1950 roku co 7-10 lat radykalnie aktualizowane są zasady projektowania, technologii i oprogramowania, algorytmiki budowy i użytkowania komputerów. W związku z tym uzasadnione jest mówienie o generacjach komputerów. Tradycyjnie każdemu pokoleniu można przydzielić 10 lat.

Komputery przeszły długą drogę ewolucji zarówno pod względem podstawy elementów (od lamp po mikroprocesory), jak i w sensie pojawienia się nowych możliwości, poszerzania zakresu i charakteru ich zastosowania.

Podział komputerów na generacje jest bardzo warunkową, luźną klasyfikacją systemów komputerowych ze względu na stopień rozwoju sprzętu i oprogramowanie, a także sposoby komunikacji z komputerem.

Do pierwszej generacji komputerów zaliczają się maszyny powstałe na przełomie lat 50. XX w.: w obwodach zastosowano lampy próżniowe. Poleceń było niewiele, sterowanie było proste, a pojemność pamięci RAM i wskaźniki wydajności były niskie. Wydajność wynosi około 10-20 tysięcy operacji na sekundę. Do wejścia i wyjścia używano urządzeń drukujących, taśm magnetycznych, kart dziurkowanych i taśm papierowych dziurkowanych.

Do drugiej generacji komputerów zaliczają się maszyny zaprojektowane w latach 1955-65. Wykorzystali zarówno lampy próżniowe, jak i tranzystory. RAM zbudowano na rdzeniach magnetycznych. W tym czasie pojawiły się bębny magnetyczne i pierwsze dyski magnetyczne. Pojawiły się tak zwane języki wysokiego poziomu, których środki pozwalają na opis całej sekwencji obliczeń w wizualnej, łatwo zrozumiałej formie. Pojawił się duży zestaw programy biblioteczne do rozwiązywania różnych problemów matematycznych. Maszyny drugiej generacji charakteryzowały się niekompatybilnością oprogramowania, co utrudniało dużą organizację systemy informacyjne Dlatego też w połowie lat 60. nastąpiło przejście do tworzenia komputerów kompatybilnych programowo i zbudowanych w oparciu o technologię mikroelektroniczną.

Trzecia generacja komputerów. Są to maszyny powstałe po latach 60-tych, posiadające jedną architekturę, tj. kompatybilne z oprogramowaniem. Pojawiły się możliwości wieloprogramowania, tj. jednoczesne wykonywanie kilku programów. Komputery trzeciej generacji wykorzystywały układy scalone.

Czwarta generacja komputerów. Jest to obecna generacja komputerów opracowana po 1970 roku. Na jej podstawie zaprojektowano maszyny 4. generacji efektywne wykorzystanie nowoczesny języków wysokiego poziomu i uproszczenie procesu programowania dla użytkownik końcowy.

Pod względem sprzętowym charakteryzują się wykorzystaniem dużych układów scalonych jako podstawy elementarnej oraz obecnością szybkich urządzeń pamięci masowej o dostępie swobodnym o pojemności kilku MB.

Maszyny czwartej generacji to wieloprocesorowe kompleksy wielomaszynowe zasilane zewnętrznym zasilaniem. pamięć i pole ogólne wew. urządzenia. Wydajność sięga dziesiątek milionów operacji na sekundę, pamięć - kilka milionów słów.

Przejście na piątą generację komputerów już się rozpoczęło. Polega na jakościowym przejściu od przetwarzania danych do przetwarzania wiedzy i podniesieniu podstawowych parametrów komputera. Główny nacisk zostanie położony na „inteligencję”.

Do chwili obecnej rzeczywista „inteligencja” wykazywana przez najbardziej złożone sieci neuronowe jest poniżej poziomu dżdżownicy, jednak niezależnie od tego, jak ograniczone są dziś możliwości sieci neuronowych, wiele rewolucyjnych odkryć może być tuż za rogiem.

1. Pierwsza generacja komputerów, lata 50.-60. XX wieku

Logika zostały stworzone przy użyciu dyskretnych komponentów radiowych i elektronicznych lamp próżniowych z żarnikiem. Urządzenia pamięci o dostępie swobodnym wykorzystywały bębny magnetyczne, akustyczne ultradźwiękowe rtęciowe i elektromagnetyczne linie opóźniające oraz lampy elektronopromieniowe (CRT). Jako zewnętrzne urządzenia pamięci zastosowano napędy na taśmach magnetycznych, kartach dziurkowanych, taśmach dziurkowanych i przełącznikach wtykowych.

Programowanie działania komputerów tej generacji przeprowadzono w r system binarny Liczby w języku maszynowym, czyli programy były ściśle skupione na konkretnym modelu maszyny i „umarły” wraz z tymi modelami.

W połowie lat pięćdziesiątych XX wieku pojawiły się języki zorientowane maszynowo, takie jak języki kodowania symbolicznego (SCL), które umożliwiły stosowanie ich skróconej notacji słownej (literowej) i liczb dziesiętnych zamiast binarnej notacji poleceń i adresów. W 1956 roku powstał pierwszy język programowania wysokiego poziomu do zadań matematycznych – język Fortran, a w 1958 – uniwersalny język programowania Algol.

Komputery, począwszy od UNIVAC, a skończywszy na BESM-2 i pierwszych modelach komputerów Mińska i Uralu, należą do pierwszej generacji komputerów.

2. Druga generacja komputerów: lata 60.-70. XX wieku

Obwody logiczne zbudowano na dyskretnych elementach półprzewodnikowych i magnetycznych (diody, tranzystory bipolarne, toroidalne mikrotransformatory ferrytowe). Jako podstawę konstrukcyjną i technologiczną wykorzystano obwody drukowane (płytki wykonane z folii getinax). Powszechnie stosowana jest zasada blokowa konstrukcji maszyn, która umożliwia podłączenie dużej liczby różnych urządzeń do głównych urządzeń. urządzenia zewnętrzne, co zapewnia większą elastyczność w korzystaniu z komputerów. Prędkości zegara wydajność obwodów elektronicznych wzrosła do setek kiloherców.

Zaczęto stosować zewnętrzne dyski na twardych dyskach magnetycznych1 i dyskietki – pośredni poziom pamięci pomiędzy napędami taśm magnetycznych a pamięcią RAM.

W 1964 roku pojawił się pierwszy monitor komputerowy - IBM 2250. Był to monochromatyczny wyświetlacz z ekranem 12 x 12 cali i rozdzielczością 1024 x 1024 pikseli. Miał częstotliwość odświeżania 40 Hz.

Systemy sterowania tworzone na bazie komputerów wymagały od komputerów większej wydajności i, co najważniejsze, niezawodności. Kody wykrywania i korekcji błędów oraz wbudowane obwody sterujące stały się szeroko stosowane w komputerach.

Maszyny drugiej generacji jako pierwsze wdrożyły tryby przetwarzania wsadowego i teleprzetwarzania informacji.

Pierwszy komputer, który był częściowo używany urządzenia półprzewodnikowe zamiast lamp próżniowych zastosowano maszynę SEAC (Standards Eastern Automatic Computer), powstałą w 1951 roku.

Na początku lat 60. w ZSRR zaczęto produkować maszyny półprzewodnikowe.

3. Trzecia generacja komputerów: lata 70.-80. XX wieku

W 1958 roku Robert Noyce wynalazł mały krzemowy układ scalony, w którym na małej powierzchni można było umieścić dziesiątki tranzystorów. Obwody te stały się później znane jako układy scalone małej skali (SSI). Już pod koniec lat 60. w komputerach zaczęto stosować układy scalone.

Obwody logiczne komputerów trzeciej generacji były już w całości zbudowane na małych układach scalonych. Częstotliwości zegara obwodów elektronicznych wzrosły do ​​kilku megaherców. Zmniejszyło się napięcie zasilania (jednostki woltów) i moc pobierana przez maszynę. Znacząco wzrosła niezawodność i wydajność komputerów.

Pamięci o dostępie swobodnym wykorzystywały mniejsze rdzenie ferrytowe, płytki ferrytowe i folie magnetyczne z prostokątną pętlą histerezy. Napędy dyskowe stały się powszechnie stosowane jako zewnętrzne urządzenia pamięci masowej.

Pojawiły się jeszcze dwa poziomy urządzeń pamięci masowej: urządzenia pamięci o ultra swobodnym dostępie na rejestrach wyzwalających, które mają ogromną prędkość, ale małą pojemność (dziesiątki liczb) oraz szybką pamięć podręczną.

Od czasu powszechnego stosowania układów scalonych w komputerach postęp technologiczny w komputery można zaobserwować korzystając ze znanego prawa Moore’a. Jeden z założycieli Intela, Gordon Moore, odkrył w 1965 roku prawo, zgodnie z którym liczba tranzystorów w jednym chipie podwaja się co 1,5 roku.

Ze względu na znaczną złożoność zarówno sprzętu, jak i struktury logicznej komputerów III generacji, często zaczęto je nazywać systemami.

Zatem pierwszymi komputerami tej generacji były modele systemów IBM (kilka modeli IBM 360) i PDP (PDP 1). W Związku Radzieckim we współpracy z krajami Rady Wzajemnej Pomocy Gospodarczej (Polska, Węgry, Bułgaria, Niemcy Wschodnie itd.1) zaczęto produkować modele ujednolicony system(EC) i systemy małych komputerów (SM).

W komputerach trzeciej generacji dużą uwagę przywiązuje się do zmniejszenia złożoności programowania, efektywności wykonywania programu w maszynach oraz poprawy komunikacji pomiędzy operatorem a maszyną. Zapewniają to wydajne systemy operacyjne, zaawansowana automatyzacja programowania, wydajne systemy przerywania programów, tryby pracy z podziałem czasu, tryby pracy w czasie rzeczywistym, tryby pracy z wieloma programami i nowe interaktywne tryby komunikacji. Pojawiło się także skuteczne urządzenie terminala wideo służące do komunikacji pomiędzy operatorem a maszyną – monitor wideo, czyli wyświetlacz.

Dużo uwagi skupiono się na poprawie niezawodności i niezawodności działania komputerów oraz ułatwieniu ich konserwacji. Niezawodność i niezawodność zapewnia powszechne stosowanie kodów z automatycznym wykrywaniem i korekcją błędów (Hamming i kody cykliczne).

Modułowa organizacja komputerów i modułowa budowa ich systemów operacyjnych stworzyły szerokie możliwości zmiany konfiguracji systemów komputerowych. W związku z tym pojawiła się nowa koncepcja „architektury” systemu obliczeniowego, która określa logiczną organizację tego systemu z punktu widzenia użytkownika i programisty.

4. Czwarta generacja komputerów: lata 80-90 XX wieku

Rewolucyjnym wydarzeniem w rozwoju technologii komputerowej maszyn trzeciej generacji było stworzenie dużych i bardzo dużych układów scalonych (Large Scale Integration – LSI i Very Large Scale Integration – VLSI), mikroprocesora (1969) i komputera osobistego. Od 1980 roku prawie wszystkie komputery zaczęto tworzyć w oparciu o mikroprocesory. Najpopularniejszym komputerem stał się komputer osobisty.

Logiczne układy scalone w komputerach zaczęto tworzyć w oparciu o jednobiegunowe tranzystory polowe CMOS z połączeniami bezpośrednimi, pracujące z mniejszymi amplitudami napięć elektrycznych (jednostek woltów), zużywające mniej energii niż bipolarne, a tym samym umożliwiające realizację bardziej zaawansowane nanotechnologie (w tamtych latach - w skali mikronów).

Pierwszy komputer osobisty został stworzony w kwietniu 1976 roku przez dwóch przyjaciół, Steve'a Jobe (ur. 1955), pracownika Atari i Stefana Woźniaka (ur. 1950), pracującego w firmie Hewlett-Packard. Oparty na popularnym, zintegrowanym 8-bitowym, lutowanym na twardo kontrolerze obwodu gra elektroniczna pracując wieczorami w garażu samochodowym, stworzyli prosty komputer do gier Apple zaprogramowany w języku BASIC, co okazało się ogromnym sukcesem. Na początku 1977 roku zarejestrowano firmę Apple Co. i rozpoczęto produkcję pierwszego na świecie komputera osobistego, Apple.

5. Piąta generacja komputerów: 1990-obecnie

Cechy architektury współczesnej generacji komputerów zostały szczegółowo omówione w ten kurs.

W skrócie podstawową koncepcję komputera piątej generacji można sformułować w następujący sposób:

1. Komputery na ultraskomplikowanych mikroprocesorach o strukturze wektorów równoległych, które jednocześnie wykonują dziesiątki instrukcje sekwencyjne programy.

2. Komputery z wieloma setkami równolegle pracujących procesorów, umożliwiające budowę wydajnych systemów przetwarzania danych i wiedzy systemy komputerowe.

Szósta i kolejne generacje komputerów

Komputery elektroniczne i optoelektroniczne o masowej równoległości, strukturze neuronowej, z rozproszoną siecią dużej liczby (dziesiątek tysięcy) mikroprocesorów modelujących architekturę neuronowych układów biologicznych.

Wniosek

Wszystkie etapy rozwoju komputera są umownie podzielone na generacje.

Pierwsza generacja powstała w oparciu o próżniowe lampy elektryczne, maszyną sterowano za pomocą pilota i kart dziurkowanych za pomocą kodów maszynowych. Komputery te umieszczono w kilku dużych metalowych szafach zajmujących całe pokoje.

Trzecia generacja pojawiła się w latach 60-tych XX wieku. Elementy komputerowe wykonano w oparciu o tranzystory półprzewodnikowe. Maszyny te przetwarzały informacje pod kontrolą programów w języku asemblera. Dane i programy wprowadzano z kart perforowanych i taśm dziurkowanych.

Trzecia generacja została wykonana na mikroukładach zawierających setki lub tysiące tranzystorów na jednej płytce. Przykładem maszyny trzeciej generacji jest komputer ES. Sterowanie pracą tych maszyn odbywało się z terminali alfanumerycznych. Do sterowania wykorzystano języki wysokiego poziomu oraz Assembly. Dane i programy wprowadzano zarówno z terminala, jak i z kart perforowanych i taśm dziurkowanych.

Czwarta generacja została stworzona w oparciu o wielkoskalowe układy scalone (LSI). Bardzo wybitnych przedstawicieli komputery czwartej generacji – komputery osobiste (PC). Uniwersalny mikrokomputer przeznaczony dla jednego użytkownika nazywany jest osobistym. Komunikacja z użytkownikiem odbywała się poprzez kolorowy wyświetlacz graficzny wykorzystujący języki wysokiego poziomu.

Piąta generacja oparta jest na ultrawielkich układach scalonych (VLSI), które charakteryzują się kolosalną gęstością rozmieszczenia elementy logiczne na krysztale.

Zakłada się, że w przyszłości powszechne stanie się wprowadzanie informacji do komputera za pomocą głosu, komunikacja z maszyną w języku naturalnym, wizja komputerowa, dotyk maszynowy, tworzenie inteligentnych robotów i urządzeń zrobotyzowanych.

Typy komputerów elektronicznych w naszym kraju dzielą się na kilka generacji. Cechami definiującymi przy przypisywaniu urządzeń do określonej generacji są ich elementy i odmiany ważne cechy, takie jak wydajność, pojemność pamięci, metody zarządzania i przetwarzania informacji. Podział komputerów jest warunkowy - istnieje znaczna liczba modeli, które według niektórych cech należą do jednego typu, a według innych do innego typu generacji. W rezultacie tego typu komputery mogą należeć do różnych etapów rozwoju technologii obliczeń elektronicznych.

Pierwsza generacja komputerów

Rozwój komputerów dzieli się na kilka okresów. Generacja urządzeń każdego okresu różni się od siebie bazą elementów i obsługą typów matematycznych.

Komputery I generacji (1945-1954) - komputery elektroniczne na lampach typ elektroniczny(podobne były w pierwszych modelach telewizorów). Ten czas można nazwać erą kształtowania się takiej technologii.

Większość maszyn pierwszego typu generacji nazywano urządzeniami eksperymentalnymi, które stworzono w celu przetestowania jednej lub drugiej teorii. Rozmiary i waga jednostek komputerowych, które często wymagały oddzielnych budynków, od dawna stały się legendą. Liczby do pierwszych maszyn wprowadzano za pomocą kart perforowanych, a sterowanie programowe ciągami funkcyjnymi prowadzono np. w ENIAC-ie, podobnie jak w maszynach licząco-analitycznych, za pomocą wtyczek i pól składu. Pomimo tego, że taki sposób programowania wymagał dużej ilości czasu na przygotowanie maszyny, do połączeń na polach składu (patchboardzie) bloków, zapewniał wszelkie możliwości realizacji „możliwości” zliczania ENIAC-a i przy dużych możliwościach korzyść różniła się od metody programowej z taśmą dziurkowaną, która jest typowa dla urządzeń typu przekaźnikowego.

Jak działały te jednostki?

Pracownicy przydzieleni do tej maszyny stale przebywali w jej pobliżu i monitorowali pracę lamp próżniowych. Ale gdy tylko przepaliła się przynajmniej jedna lampa, ENIAC natychmiast wstał i zaczęły się kłopoty: wszyscy spieszyli się, by szukać spalonej lampy. Główny powód(może nie dokładnie) bardzo częsta wymiana lamp wyglądała następująco: ciepło i blask lamp przyciągały mole, które wlatywały do ​​wnętrza samochodu i przyczyniły się do zwarcia. Tym samym komputery I generacji były wyjątkowo podatne na warunki zewnętrzne.

Jeżeli powyższe jest prawdą, to termin „bugs”, który odnosi się do błędów w oprogramowaniu i sprzęcie sprzętu komputerowego, zyskuje nowe znaczenie. Gdy wszystkie lampy były już sprawne, personel inżynieryjny mógł dostosować ENIAC do dowolnego zadania, ręcznie zmieniając połączenia 6000 przewodów. Jeśli wymagane było wykonanie innego rodzaju zadania, konieczne było ponowne przełączenie wszystkich przewodów.

Pierwsze samochody produkcyjne

Pierwszym komercyjnie produkowanym komputerem pierwszej generacji był komputer UNIVAC (Universal Automatic Computer). Twórcami tego komputera byli: John Mauchly i J. Prosper Eckert. Był to pierwszy typ elektronicznego komputera cyfrowego ogólny cel. UNIVAC, którego prace rozwojowe rozpoczęły się w 1946 r. i zakończyły w 1951 r., miał czas dodawania 120 μs, czas mnożenia 1800 μs i czas podziału 3600 μs.

Maszyny te zajmowały dużo miejsca, zużywały dużo prądu i składały się z ogromnej liczby lamp elektronicznych. Przykładowo maszyna Strela miała 6400 takich lamp i 60 tysięcy sztuk diod półprzewodnikowych. Wydajność komputerów tej generacji nie przekraczała 2-3 tysięcy operacji na sekundę, objętość pamięci RAM nie przekraczała 2 KB. Dopiero maszyna M-2 (1958) miała 4 KB pamięci RAM, a jej prędkość wynosiła 20 tysięcy operacji na sekundę.

Komputery drugiej generacji – istotne różnice

W 1948 roku fizycy teoretyczni John Bardeen i William Shockley wraz z czołowym eksperymentatorem w Bell Telephone Laboratories Walterem Brattainem stworzyli pierwszy działający tranzystor. Było to urządzenie typu punktowo-kontaktowego, w którym trzy metalowe „anteny” stykały się z blokiem materiału polikrystalicznego. W ten sposób generacje komputerów zaczęły się udoskonalać już w tak odległym czasie.

Pierwsze typy komputerów działających w oparciu o tranzystory pojawiły się pod koniec lat pięćdziesiątych XX wieku, a do połowy lat sześćdziesiątych XX wieku powstały zewnętrzne typy urządzeń o bardziej kompaktowych funkcjach.

Cechy architektury

Jedną z niesamowitych możliwości tranzystora jest to, że sam może on wykonywać pracę 40 lamp typu elektronicznego, a nawet w tym przypadku mieć dużą prędkość roboczą, generować minimalną ilość ciepła i praktycznie nie zużywać zasobów elektrycznych i energii . Razem z procesami wymiany lamp typ elektryczny Tranzystory poprawiły sposoby przechowywania informacji. Nastąpił wzrost pojemności pamięci, a taśma magnetyczna, która została po raz pierwszy zastosowana w komputerze UNIVAC pierwszej generacji, zaczęła być używana zarówno do wprowadzania, jak i wysyłania informacji.

W połowie lat sześćdziesiątych XX wieku używano pamięci dyskowej. Ogromny postęp w architekturze komputerów umożliwił osiągnięcie szybkich działań rzędu miliona operacji na sekundę! Na przykład komputery tranzystorowe drugiej generacji to „Stretch” (Anglia), „Atlas” (USA). Podczas tego okresu związek Radziecki produkował także urządzenia nie gorsze od wyżej wymienionych urządzeń (na przykład „BESM-6”).

Powstanie komputerów zbudowanych przy pomocy tranzystorów doprowadziło do zmniejszenia ich wymiarów, masy, kosztów i cen energii, a także zwiększyło niezawodność i produktywność. Przyczyniło się to do poszerzenia kręgu użytkowników i zakresu zadań do rozwiązania. Biorąc pod uwagę ulepszone cechy komputerów drugiej generacji, programiści zaczęli tworzyć algorytmiczne typy języków do obliczeń inżynieryjnych (na przykład ALGOL, FORTRAN) i ekonomicznych (na przykład COBOL).

Wartość systemu operacyjnego

Ale nawet na tych etapach głównym zadaniem technologii programistycznych było zapewnienie oszczędności zasobów - czasu i pamięci komputera. Aby rozwiązać ten problem, zaczęto tworzyć prototypy nowoczesnych systemów operacyjnych (zespoły programów narzędziowych, które zapewniają dobrą dystrybucję zasobów komputera podczas wykonywania zadań użytkownika).

Rodzaje pierwszych systemów operacyjnych (OS) przyczyniły się do automatyzacji pracy operatorów komputerów, co wiąże się z realizacją zadań użytkownika: wprowadzaniem tekstów programu do urządzenia, wywoływaniem niezbędnych tłumaczy, wywoływaniem wymaganych dla programu podprogramów bibliotecznych , wywołanie linkera w celu umieszczenia tych podprogramów i programów głównego typu w pamięci komputera, wprowadzenie danych oryginalnego typu itp.

Teraz oprócz programu i danych konieczne było także wprowadzenie do komputera drugiej generacji instrukcji, które zawierały listę etapów przetwarzania oraz listę informacji o programie i jego autorach. Następnie zaczęto wprowadzać do urządzeń jednocześnie pewną liczbę zadań dla użytkowników (pakietów z zadaniami), w tego typu systemach operacyjnych konieczne było rozdzielenie rodzajów zasobów komputerowych między tego typu zadaniami - powstał wieloprogramowy tryb przetwarzania danych (na przykład podczas gdy wyniki zadania jednego typu są wykonywane, obliczenia dla innego, a dane dla trzeciego rodzaju problemu można wprowadzić do pamięci). Tym samym druga generacja komputerów przeszła do historii wraz z pojawieniem się usprawnionych systemów operacyjnych.

Trzecia generacja samochodów

Ze względu na stworzenie technologii produkcji obwody scalone(IC) był w stanie osiągnąć wzrost szybkości i poziomu niezawodności obwodów półprzewodnikowych, a także zmniejszenie ich rozmiaru, poziomu mocy i kosztów. Zintegrowane typy mikroukładów składają się z kilkudziesięciu elementów elektronicznych, które są zmontowane w prostokątnych płytkach krzemowych i mają długość boku nie większą niż 1 cm.Ten rodzaj płytki (kryształów) jest umieszczony w plastikowej obudowie o małych wymiarach, wymiarach których można określić jedynie na podstawie liczby „nóg” (zacisków wejściowych i wyjściowych układów elektronicznych utworzonych na chipach).

Dzięki tym okolicznościom historia rozwoju komputerów (generacji komputerów) dokonała wielkiego przełomu. Umożliwiło to nie tylko poprawę jakości pracy i obniżenie kosztów urządzeń uniwersalnych, ale także stworzenie maszyn małogabarytowych, prostych, tanich i niezawodnych - minikomputerów. Jednostki takie miały początkowo zastąpić sterowniki realizowane sprzętowo w obwodach sterowania dowolnych obiektów, w zautomatyzowanych systemach sterowania procesami typu technologicznego, eksperymentalnych systemach gromadzenia i przetwarzania danych, różnych kompleksach sterowania na obiektach mobilnych itp.

Za główny punkt w tamtym czasie uważano ujednolicenie maszyn pod względem parametrów konstrukcyjnych i technologicznych. Trzecia generacja komputerów zaczyna wypuszczać własną serię lub rodziny kompatybilnych typów modeli. Dalsze skoki w rozwoju matematyki i oprogramowania przyczyniają się do tworzenia programów typu pakietowego do rozwiązywania standardowych problemów, języka programowania zorientowanego na problemy (do rozwiązywania problemów poszczególne kategorie). W ten sposób po raz pierwszy powstały systemy oprogramowania – rodzaje systemów operacyjnych (opracowanych przez IBM), na których działa trzecia generacja komputerów.

Samochody czwartej generacji

Pomyślny rozwój urządzenia elektryczne doprowadziło do powstania dużych układów scalonych (LSI), w których jeden kryształ zawierał kilkadziesiąt tysięcy elementów elektrycznych. Przyczyniło się to do pojawienia się nowych generacji komputerów, których elementarna baza miała dużą ilość pamięci i krótkie cykle wykonywania poleceń: wykorzystanie bajtów pamięci w jednej operacji maszyny zaczęło gwałtownie spadać. Ponieważ jednak koszty programowania praktycznie nie uległy obniżkom, na pierwszy plan wysunięto zadania oszczędzania zasobów ludzkich, a nie maszynowych.

Powstały nowe typy systemów operacyjnych, które umożliwiały programistom debugowanie programów bezpośrednio za wyświetlaczami komputerów (w trybie dialogowym), co ułatwiało pracę użytkownikom i przyspieszało tworzenie nowego oprogramowania. Punkt ten był całkowicie sprzeczny z koncepcjami początkowych etapów informatyki, w których korzystano z komputerów pierwszej generacji: „procesor wykonuje tylko taką ilość pracy związanej z przetwarzaniem danych, której człowiek zasadniczo nie jest w stanie wykonać – liczenie mas”. Zaczął pojawiać się inny typ trendu: „Wszystko, co mogą zrobić maszyny, muszą to zrobić; „Ludzie wykonują tylko tę część pracy, której nie można zautomatyzować”.

W 1971 roku wyprodukowano duży układ scalony, który w całości pomieścił procesor komputera elektronicznego o prostej architekturze. Realne stały się możliwości umieszczenia w jednym dużym układzie scalonym (na jednym chipie) niemal wszystkich urządzeń elektronicznych nieskomplikowanych w architekturze komputera, czyli możliwość seryjnej produkcji prostych urządzeń w przystępnych cenach (nie biorąc pod uwagę koszt urządzeń typ zewnętrzny). Tak powstała czwarta generacja komputerów.

Pojawiło się wiele tanich (kieszonkowych komputerów z klawiaturą) i urządzeń sterujących, które są wyposażone w jeden lub kilka dużych układów scalonych zawierających procesory, pojemność pamięci i system połączeń z czujnikami typu wykonawczego w obiektach sterujących.

Programy kontrolujące przepływ paliwa do silników samochodowych, ruchy zabawek elektronicznych lub dane tryby pranie odzieży, instalowane w pamięci komputera lub podczas produkcji podobnych typów sterowników lub bezpośrednio w przedsiębiorstwach produkujących samochody, zabawki, pralki itp.

Przez całe lata 70. XX wieku rozpoczęto produkcję uniwersalnych systemów obliczeniowych, które składały się z procesora, pojemności pamięci i obwodów interfejsu z urządzeniem wejścia-wyjścia, umieszczonych w jednym dużym układzie scalonym (komputery jednoukładowe) lub w niektórych dużych układach scalonych instalowane na pojedynczej płytce drukowanej (jednostki jednopłytkowe). W rezultacie, wraz z upowszechnieniem się komputerów 4. generacji, powtórzyła się sytuacja z lat 60. XX wieku, kiedy pierwsze minikomputery przejęły część pracy w dużych uniwersalnych komputerach elektronicznych.

Charakterystyczne właściwości komputerów czwartej generacji

  1. Tryb wieloprocesorowy.
  2. Przetwarzanie typu równoległo-sekwencyjnego.
  3. Typy języków wysokiego poziomu.
  4. Pojawienie się pierwszych sieci komputerowych.

Charakterystyka techniczna tych urządzeń

  1. Średnie opóźnienia sygnału 0,7 ns/v.
  2. Głównym typem pamięci jest pamięć półprzewodnikowa. Czas potrzebny na wygenerowanie danych z tego typu pamięci wynosi 100-150 ns. Pojemność - 1012-1013 znaków.
  3. Zastosowanie sprzętowej implementacji systemów operacyjnych.
  4. Konstrukcje modułowe zaczęto stosować także w narzędziach programowych.

Komputer osobisty został stworzony w kwietniu 1976 roku przez Steve'a Jobsa, pracownika Atari i Stephena Wozniaka, pracownika Hewlett-Packarda. W oparciu o zintegrowane 8-bitowe elektroniczne kontrolery gier stworzyli najprostszy komputer zaprogramowany w języku BASIC rodzaj gry Apple, co okazało się ogromnym sukcesem. Na początku 1977 roku została zarejestrowana firma Apple Comp. i od tego momentu rozpoczęła się produkcja pierwszego na świecie osobistego Komputery Apple. Historia generacji komputerów uznaje to wydarzenie za najważniejsze.

Apple produkuje obecnie produkty osobiste Komputery Macintosh, które pod wieloma względami przewyższają komputery IBM PC.

Komputer w Rosji

W naszym kraju używane są głównie komputery typu IBM PC. Punkt ten wynika z następujących powodów:

  1. Aż do początku lat 90. Stany Zjednoczone nie pozwalały na dostarczanie do Związku Radzieckiego zaawansowanych technologii informatycznych, w tym potężnych komputerów Macintosh.
  2. Urządzenia Macintosh były znacznie droższe niż komputery IBM PC (teraz są mniej więcej w tej samej cenie).
  3. Dla komputerów IBM PC opracowano dużą liczbę programów aplikacyjnych, co ułatwia ich użycie w różnych obszarach.

Piąty typ generacji komputerów

Pod koniec lat 80. historia rozwoju komputerów (generacji komputerów) wyznaczyła nowy etap - pojawiły się maszyny piątego typu generacji. Pojawienie się tych urządzeń wiąże się z przejściem na mikroprocesory. Z punktu widzenia konstrukcji strukturalnych charakterystyczna jest maksymalna decentralizacja zarządzania, mówiąc o oprogramowaniu i wsparciu matematycznym - przejściach do pracy w sferze oprogramowania i powłoki.

Wydajność komputerów piątej generacji – 10 8 -10 9 operacji na sekundę. Jednostki tego typu charakteryzują się strukturą wieloprocesorową, która tworzona jest na uproszczonych typach mikroprocesorów, których wykorzystuje się wiele (pole decydujące lub środowisko). Opracowywane są typy komputerów elektronicznych, które koncentrują się na typach języków wysokiego poziomu.

W tym okresie istnieją i są wykorzystywane dwie przeciwstawne funkcje: personifikacja i kolektywizacja zasobów (zbiorowy dostęp do sieci).

Ze względu na rodzaj systemu operacyjnego zapewniający łatwość komunikacji z komputerami elektronicznymi piątej generacji, ogromną bazę programów stosowanych z różnych dziedzin działalności człowieka, a także niskie ceny, komputery stają się niezbędnym akcesorium dla inżynierów, badaczy, ekonomistów, lekarze, agronomowie, nauczyciele, redaktorzy, sekretarki, a nawet dzieci.

Rozwój dzisiaj

O szóstej i nowszej generacji rozwoju komputerów można tylko marzyć. Obejmuje to neurokomputery (rodzaje komputerów tworzone w oparciu o sieci typ neuronowy). Nie mogą jeszcze istnieć niezależnie, ale są aktywnie symulowane na nowoczesnych komputerach.

Opcje porównania

Pokolenia komputerów

czwarty

Okres czasu

Podstawa elementu (do centrali sterującej, ALU)

Lampy elektroniczne (lub elektryczne).

Półprzewodniki (tranzystory)

Obwody scalone

Układy scalone dużej skali (LSI)

Główny typ komputera

Mały (mini)

Podstawowe urządzenia wejściowe

Pilot zdalnego sterowania, karta dziurkowana, wejście na taśmę dziurkowaną

Wyświetlacz alfanumeryczny, klawiatura

Kolorowy wyświetlacz graficzny, skaner, klawiatura

Główne urządzenia wyjściowe

Alfanumeryczne urządzenie drukujące (ADP), wyjście na taśmę dziurkowaną

Ploter, drukarka

Pamięć zewnętrzna

Taśmy magnetyczne, bębny, taśmy dziurkowane, karty dziurkowane

Taśmy papierowe dziurkowane, dysk magnetyczny

Dyski magnetyczne i optyczne

Kluczowe rozwiązania programowe

Uniwersalne języki programowania, tłumacze

Wsadowe systemy operacyjne optymalizujące tłumaczy

Interaktywne systemy operacyjne, strukturalne języki programowania

Przyjazne oprogramowanie, sieciowe systemy operacyjne

Tryb pracy komputera

Pojedynczy program

Seria

Dzielenie czasu

Praca personalna i przetwarzanie danych sieciowych

Cel korzystania z komputera

Obliczenia naukowo-techniczne

Obliczenia techniczno-ekonomiczne

Zarządzanie i rachunki ekonomiczne

Telekomunikacja, usługi informacyjne

Tabela - Główne cechy komputerów różnych generacji

Pokolenie

Okres, lata

1980-obecnie wr.

Podstawa elementu

Rury próżniowe

Diody i tranzystory półprzewodnikowe

Obwody scalone

Układy scalone bardzo dużej skali

Architektura

Architektura von Neumanna

Tryb wieloprogramowy

Lokalne sieci komputerowe, systemy komputerowe zbiorowe wykorzystanie

Systemy wieloprocesorowe, komputery osobiste, sieci globalne

Wydajność

10 – 20 tys. op/s

100-500 tys. op/s

Około 1 miliona operacji/s

Dziesiątki i setki milionów operacji/s

Oprogramowanie

Języki maszynowe

Systemy operacyjne, języki algorytmiczne

Systemy operacyjne, systemy dialogowe, systemy grafiki komputerowej

Pakiety programy użytkowe, bazy danych i wiedza, przeglądarki

Urządzenia zewnętrzne

Urządzenia wejściowe z taśm dziurkowanych i kart perforowanych,

ATsPU, dalekopisy, NML, NMB

Terminale wideo, dyski twarde

NGMD, modemy, skanery, drukarki laserowe

Aplikacja

Problemy obliczeniowe

Inżynierskie, naukowe, cele gospodarcze

ACS, CAD, zadania naukowo-techniczne

Zadania związane z zarządzaniem, komunikacją, tworzeniem stacji roboczych, przetwarzaniem tekstu, multimediami

Przykłady

ENIAC, UNIVAC (USA);
BESM - 1,2, M-1, M-20 (ZSRR)

IBM 701/709 (USA)
BESM-4, M-220, Mińsk, BESM-6 (ZSRR)

IBM 360/370, PDP -11/20, Cray -1 (USA);
UE 1050, 1066,
Elbrus 1.2 (ZSRR)

Cray T3 E, SGI (USA),
Komputery PC, serwery, stacje robocze różnych producentów

Na przestrzeni 50 lat pojawiło się kilka generacji komputerów, zastępując się nawzajem. O szybkim rozwoju VT na całym świecie decydują jedynie zaawansowane rozwiązania bazowe i architektoniczne.
Ponieważ komputer jest systemem składającym się ze sprzętu i oprogramowania, naturalne jest, że generację należy rozumieć jako modele komputerowe charakteryzujące się tymi samymi cechami technologicznymi i rozwiązania programowe(baza elementów, architektura logiczna, oprogramowanie). Tymczasem w wielu przypadkach bardzo trudno jest sklasyfikować VT według pokolenia, gdyż granica między nimi z pokolenia na pokolenie coraz bardziej się zaciera.
Pierwsza generacja.
Podstawą elementu są lampy elektroniczne i przekaźniki; Pamięć RAM wykonywano na przerzutnikach, później na rdzeniach ferrytowych. Niezawodność jest niska, wymagany był układ chłodzenia; Komputery miały znaczne wymiary. Wydajność - 5 - 30 tysięcy operacji arytmetycznych; Programowanie - w kodach komputerowych (kodzie maszynowym) pojawiły się później autokody i asemblery. Programowaniem zajmował się wąski krąg matematyków, fizyków i inżynierów elektroników. Komputery pierwszej generacji służyły głównie do obliczeń naukowo-technicznych.

Drugie pokolenie.
Podstawa elementu półprzewodnikowego. Niezawodność i wydajność są znacznie zwiększone, wymiary i zużycie energii są zmniejszone. Rozwój obiektów wejścia/wyjścia i pamięci zewnętrznej. Szereg postępowych rozwiązań architektonicznych i dalszy rozwój technologii programowania - tryb współdzielenia czasu i tryb wieloprogramowania (łączenie pracy centralnego procesora do przetwarzania danych i kanałów wejścia/wyjścia oraz zrównoleglenie operacji pobierania poleceń i danych z pamięci)
W drugiej generacji zaczęło wyraźnie pojawiać się zróżnicowanie komputerów na małe, średnie i duże. Zakres zastosowania komputerów do rozwiązywania problemów - planistycznych, ekonomicznych, zarządzania procesami produkcyjnymi itp. - znacznie się rozszerzył.
Powstają zautomatyzowane systemy sterowania (ACS) dla przedsiębiorstw, całych gałęzi przemysłu i procesów technologicznych (ACS). Koniec lat 50. charakteryzuje się pojawieniem się szeregu zorientowanych problemowo języków programowania wysokiego poziomu (HLP): FORTRAN, ALGOL-60 itp. Rozwój oprogramowania rozpoczął się od tworzenia bibliotek standardowych programów w różnych programach języki i do różnych celów, monitorów i dyspozytorów do kontrolowania trybów pracy komputera, planowania jego zasobów, co położyło podwaliny pod koncepcje systemów operacyjnych nowej generacji.

Trzecia generacja.
Element oparty na układach scalonych (IC). Pojawia się seria modeli komputerów, które są od podstaw kompatybilne z oprogramowaniem i mają coraz większe możliwości z modelu na model. Logiczna architektura komputerów i ich rozwiązania sprzęt peryferyjny, co znacznie rozszerzyło funkcjonalność i możliwości obliczeniowe. Systemy operacyjne (OS) stają się częścią komputera. Wiele zadań związanych z zarządzaniem pamięcią, urządzeniami wejścia/wyjścia i innymi zasobami zaczęło być przejmowanych przez system operacyjny lub bezpośrednio przez sprzęt komputerowy. Oprogramowanie staje się coraz potężniejsze: pojawiają się systemy zarządzania bazami danych (DBMS), systemy automatyzacji projektowania (CAD) do różnych celów, udoskonalane są zautomatyzowane systemy sterowania i systemy kontroli procesów. Wiele uwagi poświęca się tworzeniu pakietów programów aplikacyjnych (APP) do różnych celów.
Rozwijają się języki i systemy programowania.Przykłady: - seria modeli IBM/360, USA, produkcja seryjna-od 1964; -Komputery UE, ZSRR i kraje CMEA od 1972 roku.
Czwarta generacja.
Podstawą elementów stają się układy scalone wielkoskalowe (LSI) i bardzo wielkoskalowe (VLSI). Komputery projektowano już z myślą o efektywnym wykorzystaniu oprogramowania (przykładowo komputery typu UNIX, najlepiej zanurzone w środowisku oprogramowania UNIX; maszyny Prolog nastawione na zadania sztucznej inteligencji); nowoczesne elektrownie jądrowe. Przetwarzanie informacji telekomunikacyjnych dynamicznie rozwija się poprzez poprawę jakości wykorzystywanych kanałów komunikacyjnych łączność satelitarna. Tworzą się krajowe i ponadnarodowe sieci informacyjne i komputerowe, które pozwalają mówić o początkach informatyzacji społeczeństwo ogólnie.
Dalsza intelektualizacja technologii komputerowej jest zdeterminowana tworzeniem bardziej rozwiniętych interfejsów człowiek-komputer, baz wiedzy, systemów ekspertowych, systemów programowania równoległego itp.
Baza elementów pozwoliła osiągnąć duży sukces w miniaturyzacji, zwiększając niezawodność i wydajność komputerów. Pojawiły się mikro- i minikomputery, przewyższające możliwości średnich i dużych komputerów poprzedniej generacji przy znacznie niższym koszcie. Technologia produkcji procesorów opartych na VLSI przyspieszyła tempo produkcji komputerów i umożliwiła wprowadzenie komputerów do szerokich mas społeczeństwa. Wraz z pojawieniem się uniwersalnego procesora w jednym chipie (mikroprocesor Intel-4004, 1971) rozpoczęła się era komputerów osobistych.
Pierwszy komputer PC można uznać za Altair-8800, stworzony na bazie Intel-8080 w 1974 roku. E.Roberts. P. Allen i W. Gates stworzyli tłumacza z języka popularnego Podstawowy język, znacznie zwiększając inteligencję pierwszego komputera PC (później powstała słynna firma Microsoft Inc). Oblicze 4. generacji w dużej mierze wyznacza powstanie superkomputerów charakteryzujących się dużą wydajnością (średnia prędkość 50 – 130 megaflopów. 1 megaflop = 1 milion operacji na sekundę przy zmiennoprzecinkowym) i nietradycyjną architekturą (zasada równoległości oparta na potokowe przetwarzanie poleceń). Superkomputery są wykorzystywane do rozwiązywania problemów fizyki matematycznej, kosmologii i astronomii, modelowania złożonych systemów itp. Ponieważ potężne komputery odgrywają i nadal będą odgrywać ważną rolę przełączającą w sieciach, kwestie sieciowe są często omawiane wraz z pytaniami dotyczącymi superkomputerów. , superkomputery - Komputery można nazwać maszynami serii Elbrus, systemami komputerowymi PS-2000 i PS-3000, zawierającymi do 64 procesorów sterowanych wspólnym strumieniem poleceń; wydajność w szeregu zadań została osiągnięta rzędu 200 megaflopów. Jednocześnie, biorąc pod uwagę złożoność opracowywania i wdrażania nowoczesnych projektów superkomputerowych, które wymagają intensywnych badań podstawowych z zakresu informatyki, technologii elektronicznych, wysokich standardów produkcji oraz poważnych kosztów finansowych, wydaje się bardzo mało prawdopodobne, aby krajowe superkomputery powstaną w dającej się przewidzieć przyszłości, według głównych cech nie gorszych od najlepszych zagranicznych modeli.
Należy zauważyć, że wraz z przejściem na technologię IP w produkcji komputerów, główny nacisk pokoleń coraz bardziej przesuwa się z podstawy elementów na inne wskaźniki: architekturę logiczną, oprogramowanie, interfejs użytkownika, obszary zastosowań itp.
Piąte pokolenie.
Pochodzi z głębi czwartego pokolenia i jest w dużej mierze zdeterminowany wynikami prac Komitetu Japońskiego badania naukowe w dziedzinie komputerów, opublikowana w 1981 r. Według tego projektu komputery i systemy obliczeniowe piątej generacji, oprócz wysokiej wydajności i niezawodności przy niższych kosztach, są w całości dostarczane przez VLSI itp. najnowsze technologie, muszą spełniać następujące jakościowo nowe wymagania funkcjonalne:

· zapewnić łatwość obsługi komputerów poprzez wdrożenie systemów wejścia/wyjścia głosowego; interaktywne przetwarzanie informacji z wykorzystaniem języków naturalnych; zdolności uczenia się, konstrukcje skojarzeniowe i logiczne wnioski;

· uprościć proces tworzenia oprogramowania poprzez automatyzację syntezy programów zgodnie ze specyfikacją wymagań początkowych języki naturalne

· ulepszać podstawowe cechy i właściwości użytkowe komputerów, aby spełnić różne cele społeczne, poprawiać stosunek kosztów do korzyści, szybkość, lekkość i zwartość komputerów; zapewniają ich różnorodność, wysoką adaptowalność do zastosowań i niezawodność w działaniu.

Biorąc pod uwagę złożoność realizacji zadań przypisanych piątej generacji, całkiem możliwe jest podzielenie jej na bardziej widoczne i lepiej odczuwalne etapy, z których pierwszy został w dużej mierze zrealizowany w ramach obecnej czwartej generacji.