Przykłady komputerów drugiej generacji. Przechowywanie danych i poleceń w pamięci

Komputer elektroniczny (komputer) to urządzenie do przetwarzania informacji. Przetwarzanie informacji odnosi się do procesu przekształcania danych źródłowych w wyniki.

Podstawową cechą współczesnych komputerów, odróżniającą je od wszystkich dotychczas stosowanych technik komputerowych, jest ich zdolność do automatycznej pracy według zadanego programu, bez bezpośredniego udziału człowieka w procesie obliczeniowym.

Komputer jest najskuteczniejszym sposobem rozwiązywania problemów gospodarczych. Zastosowanie komputerów pozwala: zwiększyć poziom automatyzacji pracy menedżerskiej; skrócić czas uzyskania niezbędnych decyzji; radykalnie zmniejszyć liczbę błędów w obliczeniach; zwiększyć wiarygodność kadry kierowniczej; umożliwia zwiększenie wolumenu przetwarzanych informacji; szukać optymalnych rozwiązań; pełnić funkcje kontroli wyników; przesyłać dane na odległość; tworzyć zautomatyzowane banki danych; przeprowadzać analizę danych w procesie przetwarzania informacji itp.

Istnieją 4 główne generacje komputerów: . Ale podział wyposażenie komputera od pokoleń - bardzo warunkowa, nieścisła klasyfikacja według stopnia rozwoju sprzętu i oprogramowanie, a także sposoby komunikacji z komputerem. Idea podziału maszyn na pokolenia została powołana do życia przez fakt, że w ciągu krótkiej historii swojego rozwoju technologia komputerowa przeszła ogromną ewolucję, zarówno w sensie podstawy elementarnej (lampy, tranzystory, mikroukłady itp.). ), a także w sensie zmian w jego strukturze, pojawienia się nowych możliwości, poszerzenia zakresu stosowania i charakteru użytkowania.

DO PIERWSZA GENERACJA (1945-1955) obejmują pojazdy zabudowane elektroniczne lampy żarowe. Maszyny te były bardzo drogie, zajmowały ogromne obszary, nie były całkowicie niezawodne w działaniu, miały niską prędkość przetwarzania informacji i mogły przechowywać bardzo mało danych. Każda maszyna ma swój własny język, nie ma systemu operacyjnego. Wykorzystywano karty dziurkowane, taśmy dziurkowane i taśmy magnetyczne, sporządzane w pojedynczych egzemplarzach i wykorzystywane głównie do celów wojskowych i naukowych. Typowe przykłady maszyn pierwszej generacji obejmują: komputery amerykańskie UNIVAC, IBM-701, IBM-704, a także radzieckie pojazdy BESM i M-20. Typowa prędkość przetwarzania danych dla maszyn pierwszej generacji wynosiła 10-20 tysięcy operacji na sekundę.

Współ. DO DRUGIEGO POKOLENIA (1955-1965) zaliczają się maszyny zbudowane na elementach tranzystorowych. Maszyny te znacznie obniżyły swój koszt i rozmiar, a także zwiększyły niezawodność, szybkość działania i ilość przechowywanych informacji. Szybkość przetwarzania danych maszyn drugiej generacji wzrosła do 1 miliona operacji na sekundę. Pojawiły się pierwsze systemy operacyjne i pierwsze języki programowania: Forton (1957), Algon (1959). Nośniki informacji: bębny magnetyczne, dyski magnetyczne. Przedstawiciele: IBM 604, 608, 702.

Samochody TRZECIA GENERACJA (1965-1980) wykonane na układach scalonych. Powierzchnia takiego obwodu wynosi około jednego milimetra kwadratowego, ale pod względem funkcjonalności układ scalony jest odpowiednikiem setek i tysięcy elementów tranzystorowych. Ze względu na bardzo mały rozmiar i grubość, czasami nazywany jest układem scalonym mikroukład, I żeton(chip - cienki kawałek). Przejście od tranzystorów do układów scalonych zmieniło koszt, rozmiar, niezawodność, szybkość i wydajność maszyn. Są to maszyny z rodziny IBM/360. Popularność tych maszyn okazała się tak duża, że ​​na całym świecie zaczęto je kopiować lub produkować o podobnej funkcjonalności i tych samych sposobach kodowania i przetwarzania informacji. Co więcej, programy przygotowane do wykonania na maszynach IBM były z powodzeniem wykonywane na ich analogach, tak jak programy napisane do wykonania na analogach można było wykonywać na maszynach IBM. Takie modele maszyn są zwykle nazywane kompatybilnymi programowo. W naszym kraju seria komputerów EC, obejmująca około dwudziestu modeli o różnej mocy, była takim oprogramowaniem kompatybilnym z rodziną IBM/360. Od trzeciego pokolenia maszyny liczące stają się powszechnie dostępne i szeroko stosowane do rozwiązywania różnorodnych problemów. Charakterystyczne dla tego czasu jest kolektywne użytkowanie maszyn, gdyż są one wciąż dość drogie, zajmują duże powierzchnie i wymagają skomplikowanej i kosztownej konserwacji. Nośnikami informacji wyjściowych są w dalszym ciągu karty i taśmy dziurkowane, choć znaczna część informacji skupiona jest już na nośnikach magnetycznych – dyskach i taśmach. Szybkość przetwarzania informacji w maszynach trzeciej generacji osiągnęła kilka milionów operacji na sekundę. Pojawiła się pamięć RAM - setki KB. Języki programowania: BASIC (1965), Pascal (1970), C (1972). Pojawiła się kompatybilność programu.

CZWARTA GENERACJA (1980-obecnie). Następuje przejście od konwencjonalnych układów scalonych do układów scalonych o dużej skali i układów scalonych o bardzo dużej skali (LSI i VLSI). Jeśli zwyczajny obwody scalone są odpowiednikami tysięcy elementów tranzystorowych, wówczas duże układy scalone zastępują już dziesiątki i setki tysięcy takich elementów. Wśród nich należy wymienić rodzinę maszyn IBM/370, a także model IBM 196, którego prędkość sięgała 15 milionów operacji na sekundę. Krajowymi przedstawicielami maszyn czwartej generacji są maszyny rodziny Elbrus. Charakterystyczną cechą czwartej generacji jest obecność w jednej maszynie kilku (zwykle 2-6, czasem do kilkuset, a nawet tysięcy) centralnych, głównych urządzeń przetwarzających informacje - procesorów, które mogą się wzajemnie powielać lub samodzielnie wykonywać obliczenia. Taka konstrukcja pozwala radykalnie zwiększyć niezawodność maszyn i szybkość obliczeń. Kolejną ważną cechą jest pojawienie się potężnych narzędzi zapewniających działanie sieci komputerowych. Umożliwiło to późniejsze tworzenie i rozwój na ich podstawie globalnie, na całym świecie sieć komputerowa. Pojawiły się superkomputery (statki kosmiczne) i komputery osobiste. Pojawili się użytkownicy nieprofesjonalni. RAM do kilku GB. Systemy wieloprocesorowe, sieci komputerowe, multimedia (grafika, animacja, dźwięk).

W komputerach PIĄTA GENERACJA Nastąpi jakościowe przejście od przetwarzania danych do przetwarzania wiedzy. Architektura komputerów przyszłej generacji będzie składać się z dwóch głównych bloków. Jednym z nich jest tradycyjny komputer. Ale teraz jest pozbawiony komunikacji z użytkownikiem. Połączenie to realizowane jest poprzez blok zwany „inteligentnym interfejsem”. Jego zadaniem jest zrozumienie tekstu napisanego w języku naturalnym i zawierającego stan problemu oraz przełożenie go na działający program komputerowy.


Komputer elektroniczny to zestaw sprzętu i oprogramowania zaprojektowany w celu automatyzacji przygotowywania i rozwiązywania zadań użytkownika. Przez użytkownika rozumie się osobę, w której interesie przetwarzane są dane na komputerze. W roli użytkowników mogą występować klienci pracy obliczeniowej, programiści i operatorzy. Z reguły czas przygotowania problemów jest wielokrotnie dłuższy niż czas ich rozwiązania.

Ze względu na etapy powstania i zastosowaną bazę elementów komputery umownie dzieli się na generacje:

I generacja, lata 50.: Komputery oparte na elektronowych lampach próżniowych;

II generacja, lata 60.: Komputery oparte na dyskretnych elementach półprzewodnikowych (tranzystorach);

III generacja, lata 70.: Komputery oparte na półprzewodnikowych układach scalonych o niskim i średnim stopniu integracji (setki, tysiące tranzystorów w jednym przypadku);

4. generacja, lata 80.: Komputery oparte na wielkoskalowych i bardzo wielkoskalowych układach scalonych-mikroprocesorach (dziesiątki tysięcy - miliony tranzystorów w jednym chipie);

V generacja, lata 90.: Komputery wyposażone w kilkadziesiąt równolegle pracujących mikroprocesorów, pozwalające na budowanie efektywnych systemów przetwarzania wiedzy; Komputery na ultraskomplikowanych mikroprocesorach o strukturze wektora równoległego, wykonujące jednocześnie dziesiątki sekwencyjnych poleceń programu;

6. i kolejne generacje: komputery optoelektroniczne z masywną równoległością i strukturą neuronową - z sieć rozproszona duża liczba(dziesiątki tysięcy) prostych mikroprocesorów modelujących architekturę neuronowych systemów biologicznych.

Każda kolejna generacja komputerów ma w porównaniu do poprzedniej znacznie najlepsze cechy. Zatem wydajność komputera i pojemność wszystkich urządzeń pamięci masowej zwiększają się z reguły o ponad rząd wielkości.

Różnorodność nowoczesnych komputerów jest bardzo duża. Ale ich struktury opierają się na ogólnych zasadach logicznych, które umożliwiają rozróżnienie następujących głównych urządzeń w dowolnym komputerze:

    pamięć (urządzenie magazynujące, pamięć), składająca się z przenumerowanych komórek;

    procesor obejmujący jednostkę sterującą (CU) i jednostkę arytmetyczno-logiczną (ALU);

    urządzenie wejściowe;

    urządzenie wyjściowe.

    Urządzenia te są połączone kanałami komunikacyjnymi, którymi przesyłane są informacje.

    Funkcje pamięci:

    odbieranie informacji z innych urządzeń;

    zapamiętywanie informacji;

    – udostępnianie informacji na żądanie innym urządzeniom maszyny.

    Funkcje procesora:

    przetwarzanie danych według zadanego programu poprzez wykonywanie operacji arytmetycznych i logicznych;

    oprogramowanie sterujące pracą urządzeń komputerowych.


    Ryż. 1. Schemat ogólny komputer

    Część procesora wykonująca instrukcje nazywana jest jednostką arytmetyczno-logiczną (ALU), a druga część wykonująca funkcje sterujące urządzeniem nazywana jest jednostką sterującą (CU).

    Zwykle te dwa urządzenia rozróżnia się czysto warunkowo, nie są one rozdzielone konstrukcyjnie.

    Procesor zawiera szereg wyspecjalizowanych dodatkowych komórek pamięci zwanych rejestrami. Rejestr pełni funkcję krótkotrwałego przechowywania numeru lub polecenia.

    Pierwszą osobą, która sformułowała podstawowe zasady funkcjonowania uniwersalnych urządzeń obliczeniowych, tj. komputerów, był słynny matematyk John von Neumann.

    Przede wszystkim, nowoczesny komputer musi posiadać następujące urządzenia:

    urządzenie arytmetyczno-logiczne wykonujące operacje arytmetyczne i logiczne;

    urządzenie sterujące, które organizuje proces wykonywania programu;

  • urządzenie magazynujące lub pamięć do przechowywania programów i danych;

    urządzenia zewnętrzne do wprowadzania/wyprowadzania informacji

    Pierwsze komputery elektroniczne (komputery) pojawiły się dopiero 50 lat temu. W tym czasie mikroelektronika, technologia komputerowa i cały przemysł informatyczny stały się jednym z głównych elementów światowego postępu naukowo-technologicznego. Wpływ technologii komputerowej na wszystkie obszary ludzkiej działalności stale się poszerza i pogłębia. Obecnie komputery służą nie tylko do wykonywania skomplikowanych obliczeń, ale także w zarządzaniu procesami produkcyjnymi, w edukacji, służbie zdrowia, ekologii itp. Wyjaśnia to fakt, że komputery są w stanie przetwarzać dowolny rodzaj informacji: numeryczną, tekstową, tabelaryczną, graficzną, wideo, audio.

    Komputer elektroniczny to zestaw sprzętu i oprogramowania zaprojektowany w celu automatyzacji przygotowywania i rozwiązywania zadań użytkownika. Przez użytkownika rozumie się osobę, w której interesie przetwarzane są dane na komputerze. W roli użytkowników mogą występować klienci pracy obliczeniowej, programiści i operatorzy. Z reguły czas przygotowania problemów jest wielokrotnie dłuższy niż czas ich rozwiązania.

    Wymagania użytkownika dotyczące wykonywania prac obliczeniowych są zaspokajane poprzez specjalny dobór i konfigurację sprzętu i oprogramowania. Zazwyczaj narzędzia te są ze sobą powiązane i łączone w jedną strukturę.

    Struktura- zbiór elementów i ich połączeń. Istnieją struktury narzędzi technicznych, programowych i sprzętowo-programowych. Wybierając komputer do rozwiązania swoich problemów, użytkownik jest zainteresowany funkcjonalność moduły techniczne i programowe (jak szybko można rozwiązać problem, jak odpowiedni jest komputer do rozwiązania tego kręgu zadania, jaka usługa programowa jest dostępna na komputerze, możliwości trybu interaktywnego, koszt przygotowania i rozwiązania problemów itp.). W tym przypadku użytkownika nie interesuje konkretna realizacja techniczna i programowa poszczególnych modułów, ale bardziej ogólne kwestie możliwości zorganizowania obliczeń. Ta ostatnia mieści się w pojęciu architektury komputera, którego treść jest dość obszerna.

    Architektura komputerowa to wielopoziomowa hierarchia sprzętu i oprogramowania, z których zbudowany jest komputer. Każdy poziom pozwala na wielokrotną konstrukcję i zastosowanie. Specyficzna realizacja poziomów determinuje cechy projektu konstrukcyjnego komputera. W kolejnych rozdziałach podręcznika szczegółowo omawiamy te zagadnienia.

    Opracowywaniem szczegółów projektu architektonicznego i konstrukcyjnego komputera zajmują się różne kategorie informatyków. Inżynierowie obwodów projektują indywidualnie urządzenia techniczne i opracować metody łączenia ich ze sobą. Programista systemowy tworzy programy sterujące środki techniczne, interakcja informacyjna pomiędzy poziomami, organizacja procesu obliczeniowego. Programiści aplikacji opracowują pakiety oprogramowania wyższego poziomu, które zapewniają interakcję użytkownika z komputerami i niezbędne usługi przy rozwiązywaniu ich problemów.

    Sam użytkownik jest zwykle bardziej zainteresowany ogólne problemy dotyczące jego interakcji z komputerem ( interfejs człowiek-maszyna), zaczynając od następujących grup cech komputera, które decydują o jego strukturze:

    – techniczne i Charakterystyka wydajności Komputery (szybkość i wydajność, wskaźniki niezawodności, niezawodności, dokładności, pojemność pamięci RAM i zewnętrznej, wymiary, koszt sprzętu i oprogramowania, funkcje operacyjne itp.);

    – charakterystyka i skład modułów funkcjonalnych podstawowej konfiguracji komputera; możliwość rozbudowy składu sprzętu i oprogramowania; możliwość zmiany konstrukcji;

    – skład oprogramowania i usług komputerowych (system lub środowisko operacyjne, pakiety oprogramowania aplikacyjnego, narzędzia automatyzacji programowania).

    Jedną z najważniejszych cech komputera jest jego prędkość, która charakteryzuje się liczbą poleceń wykonywanych przez komputer w ciągu jednej sekundy. Ponieważ polecenia komputerowe obejmują operacje różniące się czasem wykonania i prawdopodobieństwem ich użycia, sensowne jest scharakteryzowanie ich albo średnią szybkością komputera, albo prędkością maksymalną (dla „najkrótszych” operacji „rejestru- typu „do rejestracji”). Nowoczesne komputery mają bardzo wysoka wydajność pod względem wydajności mierzonej w dziesiątkach i setkach milionów operacji na sekundę. Na przykład oczekuje się, że w najbliższej przyszłości pojawi się mikroprocesor wyprodukowany wspólnie przez Intel i Hewlett-Packard (kod P7), którego prędkość powinna osiągnąć miliard operacji na sekundę.

    Rzeczywista lub efektywna wydajność, dostarczana przez komputer, jest znacznie niższa i może znacznie się różnić w zależności od klasy rozwiązywanych problemów. Porównanie wydajności różne rodzaje Komputery znacznie różniące się od siebie cechami nie zapewniają wiarygodnych szacunków. Dlatego bardzo często zamiast charakterystyki wydajnościowej stosuje się związaną z nią charakterystykę wydajnościową - ilość pracy wykonanej przez komputer w jednostce czasu. Na przykład możesz zdefiniować ten parametr poprzez liczbę zadań wykonanych na określony czas. Jednak porównywanie różnych typów komputerów w oparciu o tę cechę może powodować trudności. Ponieważ ocena wydajności różnych komputerów jest ważnym zadaniem praktycznym, chociaż to sformułowanie pytania również nie jest całkowicie poprawne, zaproponowano do wykorzystania względne charakterystyki wydajności. Na przykład, Firma Intel do oceny procesorów zaproponował test zwany indeksem iCOMP (Intel Comparative Microprocessor Performance). Przy jego określaniu brane są pod uwagę cztery główne aspekty wydajności: praca z liczbami całkowitymi, zmiennoprzecinkowymi, grafiką i wideo. Dane mają reprezentację 16- i 32-bitową. Każdy z ośmiu parametrów bierze udział w obliczeniach z własnym współczynnikiem wagowym, wyznaczonym przez średni stosunek tych operacji w rzeczywistych problemach.

    Kolejną ważną cechą komputera jest pojemność przechowywania. Pojemność pamięci mierzy się liczbą strukturalnych jednostek informacji, które mogą jednocześnie znajdować się w pamięci. Wskaźnik ten pozwala określić, jaki zestaw programów i danych można jednocześnie umieścić w pamięci.

    Najmniejszą jednostką strukturalną informacji jest bit – jedna cyfra binarna. Z reguły pojemność pamięci mierzy się w większych jednostkach miary - bajtach (bajt równa się ośmiu bitom). Następujące jednostki miary to 1 KB = 210 1024 bajtów, 1 MB = 210 KB = 220 bajtów, 1 GB = 210 MB = 2 KB = 230 bajtów.

    Zazwyczaj pojemność pamięci RAM i pojemność pamięci zewnętrznej są charakteryzowane oddzielnie. Obecnie komputery osobiste może mieć pojemność pamięci RAM 4-32 MB lub nawet więcej. Ten wskaźnik jest bardzo ważny przy ustalaniu, który pakiety oprogramowania a ich zastosowania mogą być jednocześnie przetwarzane w maszynie.

    Pojemność pamięci zewnętrznej zależy od typu nośnika. Zatem pojemność jednej dyskietki wynosi 0,3-3 MB, w zależności od rodzaju napędu i charakterystyki dyskietek. Pojemność dysku twardego może sięgać kilku GB, pojemność dysku kompaktowego (CD ROM) może sięgać setek MB (640 MB i więcej) itp. Pojemność pamięci zewnętrznej charakteryzuje ilość oprogramowania i poszczególnych produktów programowych, które można zainstalować na komputerze. Na przykład, aby zainstalować system operacyjny Środowisko Windowsa 95 wymaga pojemności dysku twardego powyżej 100 MB i co najmniej 8-16 MB pamięci RAM komputera.

    Niezawodność- jest to zdolność komputera, pod pewnymi warunkami, do wykonania wymaganych funkcji w określonym czasie (norma ISO (Międzynarodowa Organizacja Normalizacyjna) 23 82/14-78).

    Wysoka niezawodność komputera jest wbudowana w proces jego produkcji. Przejście na nową bazę elementów - ultrawielkoskalowe układy scalone (VLSI) znacznie zmniejsza liczbę stosowanych układów scalonych, a co za tym idzie liczbę ich wzajemnych połączeń. Układ komputera i zapewnienie wymaganych trybów pracy (chłodzenie, ochrona przed kurzem) są dobrze przemyślane. Zasada modułowej konstrukcji ułatwia sprawdzanie i monitorowanie działania wszystkich urządzeń, diagnozowanie i rozwiązywanie problemów.

    Dokładność- możliwość rozróżnienia prawie równych wartości (norma ISO - 2382/2-76). O dokładności uzyskania wyników przetwarzania decyduje przede wszystkim pojemność bitowa komputera, a także jednostki strukturalne stosowane do reprezentacji informacji (bajt, słowo, słowo podwójne).

    W wielu zastosowaniach komputerowych nie jest wymagana duża precyzja, np. przy przetwarzaniu tekstów i dokumentów, czy przy sterowaniu procesami technologicznymi. W tym przypadku wystarczy zastosować 8, 16-bitowe kody binarne.

    Podczas wykonywania skomplikowanych obliczeń konieczne jest użycie większej głębi bitowej (32, 64 lub nawet więcej). Dlatego wszystkie nowoczesne komputery mają możliwość pracy z 16- i 32-bitowymi słowami maszynowymi. Przy pomocy narzędzi programowania w języku wysokiego poziomu zakres ten można kilkukrotnie zwiększyć, co pozwala na osiągnięcie bardzo dużej dokładności.

    Wiarygodność- właściwość informacji pozwalająca na jej prawidłowe postrzeganie. Niezawodność charakteryzuje się prawdopodobieństwem uzyskania wyników wolnych od błędów. Określony poziom niezawodności zapewniają narzędzia kontrolne sprzętu i oprogramowania samego komputera. Metody monitorowania niezawodności są możliwe poprzez rozwiązywanie problemów referencyjnych i powtarzanie obliczeń. W szczególnie krytycznych przypadkach decyzje kontrolne podejmowane są na innych komputerach, a wyniki są porównywane.

    2. Edytor graficzny dla systemu operacyjnego Windows

    Paint to najprostszy edytor graficzny wbudowany w system operacyjny Windows i przeznaczony do tworzenia i edycji grafiki rastrowej w podstawowym formacie Windows (BMP) i formaty GIF, JPG. Nadaje się do tworzenia prostych ilustracji graficznych: diagramów, diagramów i wykresów, które można osadzać np. w dokumentach tekstowych. Dodatkowo edytor umożliwia wprowadzanie tekstów z wykorzystaniem zestawu czcionek systemu Windows.

    Edytor graficzny Paint skupia się na procesie „rysowania” obrazu i łączenia gotowych fragmentów i nie jest przeznaczony do poważnych prac graficznych, np. projektów technicznych (części, samochodów, domów), edycji ilustracji fotograficznych itp.

    Główne cechy edytora:

    jednoczesna praca tylko z jednym plikiem;

    rysowanie linii prostych i zakrzywionych o różnej grubości i kolorze;

    za pomocą pędzli różne kształty, szerokość i kolor;

    konstrukcja o różnych kształtach - prostokąty, wielokąty, owale, elipsy - cieniowane i niezacienione;

    umieszczenie tekstu na rysunku;

    wykorzystanie przekształceń - obroty, odbicia, rozciąganie i pochylanie.

    Aby uruchomić edytor graficzny Paint należy uruchomić: Początek _
    Programy
    ) Standardowy )Edytor graficzny Paint. Po uruchomieniu okno edytora graficznego programu Paint wygląda jak na rysunku 1.

    Elementy okna edytora Paint:

    1 – linia tytułowa (nazwa pliku obrazu, a następnie nazwa edytora);

    2 – pasek menu (polecenia Plik, Edytować, Pogląd, Rysunek, Paleta I Odniesienie);


    Ryż. 1. Pomaluj okno edytora graficznego

    3 — pasek narzędzi;

    4 — paleta kolorów;

    5 — pole wyboru szerokości linii;

    6 - poziome i Pionowe paski zwój;

    7 - pole robocze (obszar pracy).

    Zarządzaj pracą graficznie Edytor malowania możliwe poprzez wybranie poleceń z menu i ikon na pasku narzędzi. Istnieją polecenia, które można wywołać tylko poprzez menu lub tylko poprzez pasek narzędzi.

    Podstawowe czynności z rysunkiem

    Aby utworzyć nowy rysunek, użyj następującej sekwencji: Plik _
    Tworzyć. Następnie w obszarze roboczym okna pojawi się biały prostokąt, na którym działają.

    Aby zmienić standardowy rozmiar obrazka należy umieścić kursor w prawym dolnym rogu białego prostokąta (kursor zmieni swój wygląd na dwie ukośne strzałki) i przytrzymując lewy przycisk myszy przesunąć go w nowe miejsce. Innym sposobem ustawienia rozmiaru obrazu jest wybranie z pozycji menu Rysunek punkt Atrybuty i wchodząc na pola Szerokość I Wysokość wymagane wartości. Istnieje również możliwość wyboru Jednostki I Typ palety kolorów(kolorowy lub czarno-biały). Należy zaznaczyć, że jeśli obecne wymiary zdjęcia przekraczają nowe wymiary, to zdjęcie zostanie przycięte wzdłuż prawej i dolnej krawędzi. Jeżeli nowe wymiary będą większe od obecnych, to dodany obszar otrzyma aktualny kolor tła.

    Aby zapisać rysunek użyj sekwencji Plik _
    Ratować (Zapisz jako). W takim przypadku musisz podać nazwę pliku, wybrać typ pliku (BMP, JPG lub GIF) i katalog do zapisania. Zapisanie odbywa się poprzez wybranie akcji myszką Ratować.

    Jeżeli rysunek znajdujący się wcześniej w obszarze roboczym nie został zapisany, ale została wydana komenda zamknięcia edytora, zostanie zadane pytanie: Zapisać zmiany w pliku...? z opcjami odpowiedzi Tak, NIE I Anulować. Wybierz opcję Anulować anuluje polecenie wyjścia i powróci do edycji rysunku.

    Do usunięcia Całkowity zaczerpnięte z obszaru roboczego, użyj elementów menu Rysunek _ Jasne.

    Aby załadować obraz z dysku użyj sekwencji Plik _ otwarty. Następnie należy wybrać z listy lokalizację pliku na dysku (katalog), typ pliku oraz nazwę pliku. Akcję potwierdzamy naciśnięciem przycisku otwarty.

    pasek narzędzi

    Aby rysować, malować, zmieniać kolory, pisać, wymazywać itp. w Paint musisz wybrać żądane narzędzie. W tym celu skorzystaj z paska narzędzi (rys. 2). Musisz kliknąć przycisk z właściwe narzędzie. Następnie wybrany przycisk zostanie wciśnięty informując użytkownika o wybranej akcji. Kursor myszy również zmieni kształt w zależności od dokonanego wyboru. Poruszanie kursorem po obszarze roboczym z wciśniętym lewym klawiszem myszy powoduje użycie narzędzia i zmianę rysunku. Po zwolnieniu przycisku myszy kursor po prostu się przesuwa (bez zmiany wzoru).


    Ryż. 2. Panel Narzędzia do malowania

    (1) i Wybór(2) – pozwalają wybrać część dowolnego wzoru lub cały wzór do późniejszego skopiowania, usunięcia itp.

    gumka do mazania(3) - wymazanie części rysunku. Można zmienić rozmiar gumki. Usunięty obszar rysunku będzie miał kolor tła.

    Wypełnić(4) - pozwoli Ci pomalować wybranym kolorem wewnętrzna część dowolny obszar zamknięty. Wymaga to kliknięcia w dowolnym miejscu obszaru. Jeśli obszar nie jest zamknięty, cały obszar roboczy zostanie pomalowany.

    Wybór koloru spośród pokazanego na zdjęciu(5) – do późniejszego rysowania np. ołówkiem lub pędzlem.

    Skala(6) – 1, 2, 6 lub 8 – powiększenie fragmentu obrazu.

    Ołówek(7) - po naciśnięciu lewego przycisku myszy za kursorem myszy rysowany jest ślad wybranego koloru o grubości 1 piksela. Po zwolnieniu lewego przycisku ślad nie jest rysowany.

    Szczotka(8) - działanie jest podobne do ołówka, ale można zmieniać kształt pędzla - okrąg, kwadrat itp. oraz grubość pędzla.

    Rozpylać(9) - rysunek z wykorzystaniem efektu farby w sprayu.

    Napis(10) – umożliwia wpisanie tekstu przy użyciu znaków o wybranym rozmiarze, stylu i kroju pisma w prostokątnym oknie z nieprzezroczystym lub przezroczystym tłem.

    Linia(11) - przeznaczony do rysowania linii prostej (odcinka) o wybranym kolorze i grubości. Końce segmentu to miejsca, w których naciśnięto i zwolniono lewy przycisk myszy.

    Krzywa(12) - przeznaczony do rysowania gładkich linii zakrzywionych łączących określone punkty, wybrany kolor i grubość. Najpierw rysowana jest linia prosta, następnie przy wciśniętym lewym klawiszu myszy można dwukrotnie zagiąć krzywą w wybranych kierunkach.

    Prostokąt(13) - służy do rysowania wypełnionych i niewypełnionych prostokątów i kwadratów. Należy kliknąć lewym przyciskiem myszy, przesunąć kursor w inne miejsce i zwolnić przycisk. Możliwe tryby– „tylko ramka”, „ramka i wypełnienie”, „tylko wypełnienie”.

    Wielokąt(14) - rysowanie wielokątów. Aby narysować pierwszy bok należy przeciągnąć kursor trzymając wciśnięty przycisk. Aby skonstruować kolejne boki, możesz kliknąć myszką na wierzchołkach wielokąta.

    Elipsa(15) - narysowanie elipsy wpisanej w zamierzony prostokąt. Można wybrać tryb (patrz prostokąt).

    Zaokrąglony prostokąt(16) - rysowanie prostokąta z zaokrąglonymi wierzchołkami.

    Edycja rysunku

    Wybór palety

    Istnieją dwa sposoby wyboru koloru.

    Po pierwsze, dostępna jest paleta kolorów z 28 sugerowanymi kolorami (rysunek 3). Aby wybrać kolory linii i tła, kliknij lewym przyciskiem myszy żądany kolor. Aby wybrać kolor tła, kliknij prawym przyciskiem myszy. Domyślne kolory pierwszego planu i tła pojawiają się w lewym dolnym rogu okna programu Paint.


    Ryż. 3. Domyślne kolory i paleta kolorów

    Po drugie, możesz wybrać narzędzie Wybór koloru i kliknij go w miejscu obszaru roboczego pomalowanego żądanym kolorem.

    Aby zmienić paletę, wybierz kolor, który chcesz zmienić. W menu Paleta Wybierz drużynę Zmiana
    paleta. Naciśnij przycisk Zdefiniuj kolor, a następnie zmień wartości składników koloru, korzystając z modelu RGB (czerwony, zielony, niebieski) lub HLS (odcień, kontrast, jasność). Kliknij przyciski Dodaj do ustawienia I OK.

    Konwersja rysunku kolorowego na czarno-biały

    Aby wykonać określoną akcję w menu Rysunek Wybierz drużynę Atrybuty, a następnie wybierz opcję palety Czarno-biały. Konwersja rysunku na czarno-biały jest nieodwracalna. Po powrocie do palety kolorów można kolorować jedynie nowe obiekty.

    Odwracanie wszystkich kolorów projektu

    Produkowane poprzez wybór z menu Rysunek zespoły Odwróć kolory. Każdy kolor zostanie zastąpiony jego odwrotnością (biały stanie się czarnym, żółty stanie się niebieskim itp.).

    Wstawianie tekstu do rysunku

    Aby wstawić tekst do rysunku, użyj narzędzia Napis. W tym celu należy kliknąć przycisk na pasku narzędzi. Kliknięcie na obrazku powoduje wyświetlenie prostokąta (ramki), w którym można wpisać tekst w miejscu kliknięcia. W miejscu wprowadzania pojawi się kursor tekstowy w postaci litery I. Ramka pokazuje granice obszaru rysunku, w którym zostanie umieszczony tekst.

    Jeśli tekst jest wystarczająco długi, może nie zmieścić się w ramce i wysokość ramki ulegnie zmianie. Dzieje się tak dlatego, że podczas pisania słowa są automatycznie przenoszone do następna linia po dotarciu do prawego brzegu kadru. W rezultacie tekst może nie zostać prawidłowo umieszczony. Dlatego często konieczna jest zmiana rozmiaru ramki. Aby to zrobić, należy umieścić kursor na pogrubionych kropkach na krawędzi ramki, po czym kursor zmieni swój wygląd na „dwie strzałki skierowane w różne strony”. Przytrzymując lewy przycisk myszy można przesuwać krawędzie ramki w danym kierunku.

    Tekst można umieścić na rysunku w dwóch trybach. W pierwszym trybie tekst zostaje zamalowany wybranym kolorem, a kolor jego tła pokrywa się z kolorem tła głównego (napis jest nieprzezroczysty, tekst zasłania rysunek, ustawiając się na nim). W drugim przypadku tekst również zostaje zamalowany wybranym kolorem, a tło jest przezroczyste (tekst zostaje umieszczony na górze obrazu). Aby przełączyć tryby, na ekranie pojawia się specjalny panel.

    Do pisania możesz użyć różne czcionki. Czcionka to zbiór liter, cyfr, symboli i znaków interpunkcyjnych o określonym wyglądzie. Charakterystyka czcionki: krój pisma (Times New Roman, Arial, Courier itp.), rozmiar i styl (zwykły, pogrubiony, kursywa, podkreślony). Aby zmienić wszystkie atrybuty czcionki, możesz skorzystać z „Panelu atrybutów tekstu” (ryc. 4).

    Ryż. 4. Panel Atrybutów Tekstu

    Możesz włączyć lub wyłączyć wygląd panelu w menu Pogląd wybierając polecenie Panel atrybutów tekstu. Wyboru kroju czcionki, jej rozmiaru oraz rodzaju kodowania dokonuje się z list rozwijanych. Możesz zmienić czcionkę przed pisaniem i podczas pisania. Aby zakończyć pisanie, możesz kliknąć obraz myszką lub zmienić narzędzie. Od tego momentu nie będzie można zmienić czcionki dla wcześniej wpisanego tekstu.

    Zmiana skali, oglądanie obrazu

    Narzędzie Skala służy do zwiększenia skali wyświetlania bieżącego rysunku. Możesz wybrać współczynnik powiększenia „1x”, „2x”, „6x” i „8x” lub możesz umieścić prostokąt pojawiający się nad obszarem obrazu, który chcesz obejrzeć w powiększeniu i kliknąć na lewy przycisk myszy. W powiększonej skali można pracować z pojedynczymi pikselami tworzącymi obraz rysunku. Przywrócić oryginalna skala obrazów, wybierz współczynnik „1x”.

    Podczas zmiany skali żądana część rysunku może zniknąć z widocznej części okna roboczego Malowanie, ponieważ nowy rozmiar rysunku jest kilkakrotnie większy niż rozmiar obszaru roboczego. Aby rysunek pojawił się w obszarze roboczym, należy przewinąć okno. W tym celu stosuje się paski pionowe i przewijanie poziome odpowiednio w prawo i dolne strony miejsce pracy.

    Skalę obrazu można także zmienić za pomocą menu Pogląd za pomocą polecenia Skala, Inny. W tym przypadku współczynnik skalowania podawany jest w procentach: 100%, 200%, 400%, 600% i 800%.

    Wybierając skalę 400% lub większą, istnieje możliwość włączenia siatki dla wygodniejszej pracy z rysunkiem. Odbywa się to poprzez wybór z menu Pogląd zespoły Pokaż siatkę.

    W edytorze graficznym Paint jest wygodnym sposobem, aby wyświetlić cały rysunek w normalnej skali. W takim przypadku rama okna, wszystkie paski narzędzi, paleta i paski przewijania znikną z ekranu. Tylko edytowany rysunek będzie widoczny w normalnej skali na obrazie pełnoekranowym. W tym trybie można oglądać wyłącznie obraz z zabronioną edycją. Aby wyświetlić, użyj sekwencji Pogląd, Zobacz rysunek. Wróć do trybu edycji, klikając lewym przyciskiem myszy.

    Praca z fragmentem rysunku

    Narzędzie Wybór niestandardowego obszaru pozwala wybrać fragment - dowolny obszar rysunku, ograniczony konstruowaną linią. Aby to zrobić, należy aktywować narzędzie, a następnie przytrzymując lewy przycisk, narysować zamknięty obszar o dowolnym kształcie. Jeżeli obszar został wybrany nieprawidłowo, kliknij kursorem w dowolnym miejscu innym niż wybrany obszar.

    Narzędzie Wybór pozwala wybrać dowolny prostokątny obszar. Aby to zrobić należy aktywować narzędzie, przesunąć wskaźnik do miejsca w obszarze roboczym, w którym będzie znajdował się jeden z rogów wybranego fragmentu, nacisnąć lewy przycisk myszy i przesunąć go w żądanym kierunku.

    Istnieją dwa tryby selekcji: przezroczysty (kolor tła zostaje wykluczony z fragmentu) i nieprzezroczysty (kolor tła zostaje zachowany we fragmencie). Aby wybrać tryb, na ekranie pojawia się specjalny panel tymczasowy.

    Możesz przenieść wybrany fragment rysunku w inne miejsce, utworzyć wiele kopii fragmentu lub przenieść go do innej aplikacji.

    Aby przenieść fragment w inne miejsce, naciśnij lewy przycisk wewnątrz wybranego obszaru, a następnie nie puszczając go, przeciągnij fragment w inne miejsce. Jeśli przytrzymasz klawisz klawisz kontrolny, wówczas kopia fragmentu zostanie przeniesiona.

    Na fragmencie rysunku możesz także wykonać inne operacje: zmienić rozmiar, rozciągnąć, obrócić, przechylić i odwrócić za pomocą poleceń menu Rysunek.

    Korzystanie ze schowka

    Wybrany obszar można umieścić w buforze poprzez menu Edytować. Aby to zrobić, użyj poleceń Kopiuj Lub Cięcie. Możesz także umieścić fragment w pliku za pomocą polecenia Skopiuj do pliku.

    Aby wstawić do rysunku gotowe fragmenty ze schowka lub pliku, należy skorzystać z menu Edytować i zespoły Wstawić Lub Wklej z pliku odpowiednio. W takim przypadku wstawiony fragment początkowo znajduje się w lewym górnym rogu ekranu i należy do niego przeciągnąć Właściwe miejsce myszką, trzymając wciśnięty lewy przycisk.

    Anuluj zakończoną operację

    Podczas edycji rysunków nie można zmieniać już ukończonych elementów obrazu graficznego - można je jedynie usunąć, przesunąć lub narysować na nich.

    Co zrobić, jeśli rysunek został przypadkowo uszkodzony? Można cofnąć trzy ostatnie zmiany wprowadzone w rysunku. Aby to zrobić, użyj menu Edytować i zespół Anulować.

    Jeśli operacja została anulowana przez pomyłkę, można ją przywrócić za pomocą elementów menu Edytować I Przywrócić.

    Przekształć rysunek

    Korzystanie z poleceń menu Rysunek Możesz odwracać, rozciągać, kompresować, powiększać lub pochylać wybrane części obrazu.

    Korzystanie z polecenia Odwróć/obróć Możesz odwrócić wybrany fragment względem osi pionowej lub poziomej. W oknie dialogowym znajdują się odpowiednie przełączniki Odwróć się od lewej do prawej, Przewróć z góry na dół I Obróć o 90, 180 i 270 stopni.

    Korzystanie z polecenia Rozciągnij/pochyl Możesz rozciągnąć lub przechylić zaznaczenie w pionie lub w poziomie. W tym celu w oknie dialogowym znajdują się odpowiednie przełączniki i pola wejściowe.

    Wyświetl podgląd i wydrukuj swój rysunek

    Rysunek można wydrukować na drukarce korzystając z sekwencji Plik _ Foka. Ze względu na różnice między rozdzielczością ekranu i drukarki ten sam projekt może wyglądać inaczej na ekranie i na papierze. Aby wcześniej sprawdzić jak będzie wyglądał rysunek po wydrukowaniu należy skorzystać z menu Plik i zespół Zapowiedź. Następnie za pomocą przycisków Większy I Mniejszy Można wybrać odpowiednią skalę obrazu. Aby zakończyć podgląd należy kliknąć przycisk Zamknąć.

    Korzystanie z menu Plik i zespół Ustawienia strony, możesz zmienić rozmiar strony, rozmiary marginesów, orientację obrazu i używaną drukarkę.

    Kopiowanie („przechwytywanie”) obrazu z ekranu

    Aby skopiować zawartość całego ekranu do schowka należy nacisnąć klawisz Zrzut ekranu . Aby skopiować zawartość aktywnego okna do schowka, naciśnij jednocześnie klawisze Alt+Drukuj ekran.

    Aby dalej pracować z rysunkiem, użyj w menu Edytować zespół Wstawić.

    Zadanie 2

    Zestawienie zmian w depozytach walutowych przy stopie bilansowej 7,0% w okresie 5 lat, depozyt początkowy 1400 USD.

    Do działu finansowego

    Firma windykacyjna

    LLC „Bakr”, Krasnodar

    Nosov T.A.

    Streszczenie

    na temat: „Podsumowanie zmian depozytów walutowych według kursu bankowego”

    Rok

    Początkowa kwota depozytu

    2007

    2008

    2009

    2010

    2011

Opcje porównania

Pokolenia komputerów

czwarty

Okres czasu

Podstawa elementu (do centrali sterującej, ALU)

Lampy elektroniczne (lub elektryczne).

Półprzewodniki (tranzystory)

Obwody scalone

Układy scalone dużej skali (LSI)

Główny typ komputera

Mały (mini)

Podstawowe urządzenia wejściowe

Pilot zdalnego sterowania, karta dziurkowana, wejście na taśmę dziurkowaną

Wyświetlacz alfanumeryczny, klawiatura

Kolorowy wyświetlacz graficzny, skaner, klawiatura

Główne urządzenia wyjściowe

Alfanumeryczne urządzenie drukujące (ADP), wyjście na taśmę dziurkowaną

Ploter, drukarka

Pamięć zewnętrzna

Taśmy magnetyczne, bębny, taśmy dziurkowane, karty dziurkowane

Taśmy dziurkowane, dysk magnetyczny

Dyski magnetyczne i optyczne

Kluczowe rozwiązania programowe

Uniwersalne języki programowania, tłumacze

Seria system operacyjny optymalizacja tłumaczy

Interaktywne systemy operacyjne, języki strukturalne programowanie

Przyjazne oprogramowanie, sieciowe systemy operacyjne

Tryb pracy komputera

Pojedynczy program

Seria

Dzielenie czasu

Praca osobista i przetwarzanie sieciowe

Cel korzystania z komputera

Obliczenia naukowo-techniczne

Obliczenia techniczno-ekonomiczne

Zarządzanie i rachunki ekonomiczne

Telekomunikacja, usługi informacyjne

Tabela - Główne cechy komputerów różnych generacji

Pokolenie

Okres, lata

1980-obecnie wr.

Podstawa elementu

Rury próżniowe

Diody i tranzystory półprzewodnikowe

Obwody scalone

Układy scalone bardzo dużej skali

Architektura

Architektura von Neumanna

Tryb wieloprogramowy

Sieci lokalne Komputery, współdzielone systemy komputerowe

Systemy wieloprocesorowe, komputery osobiste, sieci globalne

Wydajność

10 – 20 tys. op/s

100-500 tys. op/s

Około 1 miliona operacji/s

Dziesiątki i setki milionów operacji/s

Oprogramowanie

Języki maszynowe

Systemy operacyjne, języki algorytmiczne

Systemy operacyjne, systemy dialogowe, systemy grafiki komputerowej

Pakiety aplikacji, bazy danych i wiedza, przeglądarki

Urządzenia zewnętrzne

Urządzenia wejściowe z taśm dziurkowanych i kart perforowanych,

ATsPU, dalekopisy, NML, NMB

Terminale wideo, dyski twarde

NGMD, modemy, skanery, drukarki laserowe

Aplikacja

Problemy obliczeniowe

Zadania inżynierskie, naukowe, gospodarcze

ACS, CAD, zadania naukowo-techniczne

Zadania związane z zarządzaniem, komunikacją, tworzeniem stacji roboczych, przetwarzaniem tekstu, multimediami

Przykłady

ENIAC, UNIVAC (USA);
BESM - 1,2, M-1, M-20 (ZSRR)

IBM 701/709 (USA)
BESM-4, M-220, Mińsk, BESM-6 (ZSRR)

IBM 360/370, PDP -11/20, Cray -1 (USA);
UE 1050, 1066,
Elbrus 1.2 (ZSRR)

Cray T3 E, SGI (USA),
Komputery PC, serwery, stacje robocze różnych producentów

Na przestrzeni 50 lat pojawiło się kilka generacji komputerów, zastępując się nawzajem. O szybkim rozwoju VT na całym świecie decyduje jedynie zaawansowana baza elementów i rozwiązania architektoniczne.
Ponieważ komputer jest systemem składającym się ze sprzętu i oprogramowania, naturalne jest, że generację należy rozumieć jako modele komputerowe charakteryzujące się tymi samymi cechami technologicznymi i rozwiązania programowe(baza elementów, architektura logiczna, oprogramowanie). Tymczasem w wielu przypadkach bardzo trudno jest sklasyfikować VT według pokolenia, gdyż granica między nimi z pokolenia na pokolenie coraz bardziej się zaciera.
Pierwsza generacja.
Pierwiastkowy podstawa - elektroniczna lampy i przekaźniki; Pamięć RAM wykonywano na przerzutnikach, później na rdzeniach ferrytowych. Niezawodność jest niska, wymagany był układ chłodzenia; Komputery miały znaczne wymiary. Wydajność - 5 - 30 tysięcy operacji arytmetycznych; Programowanie - w kodach komputerowych (kodzie maszynowym) pojawiły się później autokody i asemblery. Programowaniem zajmował się wąski krąg matematyków, fizyków i inżynierów elektroników. Komputery pierwszej generacji służyły głównie do obliczeń naukowo-technicznych.

Drugie pokolenie.
Podstawa elementu półprzewodnikowego. Niezawodność i wydajność są znacznie zwiększone, wymiary i zużycie energii są zmniejszone. Rozwój obiektów wejścia/wyjścia i pamięci zewnętrznej. Szereg postępowych rozwiązań architektonicznych i dalszy rozwój technologii programowania – tryb współdzielenia czasu i tryb wieloprogramowania (łączenie pracy centralny procesor do przetwarzania danych i kanałów wejścia/wyjścia, a także operacji równoległych pobierania poleceń i danych z pamięci)
W drugiej generacji zaczęło wyraźnie pojawiać się zróżnicowanie komputerów na małe, średnie i duże. Zakres zastosowania komputerów do rozwiązywania problemów - planistycznych, ekonomicznych, zarządzania procesami produkcyjnymi itp. - znacznie się rozszerzył.
Powstają zautomatyzowane systemy sterowania (ACS) dla przedsiębiorstw, całych gałęzi przemysłu i procesów technologicznych (ACS). Koniec lat 50. charakteryzuje się pojawieniem się szeregu zorientowanych problemowo języków programowania wysokiego poziomu (HLP): FORTRAN, ALGOL-60 itp. Rozwój oprogramowania osiągnięto poprzez tworzenie bibliotek standardowych programów w różnych języków programowania oraz do różnych celów, monitorów i dyspozytorów do sterowania trybami pracy komputera, planowania jego zasobów, co położyło podwaliny pod koncepcje systemów operacyjnych nowej generacji.

Trzecia generacja.
Element oparty na układach scalonych (IC). Pojawia się seria modeli komputerów, które są od podstaw kompatybilne z oprogramowaniem i mają coraz większe możliwości z modelu na model. Architektura logiczna komputerów i ich urządzeń peryferyjnych stała się bardziej złożona, co znacznie rozszerzyło funkcjonalność i możliwości obliczeniowe. Systemy operacyjne (OS) stają się częścią komputera. Wiele zadań związanych z zarządzaniem pamięcią, urządzeniami wejścia/wyjścia i innymi zasobami zaczęło być przejmowanych przez system operacyjny lub bezpośrednio przez sprzęt komputerowy. Oprogramowanie staje się potężne: pojawiają się systemy zarządzania bazami danych (DBMS), systemy automatyzacji Praca projektowa(systemy CAD) do różnych celów, udoskonalane są zautomatyzowane systemy sterowania i systemy sterowania procesami. Dużo uwagi zajmuje się tworzeniem pakietów programów aplikacyjnych (APP) do różnych celów.
Rozwijają się języki i systemy programowania.Przykłady: - seria modeli IBM/360, USA, produkcja seryjna - od 1964; -Komputery UE, ZSRR i kraje CMEA od 1972 roku.
Czwarta generacja.
Podstawą elementów stają się układy scalone wielkoskalowe (LSI) i bardzo wielkoskalowe (VLSI). Komputery projektowano już w godz efektywne wykorzystanie oprogramowanie (na przykład komputery typu UNIX, które najlepiej zanurzyć w środowisku oprogramowania UNIX; maszyny Prolog, które są zorientowane zadaniowo sztuczna inteligencja); nowoczesne elektrownie jądrowe. Przetwarzanie informacji telekomunikacyjnych dynamicznie się rozwija poprzez poprawę jakości kanałów komunikacyjnych wykorzystujących łączność satelitarną. Tworzą się krajowe i ponadnarodowe sieci informacyjne i komputerowe, dzięki którym można mówić o początkach informatyzacji społeczeństwa ludzkiego jako całości.
Dalsza intelektualizacja technologii komputerowej jest zdeterminowana tworzeniem bardziej rozwiniętych interfejsów człowiek-komputer, baz wiedzy, systemów ekspertowych, systemów programowania równoległego itp.
Baza elementów pozwoliła osiągnąć duży sukces w miniaturyzacji, zwiększając niezawodność i wydajność komputerów. Pojawiły się mikro- i minikomputery, przewyższające możliwościami komputery średniej i dużej skali. Poprzednia generacja za znacznie niższą cenę. Technologia produkcji procesorów opartych na VLSI przyspieszyła tempo produkcji komputerów i umożliwiła wprowadzenie komputerów do szerokich mas społeczeństwa. Wraz z pojawieniem się uniwersalnego procesora w jednym chipie (mikroprocesor Intel-4004, 1971) rozpoczęła się era komputerów osobistych.
Za pierwszy komputer PC można uznać Altair-8800, stworzony na bazie Intel-8080 w 1974 roku. E.Roberts. P. Allen i W. Gates stworzyli tłumacza z popularnego języka Basic, znacznie zwiększając inteligencję pierwszego komputera PC (później założyli słynną firmę Firma Microsoft Inc). Oblicze 4. generacji w dużej mierze wyznacza powstanie superkomputerów charakteryzujących się dużą wydajnością (średnia prędkość 50 – 130 megaflopów. 1 megaflop = 1 milion operacji na sekundę przy zmiennoprzecinkowym) i nietradycyjną architekturą (zasada równoległości oparta na potokowe przetwarzanie poleceń). Superkomputery wykorzystywane są w rozwiązywaniu problemów fizyki matematycznej, kosmologii i astronomii, modelowaniu złożone systemy itp. Ponieważ potężne komputery odgrywają i nadal będą odgrywać ważną rolę przełączającą w sieciach, kwestie sieciowe są często omawiane wraz z pytaniami dotyczącymi superkomputerów.Wśród krajowych osiągnięć superkomputerów można wymienić maszyny z serii Elbrus, PS Systemy obliczeniowe -2000 i PS-3000, zawierające do 64 procesorów sterowanych wspólnym strumieniem poleceń, osiągnęły wydajność w przypadku szeregu zadań rzędu 200 megaflopów. Jednocześnie, biorąc pod uwagę złożoność opracowywania i wdrażania nowoczesnych projektów superkomputerowych, które wymagają intensywnych badań podstawowych z zakresu informatyki, technologii elektronicznych, wysokich standardów produkcyjnych, poważnych wydatki finansowe, wydaje się bardzo mało prawdopodobne, że w dającej się przewidzieć przyszłości powstanie krajowych superkomputerów, których główne cechy nie będą ustępować najlepszym zagranicznym modelom.
Należy zauważyć, że wraz z przejściem na technologię IP w produkcji komputerów, główny nacisk pokoleń coraz bardziej przesuwa się z podstawy elementów na inne wskaźniki: architekturę logiczną, oprogramowanie, interfejs użytkownika, obszary zastosowań itp.
Piąte pokolenie.
Pochodzi z głębi czwartego pokolenia i jest w dużej mierze zdeterminowany wynikami prac Japońskiego Komitetu Badań Naukowych w Dziedzinie Komputerów, opublikowanymi w 1981 roku. Zgodnie z tym projektem komputery i systemy obliczeniowe piątej generacji, oprócz wysokiej wydajności i niezawodności przy niższych kosztach, w pełni zapewnianych przez VLSI i inne najnowsze technologie, muszą spełniać następujące jakościowo nowe wymagania funkcjonalne:

· zapewnić łatwość obsługi komputerów poprzez wdrożenie systemów wejścia/wyjścia głosowego; interaktywne przetwarzanie informacji z wykorzystaniem języków naturalnych; zdolności uczenia się, konstrukcje skojarzeniowe i logiczne wnioski;

· uprościć proces tworzenia oprogramowania poprzez automatyzację syntezy programów zgodnie ze specyfikacją wymagań początkowych języki naturalne

· ulepszać podstawowe cechy i właściwości użytkowe komputerów, aby spełnić różne cele społeczne, poprawiać stosunek kosztów do korzyści, szybkość, lekkość i zwartość komputerów; zapewniają ich różnorodność, wysoką adaptowalność do zastosowań i niezawodność w działaniu.

Biorąc pod uwagę złożoność realizacji zadań przypisanych piątej generacji, całkiem możliwe jest podzielenie jej na bardziej widoczne i lepiej odczuwalne etapy, z których pierwszy został w dużej mierze zrealizowany w ramach obecnej czwartej generacji.

Typy komputerów elektronicznych w naszym kraju dzielą się na kilka generacji. Cechami definiującymi przy przypisywaniu urządzeń do określonej generacji są ich elementy i odmiany o tak ważnych cechach, jak wydajność, pojemność pamięci, sposoby zarządzania i przetwarzania informacji. Podział komputerów jest warunkowy - istnieje znaczna liczba modeli, które według niektórych cech należą do jednego typu, a według innych do innego typu generacji. W rezultacie tego typu komputery można sklasyfikować jako różne etapy rozwój technologii obliczeń elektronicznych.

Pierwsza generacja komputerów

Rozwój komputerów dzieli się na kilka okresów. Generacja urządzeń każdego okresu różni się od siebie bazą elementów i obsługą typów matematycznych.

Komputery I generacji (1945-1954) - komputery elektroniczne wykorzystujące lampy elektroniczne (podobne były w pierwszych modelach telewizorów). Ten czas można nazwać erą kształtowania się takiej technologii.

Większość maszyn pierwszego typu generacji nazywano urządzeniami eksperymentalnymi, które stworzono w celu przetestowania jednej lub drugiej teorii. Rozmiary i waga jednostek komputerowych, które często wymagały oddzielnych budynków, od dawna stały się legendą. Liczby do pierwszych maszyn wprowadzano za pomocą kart perforowanych, a sterowanie programowe ciągami funkcyjnymi prowadzono np. w ENIAC-ie, podobnie jak w maszynach licząco-analitycznych, za pomocą wtyczek i pól składu. Pomimo tego, że taki sposób programowania wymagał dużej ilości czasu na przygotowanie maszyny, do połączeń na polach składu (patchboardzie) bloków, zapewniał wszelkie możliwości realizacji „możliwości” zliczania ENIAC-a i przy dużych możliwościach korzyść różniła się od metody programowej z taśmą dziurkowaną, która jest typowa dla urządzeń typu przekaźnikowego.

Jak działały te jednostki?

Pracownicy przydzieleni do tej maszyny stale przebywali w jej pobliżu i monitorowali pracę lamp próżniowych. Ale gdy tylko przepaliła się przynajmniej jedna lampa, ENIAC natychmiast wstał i zaczęły się kłopoty: wszyscy spieszyli się, by szukać spalonej lampy. Główny powód (może nie dokładny) bardzo częstej wymiany lamp był następujący: ciepło i blask lamp przyciągały mole, które wlatywały do ​​wnętrza samochodu i przyczyniały się do powstania zwarcia. Tym samym komputery I generacji były wyjątkowo podatne na warunki zewnętrzne.

Jeżeli powyższe jest prawdą, to termin „bugs”, odnoszący się do błędów w oprogramowaniu i sprzęcie sprzętu komputerowego, zyskuje nowe znaczenie. Gdy wszystkie lampy były już sprawne, personel inżynieryjny mógł dostosować ENIAC do dowolnego zadania, ręcznie zmieniając połączenia 6000 przewodów. Jeśli wymagane było wykonanie innego rodzaju zadania, konieczne było ponowne przełączenie wszystkich przewodów.

Pierwsze samochody produkcyjne

Pierwszym komercyjnie produkowanym komputerem pierwszej generacji był komputer UNIVAC (Universal Automatic Computer). Deweloperzy tego komputera byli: John Mauchly i J. Prosper Eckert. Był to pierwszy typ elektronicznego komputera cyfrowego ogólny cel. UNIVAC, którego prace rozwojowe rozpoczęły się w 1946 r. i zakończyły w 1951 r., miał czas dodawania 120 μs, czas mnożenia 1800 μs i czas podziału 3600 μs.

Maszyny te zajmowały dużo miejsca, zużywały dużo prądu i składały się z ogromnej liczby lamp elektronicznych. Przykładowo maszyna Strela miała 6400 takich lamp i 60 tysięcy sztuk diod półprzewodnikowych. Wydajność komputerów tej generacji nie przekraczała 2-3 tysięcy operacji na sekundę, objętość pamięci RAM nie przekraczała 2 KB. Dopiero maszyna M-2 (1958) miała 4 KB pamięci RAM, a jej prędkość wynosiła 20 tysięcy operacji na sekundę.

Komputery drugiej generacji – istotne różnice

W 1948 roku fizycy teoretyczni John Bardeen i William Shockley wraz z czołowym eksperymentatorem w Bell Telephone Laboratories Walterem Brattainem stworzyli pierwszy działający tranzystor. Było to urządzenie typu punktowo-kontaktowego, w którym trzy metalowe „anteny” stykały się z blokiem materiału polikrystalicznego. W ten sposób generacje komputerów zaczęły się udoskonalać już w tak odległym czasie.

Pierwsze typy komputerów działających w oparciu o tranzystory pojawiły się pod koniec lat pięćdziesiątych XX wieku, a do połowy lat sześćdziesiątych XX wieku powstały zewnętrzne typy urządzeń o bardziej kompaktowych funkcjach.

Cechy architektury

Jeden z niesamowite zdolności Tranzystor polega na tym, że sam może wykonywać pracę 40 lamp typu elektronicznego i nawet w tym przypadku mieć dużą prędkość roboczą, emitować minimalną ilość ciepła i praktycznie nie zużywa zasobów elektrycznych i energii. Razem z procesami wymiany lamp typ elektryczny Tranzystory poprawiły sposoby przechowywania informacji. Nastąpił wzrost pojemności pamięci, a taśma magnetyczna, która została po raz pierwszy zastosowana w komputerze UNIVAC pierwszej generacji, zaczęła być używana zarówno do wprowadzania, jak i wysyłania informacji.

W połowie lat sześćdziesiątych XX wieku używano pamięci dyskowej. Ogromny postęp w architekturze komputerów umożliwił osiągnięcie szybkich działań rzędu miliona operacji na sekundę! Na przykład komputery tranzystorowe drugiej generacji to „Stretch” (Anglia), „Atlas” (USA). Podczas tego okresu związek Radziecki produkował także urządzenia nie gorsze od wyżej wymienionych urządzeń (na przykład „BESM-6”).

Powstanie komputerów zbudowanych przy pomocy tranzystorów doprowadziło do zmniejszenia ich wymiarów, masy, kosztów i cen energii, a także zwiększyło niezawodność i produktywność. Przyczyniło się to do poszerzenia kręgu użytkowników i zakresu zadań do rozwiązania. Biorąc pod uwagę ulepszone cechy komputerów drugiej generacji, programiści zaczęli tworzyć algorytmiczne typy języków do obliczeń inżynieryjnych (na przykład ALGOL, FORTRAN) i ekonomicznych (na przykład COBOL).

Wartość systemu operacyjnego

Ale nawet na tych etapach głównym zadaniem technologii programistycznych było zapewnienie oszczędności zasobów - czasu i pamięci komputera. Aby rozwiązać ten problem, zaczęto tworzyć prototypy nowoczesnych systemów operacyjnych (zespoły programów narzędziowych, które zapewniają dobrą dystrybucję zasobów komputera podczas wykonywania zadań użytkownika).

Rodzaje pierwszych systemów operacyjnych (OS) przyczyniły się do automatyzacji pracy operatorów komputerów, co wiąże się z realizacją zadań użytkownika: wprowadzaniem tekstów programu do urządzenia, wywoływaniem niezbędnych tłumaczy, wywoływaniem wymaganych dla programu podprogramów bibliotecznych , wywołanie linkera w celu umieszczenia tych podprogramów i programów głównego typu w pamięci komputera, wprowadzenie danych oryginalnego typu itp.

Teraz oprócz programu i danych konieczne było także wprowadzenie do komputera drugiej generacji instrukcji, które zawierały listę etapów przetwarzania oraz listę informacji o programie i jego autorach. Następnie zaczęto wprowadzać do urządzeń jednocześnie pewną liczbę zadań dla użytkowników (pakietów z zadaniami), w tego typu systemach operacyjnych konieczne było rozdzielenie rodzajów zasobów komputerowych między tego typu zadaniami - powstał wieloprogramowy tryb przetwarzania danych (na przykład podczas gdy wyniki zadania jednego typu są wykonywane, obliczenia dla innego, a dane dla trzeciego rodzaju problemu można wprowadzić do pamięci). Tym samym druga generacja komputerów przeszła do historii wraz z pojawieniem się usprawnionych systemów operacyjnych.

Trzecia generacja samochodów

Dzięki rozwojowi technologii produkcji układów scalonych (IC) udało się osiągnąć wzrost m.in szybkie działanie i niezawodność obwodów półprzewodnikowych, a także zmniejszenie ich rozmiaru, poziomu mocy i kosztów. Zintegrowane typy mikroukładów składają się z kilkudziesięciu elementów elektronicznych, które są zmontowane w prostokątnych płytkach krzemowych i mają długość boku nie większą niż 1 cm.Ten rodzaj płytki (kryształów) jest umieszczony w plastikowej obudowie o małych wymiarach, wymiarach z czego można określić jedynie na podstawie liczby „nog” „(zacisków wejścia i wyjścia elektroniczne obwody utworzone na kryształach).

Dzięki tym okolicznościom historia rozwoju komputerów (generacji komputerów) dokonała wielkiego przełomu. Umożliwiło to nie tylko poprawę jakości pracy i obniżenie kosztów urządzeń uniwersalnych, ale także stworzenie maszyn małogabarytowych, prostych, tanich i niezawodnych - minikomputerów. Jednostki takie miały początkowo zastąpić sterowniki realizowane sprzętowo w obwodach sterujących dowolnych obiektów, m.in systemy automatyczne sterowanie procesami typu technologicznego, systemy gromadzenia i przetwarzania danych typu eksperymentalnego, różne kompleksy sterujące na obiektach typu mobilnego itp.

Za główny punkt w tamtym czasie uważano ujednolicenie maszyn pod względem parametrów konstrukcyjnych i technologicznych. Trzecia generacja komputerów zaczyna wypuszczać własną serię lub rodziny kompatybilnych typów modeli. Dalsze skoki w rozwoju matematyki i oprogramowania przyczyniają się do tworzenia programów typu pakietowego do rozwiązywania standardowych problemów, języka programowania zorientowanego na problemy (do rozwiązywania problemów określonych kategorii). W ten sposób po raz pierwszy powstały systemy oprogramowania – rodzaje systemów operacyjnych (opracowanych przez IBM), na których działa trzecia generacja komputerów.

Samochody czwartej generacji

Pomyślny rozwój urządzenia elektryczne doprowadziło do powstania dużych układów scalonych (LSI), w których jeden kryształ zawierał kilkadziesiąt tysięcy elementów elektrycznych. Przyczyniło się to do pojawienia się nowych generacji komputerów, których elementarna baza miała dużą ilość pamięci i krótkie cykle wykonywania poleceń: wykorzystanie bajtów pamięci w jednej operacji maszyny zaczęło gwałtownie spadać. Ponieważ jednak praktycznie nie było obniżek kosztów programowania, na pierwszy plan wysunięto zadania oszczędzania zasobów ludzkich, a nie maszynowych.

Powstały nowe typy systemów operacyjnych, które umożliwiały programistom debugowanie programów bezpośrednio za wyświetlaczami komputerów (w trybie dialogowym), co ułatwiało pracę użytkownikom i przyspieszało tworzenie nowego oprogramowania. Punkt ten był całkowicie sprzeczny z koncepcjami początkowych etapów informatyki, w których korzystano z komputerów pierwszej generacji: „procesor wykonuje tylko taką ilość pracy związanej z przetwarzaniem danych, której człowiek zasadniczo nie jest w stanie wykonać – liczenie mas”. Zaczął pojawiać się inny typ trendu: „Wszystko, co mogą zrobić maszyny, muszą to zrobić; „Ludzie wykonują tylko tę część pracy, której nie można zautomatyzować”.

W 1971 roku wyprodukowano duży układ scalony, który w całości pomieścił procesor komputera elektronicznego o prostej architekturze. Stać się realne możliwości do umieszczenia w jednym dużym układzie scalonym (na jednym chipie) niemal wszystkich urządzeń elektronicznych, które nie są skomplikowane w architekturze komputera, czyli możliwość wydania seryjne proste urządzenia Przez przystępne ceny(nie biorąc pod uwagę kosztu urządzeń zewnętrznych). Tak powstała czwarta generacja komputerów.

Pojawiło się wiele tanich (kieszonkowych komputerów z klawiaturą) i urządzeń sterujących, które są wyposażone w jeden lub kilka dużych układów scalonych zawierających procesory, pojemność pamięci i system połączeń z czujnikami typu wykonawczego w obiektach sterujących.

Programy kontrolujące przepływ paliwa do silników samochodowych, ruchy zabawek elektronicznych lub dane tryby pranie odzieży, instalowane w pamięci komputera lub podczas produkcji podobnych typów sterowników lub bezpośrednio w przedsiębiorstwach produkujących samochody, zabawki, pralki itp.

W latach 70-tych rozpoczęto produkcję uniwersalnych systemy komputerowe, który składał się z procesora, pojemności pamięci, układów interfejsu z urządzeniem wejścia-wyjścia, umieszczonych w jednym dużym układzie scalonym (komputery jednoukładowe) lub w niektórych dużych układach scalonych zainstalowanych na pojedynczej płytce drukowanej (jednostki jednopłytkowe ). W rezultacie, wraz z upowszechnieniem się komputerów 4. generacji, powtórzyła się sytuacja z lat 60. XX wieku, kiedy pierwsze minikomputery przejęły część pracy w dużych uniwersalnych komputerach elektronicznych.

Charakterystyczne właściwości komputerów czwartej generacji

  1. Tryb wieloprocesorowy.
  2. Przetwarzanie typu równoległo-sekwencyjnego.
  3. Typy języków wysokiego poziomu.
  4. Pojawienie się pierwszych sieci komputerowych.

Charakterystyka techniczna tych urządzeń

  1. Średnie opóźnienia sygnału 0,7 ns/v.
  2. Głównym typem pamięci jest pamięć półprzewodnikowa. Czas potrzebny na wygenerowanie danych z tego typu pamięci wynosi 100-150 ns. Pojemność - 1012-1013 znaków.
  3. Zastosowanie sprzętowej implementacji systemów operacyjnych.
  4. Konstrukcje modułowe zaczęto stosować także w narzędziach programowych.

Komputer osobisty został stworzony w kwietniu 1976 roku przez Steve'a Jobsa, pracownika Atari i Stephena Wozniaka, pracownika Hewlett-Packarda. Oparty na zintegrowanych 8-bitowych kontrolerach obwodów gra elektroniczna, stworzyli najprostszy, zaprogramowany PODSTAWOWY język, komputer do gier Apple, który odniósł ogromny sukces. Na początku 1977 roku zarejestrowano firmę Apple Comp. i od tego momentu rozpoczęła się produkcja pierwszych na świecie komputerów osobistych firmy Apple. Historia generacji komputerów uznaje to wydarzenie za najważniejsze.

Obecnie Firma Apple produkuje komputery osobiste Macintosh, które pod wieloma względami przewyższają komputery IBM PC.

Komputer w Rosji

W naszym kraju używane są głównie komputery typu IBM PC. Punkt ten wynika z następujących powodów:

  1. Do początku lat 90. Stany Zjednoczone nie zezwalały na dostawy do Związku Radzieckiego technologia informacyjna typu zaawansowanego, do którego należeli potężne komputery Prochowiec.
  2. Urządzenia Macintosh były znacznie droższe niż komputery IBM PC (teraz są mniej więcej w tej samej cenie).
  3. Dla komputerów IBM PC opracowano dużą liczbę programów aplikacyjnych, co ułatwia ich użycie w różnych obszarach.

Piąty typ generacji komputerów

Pod koniec lat 80. XX w. zaznacza się historia rozwoju komputerów (pokoleń komputerów). Nowa scena- pojawiają się samochody piątej generacji. Pojawienie się tych urządzeń wiąże się z przejściem na mikroprocesory. Z punktu widzenia konstrukcji strukturalnych charakterystyczna jest maksymalna decentralizacja zarządzania, mówiąc o oprogramowaniu i wsparciu matematycznym - przejściach do pracy w sferze oprogramowania i powłoki.

Wydajność komputerów piątej generacji – 10 8 -10 9 operacji na sekundę. Jednostki tego typu charakteryzują się strukturą wieloprocesorową, która tworzona jest na uproszczonych typach mikroprocesorów, których wykorzystuje się wiele (pole decydujące lub środowisko). Opracowywane są typy komputerów elektronicznych, które koncentrują się na typach języków wysokiego poziomu.

W tym okresie istnieją i są wykorzystywane dwie przeciwstawne funkcje: personifikacja i kolektywizacja zasobów (zbiorowy dostęp do sieci).

Ze względu na rodzaj systemu operacyjnego, który zapewnia łatwość komunikacji z komputerami elektronicznymi piątej generacji, ogromną bazę programów typu aplikacyjnego z różnych dziedzin działalności człowieka, a także niskie ceny Komputery stają się niezbędnym dodatkiem dla inżynierów, badaczy, ekonomistów, lekarzy, agronomów, nauczycieli, redaktorów, sekretarek, a nawet dzieci.

Rozwój dzisiaj

O szóstej i nowszej generacji rozwoju komputerów można tylko marzyć. Obejmuje to neurokomputery (rodzaje komputerów tworzone w oparciu o sieci typ neuronowy). Nie mogą jeszcze istnieć niezależnie, ale są aktywnie symulowane na nowoczesnych komputerach.

Zgodnie z podstawa elementu i poziom rozwoju oprogramowania, istnieją cztery prawdziwe generacje komputerów, krótki opis które przedstawiono w tabeli:

Opcje porównania

Pokolenia komputerów

czwarty

Okres czasu

Podstawa elementu (do centrali sterującej, ALU)

Lampy elektroniczne (lub elektryczne).

Półprzewodniki (tranzystory)

Obwody scalone

Układy scalone dużej skali (LSI)

Główny typ komputera

Mały (mini)

Podstawowe urządzenia wejściowe

Pilot zdalnego sterowania, karta dziurkowana, wejście na taśmę dziurkowaną

Wyświetlacz alfanumeryczny, klawiatura

Kolorowy wyświetlacz graficzny, skaner, klawiatura

Główne urządzenia wyjściowe

Alfanumeryczne urządzenie drukujące (ADP), wyjście na taśmę dziurkowaną

Ploter, drukarka

Pamięć zewnętrzna

Taśmy magnetyczne, bębny, taśmy dziurkowane, karty dziurkowane

Taśmy papierowe dziurkowane, dysk magnetyczny

Dyski magnetyczne i optyczne

Kluczowe rozwiązania programowe

Uniwersalne języki programowania, tłumacze

Wsadowe systemy operacyjne optymalizujące tłumaczy

Interaktywne systemy operacyjne, strukturalne języki programowania

Przyjazne oprogramowanie, sieciowe systemy operacyjne

Tryb pracy komputera

Pojedynczy program

Seria

Dzielenie czasu

Praca osobista i przetwarzanie sieciowe

Cel korzystania z komputera

Obliczenia naukowo-techniczne

Obliczenia techniczno-ekonomiczne

Zarządzanie i rachunki ekonomiczne

Telekomunikacja, usługi informacyjne

Ewolucja wykorzystania komputera. Projekt komputerowy piątej generacji

Rozważana technologia projektowania programu realizuje sekwencyjną konwersję szeregu sygnałów, tj. ich kodowanie:

Ten schemat ma dwie wady:

  1. proces przygotowania problemu do rozwiązania na komputerze jest nieproporcjonalnie dłuższy niż samo rozwiązanie: wielomiesięczne przygotowanie problemu nie jest porównywalne z kilkoma minutami rozwiązywania go na komputerze;
  1. Łańcuch „klient – ​​komputer” z reguły działa jak zepsuty telefon, ponieważ w procesie komunikacji uczestnicy tego łańcucha posługują się kilkoma językami (naturalnym, matematycznym, symbole graficzne, język programowania itp.), z których część jest niejednoznaczna w znaczeniu stwierdzeń. Z tego powodu należy uzgodnić z klientem rezultaty rozwiązania problemu i ewentualnie wprowadzić zmiany w programie. Wydłuża to również proces przygotowania oprogramowania.

Zatem czas przygotowania problemu do jego zautomatyzowanego rozwiązania jest jednym z powodów doskonalenia tradycyjna technologia Tej procedury.

Drugi powód związany jest z obiektywną ewolucją wykorzystania komputera, co przedstawiono w tabeli:

Parametr

Ewolucja wykorzystania komputera

od lat 90-tych XX wiek

Kryterium

efektywność korzystania z komputera

Zasoby maszynowe

Zasoby maszynowe

Zasoby ludzkie: pracochłonność opracowania i utrzymania programu

Pracochłonne formowanie wiedzy zawodowej

Kompletność i szybkość dostępu do informacji

Lokalizacja użytkownika

Maszynownia

Osobny pokój

Hala terminalowa

Pulpit

Dowolny telefon komórkowy

Rodzaj użytkownika

Inżynier-

programista

Profesjonalny programista

Programista-użytkownik

Użytkownik z ogólnym przeszkoleniem komputerowym

Słabo przeszkolony użytkownik

Typ dialogu

Praca na zdalnym sterowaniu

Wymiana mediów dziurkowanych i programów maszynowych

Interaktywny (klawiatura i ekran)

Interaktywne poprzez twarde menu

Interaktywny, graficzny

interfejs

Jak widać z tabeli, komputer „zbliża się” do użytkownika końcowego, który nie jest dobrze przeszkolony w komunikacji z komputerem i ma duże trudności w rozwiązywaniu swoich problemów aplikacyjnych za pomocą komputera. W związku z tym pojawia się problem zorganizowania nowego rodzaju interakcji pomiędzy użytkownikiem końcowym a komputerem. Problem ten został wyrażony w projekcie komputera piątej generacji, który został opublikowany na początku lat 80. XX wieku w Japonii.

Główną ideą tego projektu jest maksymalne uproszczenie komunikacji pomiędzy użytkownikiem końcowym a komputerem, na wzór komunikacji z dowolnym sprzęt gospodarstwa domowego. Aby rozwiązać ten problem, zaproponowano następujące kierunki:

  1. rozwój prosty interfejs, umożliwiając użytkownikowi końcowemu dialog z komputerem w celu rozwiązania jego problemów. Taki interfejs można zorganizować na dwa sposoby: język naturalny i graficzny. Wspomaganie dialogu w języku naturalnym jest problemem bardzo złożonym i nierozwiązanym. Realistyczne jest utworzenie interfejsu graficznego, co odbywa się w wielu produktach programowych, na przykład w systemie operacyjnym Windows’xx. Interfejs ten jest przejrzysty i nie wymaga specjalnej wiedzy. Jednak opracowanie dostępnych interfejsów rozwiązuje problem tylko w połowie – pozwala użytkownikowi końcowemu uzyskać dostęp do wcześniej zaprojektowanego oprogramowanie bez udziału w jego rozwoju;
  1. angażowanie użytkownika końcowego w projektowanie oprogramowania. Kierunek ten pozwoliłby na bezpośrednie włączenie klienta w proces tworzenia programów, co w ostatecznym rozrachunku skróciłoby czas tworzenia oprogramowania i ewentualnie poprawiło jego jakość. Technologia ta wiąże się z automatycznym formowaniem wiedzy zawodowej użytkownika końcowego i obejmuje dwa etapy projektowania oprogramowania:
  • programista tworzy „pusty” uniwersalny powłoka, dające się wypełnić konkretną wiedzą i wykorzystać ją do rozwiązania problemy praktyczne. Na przykład powłokę tę można by wypełnić zasadami sporządzania kwartalnych i innych bilansów przedsiębiorstw, a następnie mogłaby ona rozwiązywać problemy księgowość. Ewentualnie można było dodać tam zasady przyjmowania kandydatów, które zostały opisane wcześniej i wykorzystane w przykładach. W tym przypadku otrzymalibyśmy oprogramowanie, podobny do tego, co zostało zaprojektowane powyżej itp.;
  • użytkownik końcowy wypełnia stworzoną przez programistę powłokę oprogramowania, wprowadzając do niej wiedzę, której jest nosicielem (w określonym obszarze tematycznym). Można tu zastosować przejrzysty interfejs omówiony powyżej. Następnie oprogramowanie jest gotowe do użycia.

Zatem technologia przygotowania zastosowanych problemów do rozwiązania na komputerze zaproponowana w projekcie komputerowym piątej generacji obejmuje dwa etapy i jest przedstawiona na rysunku:

Programista

a) programista tworzy pustą powłokę oprogramowania;

Klient

b) klient (użytkownik końcowy) wypełnia skorupę wiedzą

Powłoka oprogramowania, wypełniona wiedzą użytkownika końcowego, jest gotowa rozwiązać te problemy aplikacji, zasady rozwiązywania, które przyczynił się do tego użytkownik końcowy. W ten sposób rozpoczyna się działanie oprogramowania.

Proponowana technologia stwarza wiele poważnych problemów związanych z reprezentacją i manipulacją wiedzą. Niemniej jednak wiąże się z nim przełom w projektowaniu produktów oprogramowania użytkowego.