Sieci korporacyjne mają dostęp do. Streszczenie: Sieci korporacyjne

Wstęp. Z historii technologii sieciowych. 3

Pojęcie „sieci korporacyjnych”. Ich główne funkcje. 7

Technologie stosowane w tworzeniu sieci korporacyjnych. 14

Struktura sieci korporacyjnej. Sprzęt komputerowy. 17

Metodyka tworzenia sieci korporacyjnej. 24

Wniosek. 33

Wykaz używanej literatury. 34

Wstęp.

Z historii technologii sieciowych.

Historia i terminologia sieci korporacyjnych jest ściśle związana z historią początków Internetu i sieci WWW. Dlatego nie zaszkodzi przypomnieć sobie, jak pojawiły się pierwsze technologie sieciowe, które doprowadziły do ​​​​powstania nowoczesnych sieci korporacyjnych (wydziałowych), terytorialnych i globalnych.

Internet powstał w latach 60. jako projekt Departamentu Obrony USA. Zwiększona rola komputera spowodowała konieczność zarówno wymiany informacji pomiędzy różnymi budynkami i sieciami lokalnymi, jak i utrzymania ogólnej funkcjonalności systemu w przypadku awarii poszczególnych elementów. Internet opiera się na zestawie protokołów, które umożliwiają sieciom rozproszonym niezależne kierowanie i przesyłanie informacji między sobą; Jeśli z jakiegoś powodu jeden węzeł sieci jest niedostępny, informacja dociera do miejsca docelowego za pośrednictwem innych węzłów, które aktualnie działają. Protokół opracowany w tym celu nazywa się protokołem internetowym (IP). (Skrót TCP/IP oznacza to samo.)

Od tego czasu protokół IP stał się powszechnie akceptowany w jednostkach wojskowych jako sposób publicznego udostępniania informacji. Ponieważ wiele projektów tych wydziałów było realizowanych w różnych grupach badawczych na uniwersytetach w całym kraju, a sposób wymiany informacji pomiędzy sieciami heterogenicznymi okazał się bardzo skuteczny, zastosowanie tego protokołu szybko rozszerzyło się poza wydziały wojskowe. Zaczęto go stosować w instytutach badawczych NATO i europejskich uniwersytetach. Dziś protokół IP, a co za tym idzie Internet, jest uniwersalnym, światowym standardem.

Pod koniec lat osiemdziesiątych Internet stanął przed nowym problemem. Początkowo były to albo e-maile, albo proste pliki danych. Do ich przesyłania opracowano odpowiednie protokoły. Obecnie pojawiła się cała seria nowych typów plików, zwykle łączonych pod nazwą multimedia, zawierających zarówno obrazy, jak i dźwięki oraz hiperłącza, umożliwiające użytkownikom nawigację zarówno w obrębie jednego dokumentu, jak i pomiędzy różnymi dokumentami zawierającymi powiązane informacje.

W 1989 roku Laboratorium Fizyki Cząstek Elementarnych Europejskiego Centrum Badań Jądrowych (CERN) z sukcesem rozpoczęło nowy projekt, którego celem było stworzenie standardu przesyłania tego rodzaju informacji przez Internet. Głównymi składnikami tego standardu były formaty plików multimedialnych, pliki hipertekstowe oraz protokół odbioru takich plików przez sieć. Format pliku został nazwany HyperText Markup Language (HTML). Była to uproszczona wersja bardziej ogólnego standardowego ogólnego języka znaczników (SGML). Protokół obsługi żądań nosi nazwę HyperText Transfer Protocol (HTTP). Ogólnie wygląda to tak: serwer, na którym działa program obsługujący protokół HTTP (demon HTTP), na żądanie klientów Internetu wysyła pliki HTML. Te dwa standardy stworzyły podstawę dla całkowicie nowego rodzaju dostępu do informacji komputerowych. Standardowe pliki multimedialne można teraz nie tylko uzyskać na żądanie użytkownika, ale także istnieć i wyświetlać jako część innego dokumentu. Ponieważ plik zawiera hiperłącza do innych dokumentów, które mogą znajdować się na innych komputerach, użytkownik może uzyskać dostęp do tych informacji za pomocą lekkiego kliknięcia przycisku myszy. To zasadniczo eliminuje złożoność dostępu do informacji w systemie rozproszonym. Pliki multimedialne w tej technologii nazywane są tradycyjnie stronami. Strona to także informacja wysyłana do komputera klienckiego w odpowiedzi na każde żądanie. Dzieje się tak dlatego, że dokument zwykle składa się z wielu oddzielnych części, połączonych ze sobą hiperłączami. Podział ten pozwala użytkownikowi sam decydować, które części chce widzieć przed sobą, oszczędza jego czas i zmniejsza ruch w sieci. Oprogramowanie, z którego bezpośrednio korzysta użytkownik, nazywa się zwykle przeglądarką (od słowa przeglądaj - pasieć) lub nawigatorem. Większość z nich umożliwia automatyczne pobranie i wyświetlenie konkretnej strony zawierającej łącza do dokumentów, do których użytkownik najczęściej wraca. Ta strona nazywa się stroną główną i zazwyczaj jest tam osobny przycisk umożliwiający dostęp do niej. Każdy nietrywialny dokument zwykle zaopatrzony jest w specjalną stronę, przypominającą sekcję „Spis treści” w książce. Zwykle od tego miejsca zaczynasz studiować dokument, dlatego często nazywa się go również stroną główną. Ogólnie rzecz biorąc, strona główna jest rozumiana jako swego rodzaju indeks, punkt wejścia do informacji określonego typu. Zwykle sama nazwa zawiera definicję tej sekcji, na przykład Strona główna Microsoft. Z drugiej strony dostęp do każdego dokumentu można uzyskać z wielu innych dokumentów. Cała przestrzeń dokumentów łączących się ze sobą w Internecie nazywana jest siecią WWW (akronimy WWW lub W3). System dokumentów jest całkowicie rozproszony, a autor nie ma nawet możliwości prześledzenia wszystkich linków do swojego dokumentu, które istnieją w Internecie. Serwer zapewniający dostęp do tych stron może rejestrować wszystkich, którzy czytają taki dokument, ale nie tych, którzy do niego odsyłają. Sytuacja jest odwrotna do tej, jaka panuje w świecie produktów drukowanych. W wielu dziedzinach naukowych cyklicznie publikowane są indeksy artykułów na dany temat, jednak nie da się prześledzić wszystkich, którzy przeczytali dany dokument. Znamy tutaj tych, którzy czytali (miali dostęp) dokument, ale nie wiemy, kto się na niego powoływał.Kolejną ciekawą cechą jest to, że dzięki tej technologii śledzenie wszystkich informacji dostępnych w Internecie staje się niemożliwe. Informacje pojawiają się i znikają w sposób ciągły, przy braku centralnej kontroli. Nie należy się jednak tego bać, to samo dzieje się w świecie produktów drukowanych. Nie staramy się kumulować starych gazet, jeśli mamy codziennie świeże, a wysiłek jest znikomy.

Oprogramowanie klienckie, które odbiera i wyświetla pliki HTML, nazywane jest przeglądarkami. Pierwsza przeglądarka graficzna nosiła nazwę Mosaic i powstała na Uniwersytecie Illinois. Wiele nowoczesnych przeglądarek opiera się na tym produkcie. Jednak ze względu na standaryzację protokołów i formatów można zastosować dowolne kompatybilne oprogramowanie.Systemy przeglądania istnieją w większości głównych systemów klienckich obsługujących inteligentne okna. Należą do nich systemy MS/Windows, Macintosh, X-Window i OS/2. Istnieją również systemy przeglądania dla tych systemów operacyjnych, w których nie są używane okna - wyświetlają fragmenty tekstu dokumentów, do których uzyskuje się dostęp.

Obecność systemów przeglądania na tak różnych platformach ma ogromne znaczenie. Środowiska operacyjne na komputerze autora, serwerze i kliencie są od siebie niezależne. Każdy klient może uzyskać dostęp i przeglądać dokumenty utworzone przy użyciu języka HTML i pokrewnych standardów oraz przesyłane za pośrednictwem serwera HTTP, niezależnie od środowiska operacyjnego, w którym zostały utworzone i skąd pochodzą. HTML obsługuje także funkcje tworzenia formularzy i przesyłania opinii. Oznacza to, że interfejs użytkownika służący zarówno do wysyłania zapytań, jak i pobierania danych wykracza poza opcję „wskaż i kliknij”.

Wiele stacji, w tym Amdahl, napisało interfejsy umożliwiające współpracę między formularzami HTML a starszymi aplikacjami, tworząc uniwersalny interfejs użytkownika typu front-end dla tych ostatnich. Dzięki temu możliwe jest pisanie aplikacji klient-serwer bez konieczności martwienia się o kodowanie na poziomie klienta. Tak naprawdę już pojawiają się programy, które traktują klienta jak system przeglądania. Przykładem jest interfejs WOW firmy Oracle, który zastępuje Oracle Forms i Oracle Reports. Chociaż technologia ta jest wciąż bardzo młoda, już ma potencjał, aby zmienić krajobraz zarządzania informacjami w taki sam sposób, w jaki zastosowanie półprzewodników i mikroprocesorów zmieniło świat komputerów. Pozwala na zamianę funkcji w osobne moduły i uproszczenie aplikacji, przenosząc nas na nowy poziom integracji, który lepiej dostosowuje funkcje biznesowe do funkcjonowania przedsiębiorstwa.

Nadmiar informacji jest przekleństwem naszych czasów. Technologie stworzone, aby złagodzić ten problem, tylko go pogorszyły. Nie ma w tym nic dziwnego: warto przyjrzeć się zawartości koszy na śmieci (zwykłych lub elektronicznych) zwykłego pracownika zajmującego się informacją. Nawet jeśli nie liczyć nieuniknionych stosów reklamowych „śmieci” w poczcie, większość informacji wysyłana jest do takiego pracownika po prostu „na wypadek”, gdyby ich potrzebował. Dodaj do tego „przedwczesne” informacje, które najprawdopodobniej będą potrzebne później, i oto główna zawartość kosza. Pracownik prawdopodobnie będzie przechowywać połowę informacji, które „mogą być potrzebne” i wszystkie informacje, które będą prawdopodobnie potrzebne w przyszłości. Kiedy zajdzie taka potrzeba, będzie musiał uporać się z obszernym, źle ustrukturyzowanym archiwum danych osobowych, a na tym etapie mogą pojawić się dodatkowe trudności, wynikające z tego, że są one przechowywane w plikach o różnych formatach na różnych nośnikach. Pojawienie się kserokopiarek jeszcze bardziej pogorszyło sytuację w przypadku informacji, „które mogą nagle okazać się potrzebne”. Liczba egzemplarzy zamiast spadać, tylko rośnie. E-mail tylko pogorszył problem. Dziś „wydawca” informacji może stworzyć własną, osobistą listę mailingową i za pomocą jednego polecenia wysłać niemal nieograniczoną liczbę egzemplarzy „na wszelki wypadek”, gdy okażą się potrzebne. Niektórzy z tych dystrybutorów informacji zdają sobie sprawę, że ich listy nie są dobre, ale zamiast je poprawiać, umieszczają na początku wiadomości notatkę o następującej treści: „Jeśli nie jesteś zainteresowany…, zniszcz tę wiadomość”. List w dalszym ciągu będzie zatykał skrzynkę pocztową, a odbiorca i tak będzie musiał spędzić czas na jego przeczytaniu i zniszczeniu. Dokładnym przeciwieństwem informacji „być może przydatnych” są informacje „aktualne”, czyli takie, na które istnieje zapotrzebowanie. Oczekiwano, że komputery i sieci pomogą w pracy z tego typu informacjami, jednak jak dotąd nie były w stanie sobie z tym poradzić. Wcześniej istniały dwie główne metody dostarczania informacji w odpowiednim czasie.

Podczas korzystania z pierwszego z nich informacja była dystrybuowana pomiędzy aplikacjami i systemami. Aby uzyskać do niego dostęp, użytkownik musiał przestudiować, a następnie stale przeprowadzać wiele skomplikowanych procedur dostępu. Po przyznaniu dostępu każda aplikacja wymagała własnego interfejsu. W obliczu takich trudności użytkownicy zwykle po prostu odmawiali otrzymywania aktualnych informacji. Udało im się opanować dostęp do jednej, dwóch aplikacji, ale do pozostałych już nie wystarczały.

Aby rozwiązać ten problem, niektóre przedsiębiorstwa próbowały gromadzić wszystkie rozproszone informacje w jednym głównym systemie. W rezultacie użytkownik otrzymał jeden sposób dostępu i jeden interfejs. Ponieważ jednak w tym przypadku wszystkie żądania przedsiębiorstw były przetwarzane centralnie, systemy te rozrosły się i stały się bardziej złożone. Minęło już ponad dziesięć lat, a wiele z nich nadal nie jest wypełnionych informacjami ze względu na wysokie koszty ich wprowadzenia i utrzymania. Tutaj były też inne problemy. Złożoność takich ujednoliconych systemów utrudniała ich modyfikację i użytkowanie. Aby wspierać dyskretne dane dotyczące procesów transakcyjnych, opracowano narzędzia do zarządzania takimi systemami. W ciągu ostatniej dekady dane, z którymi mamy do czynienia, stały się znacznie bardziej złożone, co utrudnia proces wsparcia informacyjnego. Zmieniający się charakter potrzeb informacyjnych i trudność zmiany w tym obszarze spowodowały powstanie dużych, centralnie zarządzanych systemów, które wstrzymują żądania na poziomie przedsiębiorstwa.

Technologia internetowa oferuje nowe podejście do dostarczania informacji na żądanie. Ponieważ wspiera autoryzację, publikację i zarządzanie rozproszonymi informacjami, nowa technologia nie wprowadza takich samych złożoności, jak starsze, scentralizowane systemy. Dokumenty są tworzone, utrzymywane i publikowane bezpośrednio przez autorów, bez konieczności proszenia programistów o tworzenie nowych formularzy wprowadzania danych i programów raportujących. Dzięki nowym systemom przeglądania użytkownik może uzyskiwać dostęp do informacji z rozproszonych źródeł i systemów oraz przeglądać je za pomocą prostego, ujednoliconego interfejsu, nie mając pojęcia, do jakich serwerów faktycznie uzyskuje dostęp. Te proste zmiany technologiczne zrewolucjonizują infrastrukturę informatyczną i zasadniczo zmienią sposób działania naszych organizacji.

Głównym wyróżnikiem tej technologii jest to, że kontrola nad przepływem informacji jest w rękach nie jej twórcy, ale konsumenta. Jeśli użytkownik może łatwo wyszukać i przejrzeć potrzebne informacje, nie trzeba już im ich przesyłać „na wszelki wypadek”, gdy są potrzebne. Proces wydawniczy może być teraz niezależny od automatycznego rozpowszechniania informacji. Obejmuje to formularze, raporty, standardy, harmonogramy spotkań, narzędzia umożliwiające sprzedaż, materiały szkoleniowe, harmonogramy i wiele innych dokumentów, które zwykle zapełniają nasze kosze na śmieci. Aby system działał, jak wspomniano powyżej, potrzebujemy nie tylko nowej infrastruktury informacyjnej, ale także nowego podejścia, nowej kultury. Jako twórcy informacji musimy nauczyć się je publikować bez rozpowszechniania, a jako użytkownicy musimy nauczyć się większej odpowiedzialności w identyfikowaniu i monitorowaniu naszych potrzeb informacyjnych, aktywnie i skutecznie zdobywając informacje, kiedy ich potrzebujemy.

Pojęcie „sieci korporacyjnych”. Ich główne funkcje.

Zanim porozmawiamy o sieciach prywatnych (korporacyjnych), musimy zdefiniować, co oznaczają te słowa. Ostatnio to zdanie stało się tak powszechne i modne, że zaczęło tracić na znaczeniu. W naszym rozumieniu sieć korporacyjna to system zapewniający przesyłanie informacji pomiędzy różnymi aplikacjami wykorzystywanymi w systemie korporacyjnym. W oparciu o tę całkowicie abstrakcyjną definicję rozważymy różne podejścia do tworzenia takich systemów i spróbujemy wypełnić koncepcję sieci korporacyjnej konkretną treścią. Jednocześnie wierzymy, że sieć powinna być jak najbardziej uniwersalna, czyli umożliwiać integrację istniejących i przyszłych aplikacji przy możliwie najniższych kosztach i ograniczeniach.

Sieć korporacyjna z reguły jest rozproszona geograficznie, tj. jednoczący biura, oddziały i inne struktury zlokalizowane w znacznych odległościach od siebie. Często węzły sieci korporacyjnej zlokalizowane są w różnych miastach, a czasem i krajach. Zasady według których buduje się taką sieć są zupełnie inne od tych stosowanych przy tworzeniu sieci lokalnej, obejmującej nawet kilka budynków. Główna różnica polega na tym, że sieci rozproszone geograficznie wykorzystują dość wolne (dziś dziesiątki i setki kilobitów na sekundę, czasami do 2 Mbit/s) dzierżawione linie komunikacyjne. Jeśli przy tworzeniu sieci lokalnej główne koszty dotyczą zakupu sprzętu i ułożenia kabli, to w sieciach rozproszonych geograficznie najważniejszym elementem kosztu jest opłata za wynajem za korzystanie z kanałów, która szybko rośnie wraz ze wzrostem jakości i prędkość transmisji danych. To ograniczenie jest fundamentalne i projektując sieć korporacyjną należy podjąć wszelkie działania, aby zminimalizować ilość przesyłanych danych. W przeciwnym razie sieć korporacyjna nie powinna narzucać ograniczeń na to, które aplikacje i w jaki sposób przetwarzają przesyłane przez nią informacje.

Przez aplikacje rozumiemy zarówno oprogramowanie systemowe – bazy danych, systemy pocztowe, zasoby obliczeniowe, usługi plikowe itp. – jak i narzędzia, z którymi pracuje użytkownik końcowy. Do głównych zadań sieci korporacyjnej należy interakcja aplikacji systemowych zlokalizowanych w różnych węzłach oraz dostęp do nich przez zdalnych użytkowników.

Pierwszym problemem, który należy rozwiązać przy tworzeniu sieci korporacyjnej, jest organizacja kanałów komunikacji. Jeśli w obrębie jednego miasta można liczyć na wynajem łączy dedykowanych, w tym szybkich, to przy przeprowadzce do węzłów geograficznie odległych koszt wynajmu kanałów staje się po prostu astronomiczny, a ich jakość i niezawodność często okazują się bardzo niskie. Naturalnym rozwiązaniem tego problemu jest wykorzystanie już istniejących sieci rozległych. W tym przypadku wystarczy udostępnić kanały z biur do najbliższych węzłów sieci. Sieć globalna podejmie się zadania dostarczania informacji pomiędzy węzłami. Nawet tworząc małą sieć w obrębie jednego miasta, należy mieć na uwadze możliwość dalszej rozbudowy i wykorzystania technologii kompatybilnych z istniejącymi sieciami globalnymi.

Często pierwszą lub nawet jedyną taką siecią, która przychodzi na myśl, jest Internet. Wykorzystanie Internetu w sieciach korporacyjnych W zależności od rozwiązywanych zadań Internet można rozpatrywać na różnych poziomach. Dla użytkownika końcowego jest to przede wszystkim ogólnoświatowy system świadczenia usług informacyjnych i pocztowych. Połączenie nowych technologii dostępu do informacji, zjednoczonych koncepcją sieci WWW, z tanim i publicznie dostępnym globalnym systemem komunikacji komputerowej, Internetem, dało początek nowym środkom masowego przekazu, które często nazywane są po prostu siecią. . Każdy, kto łączy się z tym systemem, postrzega go po prostu jako mechanizm dający dostęp do określonych usług. Realizacja tego mechanizmu okazuje się zupełnie nieistotna.

Kiedy wykorzystujemy Internet jako podstawę korporacyjnej sieci danych, pojawia się bardzo interesująca rzecz. Okazuje się, że Sieć wcale nie jest siecią. To jest właśnie Internet - wzajemne połączenie. Jeśli zajrzymy do Internetu, zobaczymy, że informacje przepływają przez wiele całkowicie niezależnych i w większości niekomercyjnych węzłów, połączonych szeroką gamą kanałów i sieci danych. Szybki rozwój usług świadczonych w Internecie prowadzi do przeciążenia węzłów i kanałów komunikacyjnych, co drastycznie zmniejsza szybkość i niezawodność przesyłania informacji. Jednocześnie dostawcy usług internetowych nie ponoszą żadnej odpowiedzialności za funkcjonowanie sieci jako całości, a kanały komunikacji rozwijają się wyjątkowo nierównomiernie i głównie tam, gdzie państwo uzna za konieczne w nie inwestować. W związku z tym nie ma gwarancji jakości sieci, szybkości przesyłania danych, a nawet po prostu dostępności komputerów. W przypadku zadań, w których liczy się niezawodność i gwarantowany czas dostarczenia informacji, Internet nie jest najlepszym rozwiązaniem. Dodatkowo Internet wiąże użytkowników jednym protokołem – IP. Jest to dobre, gdy korzystamy ze standardowych aplikacji, które współpracują z tym protokołem. Korzystanie z innych systemów z Internetem okazuje się trudne i kosztowne. Jeśli musisz zapewnić użytkownikom mobilnym dostęp do swojej sieci prywatnej, Internet również nie jest najlepszym rozwiązaniem.

Wydawać by się mogło, że nie powinno być tu większych problemów – dostawcy internetu są niemal wszędzie, weźcie laptopa z modemem, dzwońcie i pracujcie. Jednak dostawca, powiedzmy w Nowosybirsku, nie ma wobec ciebie żadnych zobowiązań, jeśli łączysz się z Internetem w Moskwie. Nie otrzyma od ciebie pieniędzy za usługi i oczywiście nie zapewni dostępu do sieci. Albo musisz zawrzeć z nim odpowiednią umowę, co jest mało rozsądne, jeśli wybierasz się w dwudniową podróż służbową, albo zadzwoń z Nowosybirska do Moskwy.

Kolejnym problemem Internetu, który jest ostatnio szeroko omawiany, jest bezpieczeństwo. Jeśli mówimy o sieci prywatnej, ochrona przesyłanych informacji przed wzrokiem ciekawskich wydaje się całkiem naturalna. Nieprzewidywalność ścieżek informacji pomiędzy wieloma niezależnymi węzłami Internetu nie tylko zwiększa ryzyko, że jakiś nadmiernie ciekawski operator sieci może umieścić Twoje dane na swoim dysku (technicznie nie jest to takie trudne), ale także uniemożliwia określenie miejsca wycieku informacji . Narzędzia szyfrujące rozwiązują problem tylko częściowo, ponieważ mają zastosowanie głównie do poczty, przesyłania plików itp. Rozwiązania, które pozwalają na szyfrowanie informacji w czasie rzeczywistym z akceptowalną szybkością (na przykład podczas bezpośredniej pracy ze zdalną bazą danych lub serwerem plików) są niedostępne i drogie. Kolejny aspekt problemu bezpieczeństwa ponownie wiąże się z decentralizacją Internetu – nie ma nikogo, kto mógłby ograniczyć dostęp do zasobów Twojej sieci prywatnej. Ponieważ jest to system otwarty, w którym każdy widzi każdego, każdy może spróbować dostać się do sieci biurowej i uzyskać dostęp do danych lub programów. Istnieją oczywiście środki ochrony (przyjmuje się dla nich nazwę Firewall - w języku rosyjskim, a dokładniej w języku niemieckim „firewall” - ściana ogniowa). Nie należy ich jednak uważać za panaceum – pamiętajmy o wirusach i programach antywirusowych. Każde zabezpieczenie można złamać, pod warunkiem, że opłaci się to kosztem włamania. Należy również zauważyć, że można uniemożliwić działanie systemu podłączonego do Internetu bez inwazji na sieć. Znane są przypadki nieuprawnionego dostępu do zarządzania węzłami sieci, czy po prostu wykorzystania funkcji architektury internetowej do zakłócenia dostępu do konkretnego serwera. Tym samym nie można rekomendować Internetu jako podstawy systemów wymagających niezawodności i szczelności. Łączenie się z Internetem w sieci firmowej ma sens, jeśli potrzebny jest dostęp do ogromnej przestrzeni informacyjnej, która w rzeczywistości nazywa się Siecią.

Sieć korporacyjna to złożony system, który obejmuje tysiące różnych komponentów: komputery różnych typów, od komputerów stacjonarnych po komputery typu mainframe, oprogramowanie systemowe i aplikacyjne, karty sieciowe, koncentratory, przełączniki i routery oraz system kablowy. Głównym zadaniem integratorów i administratorów systemów jest zadbanie o to, aby ten uciążliwy i bardzo kosztowny system jak najlepiej radził sobie z przetwarzaniem przepływu informacji krążących pomiędzy pracownikami przedsiębiorstwa oraz pozwalał im na podejmowanie terminowych i racjonalnych decyzji zapewniających przetrwanie przedsiębiorstwa. przedsiębiorstwo w ostrej konkurencji. A ponieważ życie nie stoi w miejscu, treść informacji korporacyjnych, intensywność jej przepływów i sposoby ich przetwarzania stale się zmieniają. Najnowszy przykład radykalnej zmiany technologii zautomatyzowanego przetwarzania informacji korporacyjnych widać gołym okiem - wiąże się to z niespotykanym w ostatnich 2-3 latach wzrostem popularności Internetu. Zmiany, jakie niesie ze sobą Internet, są wieloaspektowe. Usługa hipertekstowa WWW zmieniła sposób przedstawiania informacji ludziom, gromadząc na swoich stronach wszystkie popularne typy informacji – tekst, grafikę i dźwięk. Transport internetowy – niedrogi i dostępny niemal dla wszystkich przedsiębiorstw (a za pośrednictwem sieci telefonicznych także dla użytkowników indywidualnych) – znacząco uprościł zadanie budowy terytorialnej sieci korporacyjnej, podkreślając jednocześnie zadanie ochrony danych korporacyjnych podczas ich transmisji w wysoce dostępnym sieć publiczna z wielomilionową populacją. ”.

Technologie stosowane w sieciach korporacyjnych.

Przed przedstawieniem podstaw metodologii budowy sieci korporacyjnych należy przeprowadzić analizę porównawczą technologii, które można zastosować w sieciach korporacyjnych.

Nowoczesne technologie transmisji danych można sklasyfikować ze względu na sposoby transmisji danych. Ogólnie rzecz biorąc, istnieją trzy główne metody przesyłania danych:

przełączanie obwodów;

przełączanie wiadomości;

przełączanie pakietów.

Wszystkie inne metody interakcji są niejako ich ewolucyjnym rozwojem. Na przykład, jeśli wyobrażasz sobie technologie transmisji danych jako drzewo, wówczas gałąź przełączania pakietów zostanie podzielona na przełączanie ramek i przełączanie komórek. Przypomnijmy, że technologię przełączania pakietów opracowano ponad 30 lat temu w celu zmniejszenia kosztów ogólnych i poprawy wydajności istniejących systemów transmisji danych. Pierwsze technologie przełączania pakietów, X.25 i IP, zostały zaprojektowane do obsługi łączy o niskiej jakości. Dzięki poprawie jakości możliwe stało się wykorzystanie do transmisji informacji protokołu takiego jak HDLC, który znalazł swoje miejsce w sieciach Frame Relay. Chęć osiągnięcia większej produktywności i elastyczności technicznej była impulsem do rozwoju technologii SMDS, której możliwości zostały następnie rozszerzone poprzez standaryzację ATM. Jednym z parametrów, według którego można porównywać technologie, jest gwarancja dostarczenia informacji. Tym samym technologie X.25 i ATM gwarantują niezawodne dostarczanie pakietów (ta ostatnia wykorzystuje protokół SSCOP), natomiast Frame Relay i SMDS działają w trybie, w którym dostawa nie jest gwarantowana. Co więcej, technologia może zapewnić, że dane dotrą do odbiorcy w kolejności, w jakiej zostały wysłane. W przeciwnym razie należy przywrócić porządek u odbiorcy. Sieci z komutacją pakietów mogą skupiać się na nawiązaniu połączenia przed połączeniem lub po prostu przesyłać dane do sieci. W pierwszym przypadku obsługiwane mogą być zarówno stałe, jak i przełączane połączenia wirtualne. Ważnymi parametrami jest także obecność mechanizmów kontroli przepływu danych, systemu zarządzania ruchem, mechanizmów wykrywania i zapobiegania zatorom itp.

Porównań technologii można również dokonać w oparciu o kryteria takie jak efektywność schematów adresowania lub metody routingu. Na przykład używane adresowanie może być geograficzne (plan numeracji telefonicznej), WAN lub specyficzne dla sprzętu. Zatem protokół IP wykorzystuje adres logiczny składający się z 32 bitów, który jest przypisany do sieci i podsieci. Schemat adresowania E.164 jest przykładem schematu opartego na geolokalizacji, a adres MAC jest przykładem adresu sprzętowego. Technologia X.25 wykorzystuje Logiczny Numer Kanału (LCN), a przełączane połączenie wirtualne w tej technologii wykorzystuje schemat adresowania X.121. W technologii Frame Relay kilka łączy wirtualnych można „osadzić” w jednym łączu, przy czym oddzielne łącze wirtualne jest identyfikowane za pomocą identyfikatora DLCI (identyfikator połączenia łącza danych). Identyfikator ten jest podawany w każdej transmitowanej ramce. DLCI ma jedynie znaczenie lokalne; innymi słowy, nadawca może zidentyfikować kanał wirtualny jednym numerem, a odbiorca zupełnie innym numerem. Wirtualne połączenia telefoniczne w tej technologii opierają się na schemacie numeracji E.164. Nagłówki komórek ATM zawierają unikalne identyfikatory VCI/VPI, które zmieniają się w miarę przechodzenia komórek przez pośrednie systemy przełączające. Wirtualne połączenia telefoniczne w technologii ATM mogą wykorzystywać schemat adresowania E.164 lub AESA.

Trasowanie pakietów w sieci może odbywać się statycznie lub dynamicznie i może stanowić ustandaryzowany mechanizm dla określonej technologii lub działać jako podstawa techniczna. Przykładami standardowych rozwiązań są protokoły routingu dynamicznego OSPF lub RIP dla IP. W odniesieniu do technologii ATM Forum ATM zdefiniowało protokół routingu żądań nawiązania komutowanych połączeń wirtualnych, PNNI, którego cechą wyróżniającą jest uwzględnianie informacji o jakości usług.

Idealną opcją dla sieci prywatnej byłoby utworzenie kanałów komunikacyjnych tylko w tych obszarach, gdzie są one potrzebne i przesyłanie za ich pośrednictwem wszelkich protokołów sieciowych wymaganych przez uruchomione aplikacje. Na pierwszy rzut oka jest to powrót do dzierżawionych łączy komunikacyjnych, jednak istnieją technologie budowy sieci transmisji danych, które pozwalają organizować w ich obrębie kanały, które pojawiają się tylko we właściwym czasie i we właściwym miejscu. Takie kanały nazywane są wirtualnymi. System łączący zdalne zasoby za pomocą kanałów wirtualnych można naturalnie nazwać siecią wirtualną. Obecnie istnieją dwie główne technologie sieci wirtualnych — sieci z komutacją obwodów i sieci z komutacją pakietów. Do tych pierwszych zalicza się zwykłą sieć telefoniczną, ISDN i szereg innych, bardziej egzotycznych technologii. Sieci z komutacją pakietów obejmują technologie X.25, Frame Relay, a ostatnio także technologie ATM. Jest zbyt wcześnie, aby mówić o wykorzystaniu ATM w sieciach rozproszonych geograficznie. Inne rodzaje sieci wirtualnych (w różnych kombinacjach) znajdują szerokie zastosowanie w budowie korporacyjnych systemów informatycznych.

Sieci z komutacją łączy zapewniają abonentowi wiele kanałów komunikacyjnych o stałej przepustowości na połączenie. Dobrze znana sieć telefoniczna zapewnia jeden kanał komunikacji pomiędzy abonentami. Jeśli chcesz zwiększyć liczbę jednocześnie dostępnych zasobów, musisz zainstalować dodatkowe numery telefonów, co jest bardzo kosztowne. Nawet jeśli zapomnimy o niskiej jakości komunikacji, ograniczenie liczby kanałów i długi czas realizacji połączenia nie pozwalają na wykorzystanie komunikacji telefonicznej jako podstawy sieci korporacyjnej. W przypadku łączenia poszczególnych zdalnych użytkowników jest to dość wygodna i często jedyna dostępna metoda.

Innym przykładem sieci wirtualnej z komutacją łączy jest ISDN (Integrated Services Digital Network). ISDN zapewnia kanały cyfrowe (64 kbit/s), które mogą przesyłać zarówno głos, jak i dane. Podstawowe łącze ISDN (Basic Rate Interface) obejmuje dwa takie kanały oraz dodatkowy kanał sterujący o szybkości 16 kbit/s (ta kombinacja określana jest mianem 2B+D). Możliwe jest wykorzystanie większej liczby kanałów – aż do trzydziestu (Interfejs Podstawowej Stawki, 30B+D), ale wiąże się to z odpowiednim wzrostem kosztów sprzętu i kanałów komunikacyjnych. Ponadto koszty wynajmu i korzystania z sieci rosną proporcjonalnie. Ogólnie rzecz biorąc, ograniczenia liczby jednocześnie dostępnych zasobów narzucone przez ISDN powodują, że ten rodzaj komunikacji jest wygodny w użyciu głównie jako alternatywa dla sieci telefonicznych. W systemach z małą liczbą węzłów ISDN może być również używany jako główny protokół sieciowy. Trzeba tylko pamiętać, że dostęp do ISDN w naszym kraju to wciąż raczej wyjątek niż reguła.

Alternatywą dla sieci z komutacją obwodów są sieci z komutacją pakietów. W przypadku korzystania z komutacji pakietów jeden kanał komunikacyjny jest wykorzystywany przez wielu użytkowników w trybie podziału czasu - podobnie jak w Internecie. Jednak w przeciwieństwie do sieci takich jak Internet, gdzie każdy pakiet jest kierowany osobno, sieci z przełączaniem pakietów wymagają ustanowienia połączenia między zasobami końcowymi, zanim będzie można przesłać informacje. Po nawiązaniu połączenia sieć „zapamiętuje” trasę (kanał wirtualny), którą powinna być przesyłana informacja pomiędzy abonentami i pamięta ją do momentu otrzymania sygnału o zerwaniu połączenia. W przypadku aplikacji działających w sieci z komutacją pakietów obwody wirtualne wyglądają jak zwykłe linie komunikacyjne - jedyną różnicą jest to, że ich przepustowość i wprowadzane opóźnienia różnią się w zależności od obciążenia sieci.

Klasyczną technologią przełączania pakietów jest protokół X.25. Obecnie zwyczajem jest marszczenie nosa na te słowa i mówienie: „to jest drogie, powolne, przestarzałe i niemodne”. Rzeczywiście, obecnie praktycznie nie ma sieci X.25 wykorzystujących prędkości powyżej 128 kbit/s. Protokół X.25 oferuje potężne możliwości korekcji błędów, zapewniając niezawodne dostarczanie informacji nawet na słabych liniach i jest szeroko stosowany tam, gdzie nie są dostępne wysokiej jakości kanały komunikacji. W naszym kraju nie są one dostępne niemal wszędzie. Za niezawodność trzeba oczywiście zapłacić – w tym przypadku za szybkość działania sprzętu sieciowego i stosunkowo duże – choć przewidywalne – opóźnienia w dystrybucji informacji. Jednocześnie X.25 jest protokołem uniwersalnym, pozwalającym na przesyłanie niemal każdego rodzaju danych. „Naturalne” dla sieci X.25 jest działanie aplikacji korzystających ze stosu protokołów OSI. Należą do nich systemy wykorzystujące standardy X.400 (e-mail) i FTAM (wymiana plików), a także kilka innych. Dostępne są narzędzia umożliwiające realizację interakcji systemów Unix w oparciu o protokoły OSI. Kolejną standardową cechą sieci X.25 jest komunikacja poprzez zwykłe asynchroniczne porty COM. Mówiąc obrazowo, sieć X.25 przedłuża kabel podłączony do portu szeregowego, przenosząc jego złącze do zdalnych zasobów. W ten sposób prawie każdą aplikację, do której można uzyskać dostęp poprzez port COM, można łatwo zintegrować z siecią X.25. Przykładami takich aplikacji jest nie tylko dostęp terminalowy do zdalnych komputerów hostów, takich jak maszyny uniksowe, ale także interakcja komputerów uniksowych między sobą (cu, uucp), systemy oparte na Lotus Notes, cc:Mail i MS e-mail Mail itp. Aby połączyć sieci LAN w węzłach podłączonych do sieci X.25, istnieją metody pakowania („hermetyzowania”) pakietów informacyjnych z sieci lokalnej w pakiety X.25. Część informacji serwisowych nie jest przesyłana, ponieważ można je jednoznacznie odtworzyć po stronie odbiorcy. Za standardowy mechanizm enkapsulacji uważa się ten opisany w RFC 1356. Umożliwia on jednoczesną transmisję różnych protokołów sieci lokalnej (IP, IPX itp.) za pośrednictwem jednego połączenia wirtualnego. Ten mechanizm (lub starsza implementacja RFC 877 obsługująca wyłącznie protokół IP) jest zaimplementowany w prawie wszystkich nowoczesnych routerach. Istnieją również metody przesyłania innych protokołów komunikacyjnych po X.25, w szczególności SNA, stosowanego w sieciach mainframe IBM, a także szereg zastrzeżonych protokołów różnych producentów. Zatem sieci X.25 oferują uniwersalny mechanizm transportowy do przesyłania informacji pomiędzy praktycznie każdą aplikacją. W tym przypadku różne rodzaje ruchu są przesyłane jednym kanałem komunikacyjnym, nic o sobie nie „wiedząc”. Dzięki agregacji sieci LAN przez X.25 możesz odizolować od siebie oddzielne części sieci firmowej, nawet jeśli korzystają z tych samych linii komunikacyjnych. Ułatwia to rozwiązywanie problemów związanych z bezpieczeństwem i kontrolą dostępu, które nieuchronnie pojawiają się w złożonych strukturach informacyjnych. Ponadto w wielu przypadkach nie ma potrzeby stosowania skomplikowanych mechanizmów routingu, przenosząc to zadanie na sieć X.25. Obecnie na świecie działają dziesiątki publicznych, globalnych sieci X.25, których węzły zlokalizowane są w niemal wszystkich większych ośrodkach biznesowych, przemysłowych i administracyjnych. W Rosji usługi X.25 oferują Sprint Network, Infotel, Rospak, Rosnet, Sovam Teleport i wielu innych dostawców. Oprócz łączenia zdalnych węzłów sieci X.25 zawsze zapewniają użytkownikom końcowym możliwości dostępu. Aby połączyć się z dowolnym zasobem sieci X.25 wystarczy, że użytkownik posiada komputer z asynchronicznym portem szeregowym oraz modem. Jednocześnie nie ma problemów z autoryzacją dostępu w odległych geograficznie węzłach - po pierwsze, sieci X.25 są dość scentralizowane i zawierając umowę np. z firmą Sprint Network lub jej partnerem, można korzystać z usług którykolwiek z węzłów Sprintnet – a są to tysiące miast na całym świecie, w tym ponad sto w byłym ZSRR. Po drugie, istnieje protokół interakcji między różnymi sieciami (X.75), który uwzględnia również kwestie płatności. Jeśli więc Twój zasób jest podłączony do sieci X.25, możesz uzyskać do niego dostęp zarówno z węzłów swojego dostawcy, jak i poprzez węzły w innych sieciach – czyli praktycznie z dowolnego miejsca na świecie. Z punktu widzenia bezpieczeństwa sieci X.25 oferują szereg bardzo atrakcyjnych możliwości. Po pierwsze, ze względu na samą strukturę sieci, koszt przechwytywania informacji w sieci X.25 okazuje się na tyle wysoki, że może już służyć jako dobra ochrona. Problem nieautoryzowanego dostępu można dość skutecznie rozwiązać również za pomocą samej sieci. Jeżeli jakiekolwiek – nawet najmniejsze – ryzyko wycieku informacji okaże się niedopuszczalne, wówczas konieczne jest oczywiście wykorzystanie narzędzi szyfrujących, także w czasie rzeczywistym. Obecnie istnieją narzędzia szyfrujące zaprojektowane specjalnie dla sieci X. 25 i pozwalający na pracę z dość dużymi prędkościami - do 64 kbit/s. Taki sprzęt jest produkowany przez Racal, Cylink, Siemens. Pod auspicjami FAPSI powstają także inwestycje krajowe. Wadą technologii X.25 jest obecność szeregu podstawowych ograniczeń prędkości. Pierwsza z nich wiąże się właśnie z rozwiniętymi możliwościami korekcji i renowacji. Cechy te powodują opóźnienia w transmisji informacji oraz wymagają dużej mocy obliczeniowej i wydajności sprzętu X.25, w efekcie czego po prostu nie nadąża on za szybkimi liniami komunikacyjnymi. Chociaż istnieją urządzenia posiadające porty dwumegabitowe, to faktycznie zapewniana przez nie prędkość nie przekracza 250 – 300 kbit/s na port. Z drugiej strony, w przypadku nowoczesnych szybkich linii komunikacyjnych, narzędzia korekcyjne X.25 okazują się zbędne, a gdy są używane, zasilanie sprzętu często jest bezczynne. Drugą cechą, która sprawia, że ​​sieci X.25 są uważane za powolne, są funkcje enkapsulacji protokołów LAN (głównie IP i IPX). Przy niezmienionych pozostałych czynnikach komunikacja LAN przez X.25 jest, w zależności od parametrów sieci, o 15–40 procent wolniejsza niż w przypadku korzystania z HDLC przez łącze dzierżawione. Co więcej, im gorsza linia komunikacyjna, tym większa utrata wydajności. Znowu mamy do czynienia z oczywistą redundancją: protokoły LAN mają swoje własne narzędzia do korekcji i odzyskiwania danych (TCP, SPX), jednak korzystając z sieci X.25 trzeba to zrobić jeszcze raz, tracąc na szybkości.

Z tego powodu sieci X.25 uznawane są za powolne i przestarzałe. Zanim jednak powiemy, że jakakolwiek technologia jest przestarzała, należy wskazać, do jakich zastosowań i w jakich warunkach. Na łączach komunikacyjnych niskiej jakości sieci X.25 są dość skuteczne i zapewniają znaczne korzyści pod względem ceny i możliwości w porównaniu z łączami dzierżawionymi. Z drugiej strony, nawet jeśli liczymy na szybką poprawę jakości komunikacji – warunek konieczny dezaktualizacji X.25 – to inwestycja w sprzęt X.25 nie zostanie stracona, gdyż nowoczesny sprzęt obejmuje możliwość migracji do Technologia Frame Relay.

Sieci Frame Relay

Technologia Frame Relay pojawiła się jako sposób na wykorzystanie korzyści płynących z przełączania pakietów na szybkich liniach komunikacyjnych. Główną różnicą pomiędzy sieciami Frame Relay i X.25 jest to, że eliminują one korekcję błędów pomiędzy węzłami sieci. Zadania przywrócenia przepływu informacji przypisane są urządzeniom końcowym i oprogramowaniu użytkowników. Wymaga to oczywiście wykorzystania kanałów komunikacji o odpowiednio wysokiej jakości. Uważa się, że aby pomyślnie współpracować z Frame Relay, prawdopodobieństwo błędu w kanale nie powinno być większe niż 10-6 - 10-7, tj. nie więcej niż jeden uszkodzony bit na kilka milionów. Jakość zapewniana przez konwencjonalne linie analogowe jest zwykle o jeden do trzech rzędów wielkości niższa. Druga różnica między sieciami Frame Relay polega na tym, że obecnie prawie wszystkie z nich implementują jedynie mechanizm stałego połączenia wirtualnego (PVC). Oznacza to, że podłączając się do portu Frame Relay, musisz wcześniej określić, do jakich zdalnych zasobów będziesz mieć dostęp. Zasada przełączania pakietów – wiele niezależnych połączeń wirtualnych w jednym kanale komunikacyjnym – pozostaje bez zmian, ale nie można wybrać adresu żadnego abonenta sieci. Wszystkie dostępne zasoby są określane podczas konfigurowania portu. Zatem w oparciu o technologię Frame Relay wygodnie jest budować zamknięte sieci wirtualne służące do transmisji innych protokołów, za pośrednictwem których realizowany jest routing. „Zamknięcie” sieci wirtualnej oznacza, że ​​jest ona całkowicie niedostępna dla innych użytkowników tej samej sieci Frame Relay. Na przykład w USA sieci Frame Relay są powszechnie stosowane jako szkielety Internetu. Jednakże Twoja sieć prywatna może korzystać z obwodów wirtualnych Frame Relay na tych samych liniach, co ruch internetowy i być od niej całkowicie odizolowana. Podobnie jak sieci X.25, Frame Relay zapewnia uniwersalne medium transmisyjne dla praktycznie każdego zastosowania. Głównym obszarem zastosowania Frame Relay jest dziś łączenie zdalnych sieci LAN. W takim przypadku korekcja błędów i odzyskiwanie informacji odbywa się na poziomie protokołów transportowych sieci LAN - TCP, SPX itp. Straty na enkapsulacji ruchu LAN w Frame Relay nie przekraczają dwóch do trzech procent. Metody enkapsulacji protokołów LAN w Frame Relay opisano w specyfikacjach RFC 1294 i RFC 1490. RFC 1490 definiuje również transmisję ruchu SNA przez Frame Relay. Specyfikacja ANSI T1.617, załącznik G, opisuje użycie protokołu X.25 w sieciach Frame Relay. W tym przypadku wykorzystywane są wszystkie funkcje adresowania, korekcji i odtwarzania X. 25 - ale tylko pomiędzy węzłami końcowymi realizującymi Załącznik G. Stałe połączenie poprzez sieć Frame Relay w tym przypadku wygląda jak "prosty przewód", po którym przesyłany jest ruch X.25. Można wybrać parametry X.25 (rozmiar pakietu i okna), aby uzyskać najniższe możliwe opóźnienia propagacji i straty prędkości podczas enkapsulacji protokołów LAN. Brak korekcji błędów i złożone mechanizmy przełączania pakietów charakterystyczne dla X.25 umożliwiają przesyłanie informacji przez Frame Relay z minimalnymi opóźnieniami. Dodatkowo możliwe jest włączenie mechanizmu priorytetyzacji, który pozwala użytkownikowi mieć gwarantowaną minimalną szybkość przesyłania informacji dla kanału wirtualnego. Ta funkcja umożliwia wykorzystanie protokołu Frame Relay do przesyłania w czasie rzeczywistym informacji, w przypadku których opóźnienie jest krytyczne, takich jak głos i obraz. Ta stosunkowo nowa funkcja staje się coraz bardziej popularna i często jest głównym powodem wyboru protokołu Frame Relay jako szkieletu sieci korporacyjnej. Należy pamiętać, że dziś usługi sieciowe Frame Relay dostępne są w naszym kraju w nie więcej niż półtora tuzinie miast, natomiast X.25 jest dostępny w około dwustu. Istnieją podstawy, aby sądzić, że wraz z rozwojem kanałów komunikacyjnych technologia Frame Relay będzie coraz bardziej rozpowszechniona – przede wszystkim tam, gdzie obecnie istnieją sieci X.25. Niestety nie ma jednego standardu opisującego interakcję różnych sieci Frame Relay, więc użytkownicy są zamknięci w jednym dostawcy usług. Jeśli zajdzie potrzeba rozszerzenia obszaru geograficznego, możliwe jest podłączenie w jednym punkcie do sieci różnych dostawców – co wiąże się z odpowiednim wzrostem kosztów. Istnieją także prywatne sieci Frame Relay działające w obrębie jednego miasta lub wykorzystujące dedykowane kanały dalekobieżne – zazwyczaj satelitarne. Budowa sieci prywatnych w oparciu o Frame Relay pozwala na redukcję liczby łączy dzierżawionych oraz integrację transmisji głosu i danych.

Struktura sieci korporacyjnej. Sprzęt komputerowy.

Budując sieć rozproszoną geograficznie, można zastosować wszystkie opisane powyżej technologie. Aby połączyć użytkowników zdalnych, najprostszą i najtańszą opcją jest skorzystanie z komunikacji telefonicznej. Tam, gdzie jest to możliwe, można stosować sieci ISDN. Do łączenia węzłów sieciowych w większości przypadków wykorzystywane są globalne sieci danych. Nawet tam, gdzie istnieje możliwość ułożenia dedykowanych łączy (np. w obrębie tego samego miasta), zastosowanie technologii komutacji pakietów pozwala na ograniczenie liczby niezbędnych kanałów komunikacyjnych i, co ważne, zapewnienie kompatybilności systemu z istniejącymi sieciami globalnymi. Podłączenie sieci firmowej do Internetu jest uzasadnione, jeśli potrzebny jest dostęp do odpowiednich usług. Internet jako medium transmisji danych warto wykorzystywać tylko wtedy, gdy inne metody nie są dostępne, a względy finansowe przeważają nad wymogami niezawodności i bezpieczeństwa. Jeśli Internet będzie wykorzystywany jedynie jako źródło informacji, lepiej jest skorzystać z technologii dial-on-demand, czyli tzw. ten sposób połączenia, gdy połączenie z węzłem internetowym zostaje nawiązane tylko z Twojej inicjatywy i na czas, jakiego potrzebujesz. To znacznie zmniejsza ryzyko nieuprawnionego wejścia do Twojej sieci z zewnątrz. Najprostszym sposobem zapewnienia tego połączenia jest połączenie się z Internetem za pośrednictwem linii telefonicznej lub, jeśli to możliwe, poprzez ISDN. Innym, bardziej niezawodnym sposobem zapewnienia łączności na żądanie jest wykorzystanie łącza dzierżawionego i protokołu X.25 lub – znacznie korzystniej – Frame Relay. W takim przypadku router po Twojej stronie powinien być skonfigurowany tak, aby zrywał połączenie wirtualne w przypadku braku danych przez określony czas i nawiązywał je ponownie dopiero wtedy, gdy po Twojej stronie pojawią się dane. Powszechnie stosowane metody połączeń wykorzystujące PPP lub HDLC nie dają takiej możliwości. Jeśli chcesz udostępnić swoje dane w Internecie - na przykład zainstalować serwer WWW lub FTP, połączenie na żądanie nie ma zastosowania. W takim przypadku należy nie tylko zastosować ograniczenie dostępu za pomocą zapory sieciowej, ale także maksymalnie odizolować serwer internetowy od innych zasobów. Dobrym rozwiązaniem jest wykorzystanie jednego punktu podłączenia do Internetu dla całej rozproszonej geograficznie sieci, której węzły są połączone ze sobą za pomocą kanałów wirtualnych X.25 lub Frame Relay. W tym przypadku dostęp z Internetu jest możliwy do jednego węzła, natomiast użytkownicy w pozostałych węzłach mogą uzyskać dostęp do Internetu za pomocą połączenia na żądanie.

Do przesyłania danych w sieci firmowej warto także wykorzystać kanały wirtualne sieci komutacji pakietów. Główne zalety tego podejścia – wszechstronność, elastyczność, bezpieczeństwo – zostały szczegółowo omówione powyżej. Zarówno X.25, jak i Frame Relay mogą być używane jako sieć wirtualna podczas budowania korporacyjnego systemu informacyjnego. O wyborze pomiędzy nimi decyduje jakość kanałów komunikacyjnych, dostępność usług w punktach przyłączenia i wreszcie względy finansowe. Obecnie koszty wykorzystania protokołu Frame Relay w komunikacji na duże odległości są kilkukrotnie wyższe niż w przypadku sieci X.25. Z drugiej strony wyższe prędkości przesyłu danych oraz możliwość jednoczesnego przesyłania danych i głosu mogą być decydującymi argumentami na korzyść Frame Relay. W tych obszarach sieci korporacyjnej, gdzie dostępne są łącza dzierżawione, bardziej preferowana jest technologia Frame Relay. W tym przypadku możliwe jest zarówno łączenie sieci lokalnych i łączenie się z Internetem, jak i korzystanie z tych aplikacji, które tradycyjnie wymagają X.25. Dodatkowo możliwa jest komunikacja telefoniczna pomiędzy węzłami poprzez tę samą sieć. W przypadku Frame Relay lepiej jest używać cyfrowych kanałów komunikacji, ale nawet na liniach fizycznych lub kanałach częstotliwości głosowych można stworzyć całkiem efektywną sieć, instalując odpowiedni sprzęt kanałowy. Dobre wyniki uzyskuje się stosując modemy Motorola 326x SDC, które posiadają unikalne możliwości korekcji i kompresji danych w trybie synchronicznym. Dzięki temu możliwe jest – kosztem wprowadzenia niewielkich opóźnień – znaczne podniesienie jakości kanału komunikacyjnego i osiągnięcie efektywnych prędkości do 80 kbit/s i wyższych. Na krótkich liniach fizycznych można również zastosować modemy krótkiego zasięgu, zapewniające dość duże prędkości. Wymagana jest tu jednak wysoka jakość łącza, ponieważ modemy krótkiego zasięgu nie obsługują żadnej korekcji błędów. Powszechnie znane są modemy krótkiego zasięgu RAD, a także sprzęt PairGain, który pozwala na osiągnięcie prędkości 2 Mbit/s na liniach fizycznych o długości około 10 km. Do podłączenia użytkowników zdalnych do sieci korporacyjnej można wykorzystać węzły dostępowe sieci X.25, a także własne węzły komunikacyjne. W tym drugim przypadku należy przydzielić wymaganą liczbę numerów telefonicznych (lub kanałów ISDN), co może być zbyt kosztowne. Jeśli chcesz podłączyć jednocześnie dużą liczbę użytkowników, tańszą opcją może być wykorzystanie węzłów dostępowych sieci X. 25, nawet w tym samym mieście.

Sieć korporacyjna to dość złożona struktura, która wykorzystuje różne rodzaje komunikacji, protokoły komunikacyjne i metody łączenia zasobów. Z punktu widzenia łatwości budowy i zarządzania siecią należy skupić się na sprzęcie tego samego typu, pochodzącego od jednego producenta. Praktyka pokazuje jednak, że nie ma dostawców oferujących najskuteczniejsze rozwiązania wszystkich pojawiających się problemów. Działająca sieć jest zawsze wynikiem kompromisu – albo jest to system jednorodny, nieoptymalny pod względem ceny i możliwości, albo bardziej złożona kombinacja produktów różnych producentów do zainstalowania i zarządzania. Następnie przyjrzymy się narzędziom do budowy sieci kilku wiodących producentów i podamy zalecenia dotyczące ich stosowania.

Cały sprzęt sieci transmisji danych można podzielić na dwie duże klasy -

1. urządzenie peryferyjne, które służy do podłączenia węzłów końcowych do sieci, oraz

2. szkielet lub szkielet, który realizuje główne funkcje sieci (przełączanie kanałów, routing itp.).

Nie ma wyraźnej granicy pomiędzy tymi typami – te same urządzenia można wykorzystywać w różnych pojemnościach lub łączyć obie funkcje. Należy zaznaczyć, że sprzęt szkieletowy zwykle podlega podwyższonym wymaganiom w zakresie niezawodności, wydajności, liczby portów i możliwości dalszej rozbudowy.

Urządzenia peryferyjne są niezbędnym elementem każdej sieci korporacyjnej. Funkcje węzłów szkieletowych może przejąć globalna sieć transmisji danych, do której przyłączone są zasoby. Z reguły węzły szkieletowe pojawiają się w sieci korporacyjnej tylko w przypadku korzystania z dzierżawionych kanałów komunikacyjnych lub tworzenia własnych węzłów dostępowych. Urządzenia peryferyjne sieci korporacyjnych, ze względu na pełnione przez nie funkcje, również można podzielić na dwie klasy.

Po pierwsze, są to routery, które służą do łączenia jednorodnych sieci LAN (zwykle IP lub IPX) za pośrednictwem globalnych sieci danych. W sieciach, które jako główny protokół wykorzystują IP lub IPX – szczególnie w Internecie – routery wykorzystywane są także jako sprzęt szkieletowy, zapewniający łączenie różnych kanałów i protokołów komunikacyjnych. Routery mogą być wdrażane jako urządzenia samodzielne lub jako oprogramowanie oparte na komputerach i specjalnych adapterach komunikacyjnych.

Drugim powszechnie stosowanym rodzajem urządzeń peryferyjnych są bramki), które realizują interakcję aplikacji działających w różnych typach sieci. Sieci korporacyjne korzystają głównie z bram OSI, które zapewniają łączność LAN z zasobami X.25, oraz bram SNA, które zapewniają łączność z sieciami IBM. W pełni funkcjonalna brama jest zawsze kompleksem sprzętowo-programowym, ponieważ musi zapewniać interfejsy programowe niezbędne dla aplikacji. Routery Cisco Systems Wśród routerów chyba najbardziej znane są produkty Cisco Systems, które implementują szeroką gamę narzędzi i protokołów wykorzystywanych w interakcji w sieciach lokalnych. Sprzęt Cisco obsługuje różnorodne metody połączeń, w tym X.25, Frame Relay i ISDN, co pozwala na tworzenie dość skomplikowanych systemów. Ponadto w rodzinie routerów Cisco znajdują się doskonałe serwery zdalnego dostępu do sieci lokalnych, a niektóre konfiguracje częściowo implementują funkcje bramy (co w terminologii Cisco nazywa się translacją protokołów).

Głównym obszarem zastosowań routerów Cisco są złożone sieci wykorzystujące protokół IP lub rzadziej IPX jako główny protokół. W szczególności sprzęt Cisco jest szeroko stosowany w szkieletach Internetu. Jeśli sieć korporacyjna jest zaprojektowana głównie do łączenia zdalnych sieci LAN i wymaga złożonego routingu IP lub IPX przez heterogeniczne łącza i sieci danych, wówczas prawdopodobnie najlepszym wyborem będzie użycie sprzętu Cisco. Narzędzia do pracy z Frame Relay i X.25 są zaimplementowane w routerach Cisco tylko w zakresie niezbędnym do połączenia sieci lokalnych i uzyskania do nich dostępu. Jeśli chcesz zbudować swój system w oparciu o sieci z komutacją pakietów, to routery Cisco mogą w nim pracować jedynie jako sprzęt czysto peryferyjny, a wiele funkcji routingu jest zbędnych, a co za tym idzie, cena jest zbyt wysoka. Najciekawsze do zastosowania w sieciach korporacyjnych są serwery dostępowe Cisco 2509, Cisco 2511 oraz nowe urządzenia z serii Cisco 2520. Ich głównym obszarem zastosowania jest zdalny dostęp użytkowników do sieci lokalnych za pośrednictwem linii telefonicznych lub ISDN z dynamicznym przydzielaniem adresów IP (DHCP). Sprzęt Motorola ISG Wśród sprzętu przeznaczonego do współpracy z X.25 i Frame Relay najciekawsze są produkty produkowane przez Motorola Corporation Information Systems Group (Motorola ISG). W przeciwieństwie do urządzeń szkieletowych stosowanych w globalnych sieciach danych (Northern Telecom, Sprint, Alcatel itp.), sprzęt Motoroli może działać całkowicie autonomicznie, bez specjalnego centrum zarządzania siecią. W przypadku sprzętu Motoroli zakres możliwości ważnych do wykorzystania w sieciach korporacyjnych jest znacznie szerszy. Na szczególną uwagę zasługują opracowane sposoby modernizacji sprzętu i oprogramowania, które pozwalają na łatwe dostosowanie sprzętu do specyficznych warunków. Wszystkie produkty Motorola ISG mogą działać jako przełączniki X.25/Frame Relay, wieloprotokołowe urządzenia dostępowe (PAD, FRAD, SLIP, PPP itp.), obsługiwać załącznik G (X.25 przez Frame Relay), zapewniać konwersję protokołu SNA ( SDLC/QLLC/RFC1490). Sprzęt Motorola ISG można podzielić na trzy grupy, różniące się zestawem sprzętu i zakresem zastosowania.

Pierwszą grupą, przeznaczoną do pracy jako urządzenia peryferyjne, jest seria Vanguard. Obejmuje węzły dostępu szeregowego Vanguard 100 (2-3 porty) i Vanguard 200 (6 portów), a także routery Vanguard 300/305 (1-3 porty szeregowe i port Ethernet/Token Ring) oraz routery Vanguard 310 ISDN. Vanguard, oprócz zestawu możliwości komunikacyjnych, obejmuje transmisję protokołów IP, IPX i Appletalk poprzez X.25, Frame Relay i PPP. Naturalnie jednocześnie obsługiwany jest zestaw dla dżentelmenów niezbędny w każdym nowoczesnym routerze - protokoły RIP i OSPF, narzędzia do filtrowania i ograniczania dostępu, kompresja danych itp.

Kolejną grupą produktów Motorola ISG są urządzenia Multimedia Peripheral Router (MProuter) 6520 i 6560, które różnią się przede wszystkim wydajnością i możliwościami rozbudowy. W podstawowej konfiguracji modele 6520 i 6560 posiadają odpowiednio pięć i trzy porty szeregowe oraz port Ethernet, natomiast model 6560 posiada wszystkie porty high-speed (do 2 Mbps), a 6520 posiada trzy porty z szybkością do 80 kbps. MProuter obsługuje wszystkie protokoły komunikacyjne i możliwości routingu dostępne dla produktów Motorola ISG. Główną cechą MPRoutera jest możliwość instalacji szeregu dodatkowych kart, co znajduje odzwierciedlenie w słowie Multimedia w jego nazwie. Istnieją karty portów szeregowych, porty Ethernet/Token Ring, karty ISDN i koncentratory Ethernet. Najbardziej interesującą funkcją MProutera jest funkcja Voice over Frame Relay. W tym celu instaluje się w nim specjalne tablice, umożliwiające podłączenie konwencjonalnych aparatów telefonicznych lub faksowych, a także central analogowych (E&M) i cyfrowych (E1, T1). Liczba jednocześnie obsługiwanych kanałów głosowych może sięgać dwóch lub kilkunastu. Dzięki temu MProuter może być używany jednocześnie jako narzędzie do integracji głosu i danych, router i węzeł X.25/Frame Relay.

Trzecia grupa produktów Motorola ISG to sprzęt szkieletowy dla sieci globalnych. Są to rozszerzalne urządzenia z rodziny 6500plus, o konstrukcji odpornej na awarie i redundancji, zaprojektowane z myślą o tworzeniu wydajnych węzłów przełączających i dostępowych. Zawierają różne zestawy modułów procesorowych i modułów we/wy, co pozwala na tworzenie wysokowydajnych węzłów z od 6 do 54 portami. W sieciach korporacyjnych takie urządzenia można wykorzystać do budowy złożonych systemów z dużą liczbą połączonych zasobów.

Interesujące jest porównanie routerów Cisco i Motorola. Można powiedzieć, że dla Cisco routing jest sprawą pierwotną, a protokoły komunikacyjne są jedynie środkiem komunikacji, natomiast Motorola skupia się na możliwościach komunikacyjnych, traktując routing jako kolejną usługę realizowaną z wykorzystaniem tych możliwości. Ogólnie rzecz biorąc, możliwości routingu produktów Motoroli są gorsze niż Cisco, ale są wystarczające do podłączenia węzłów końcowych do Internetu lub sieci korporacyjnej.

Wydajność produktów Motoroli, przy pozostałych czynnikach niezmienionych, jest być może jeszcze wyższa i przy niższej cenie. Tym samym Vanguard 300, przy porównywalnym zestawie możliwości, okazuje się około półtora razy tańszy od swojego najbliższego odpowiednika, czyli Cisco 2501.

Rozwiązania technologiczne Eicon

W wielu przypadkach wygodnie jest zastosować rozwiązania kanadyjskiej firmy Eicon Technology jako urządzenia peryferyjne dla sieci korporacyjnych. Podstawą rozwiązań Eicon jest uniwersalny adapter komunikacyjny EiconCard, który obsługuje szeroką gamę protokołów - X.25, Frame Relay, SDLC, HDLC, PPP, ISDN. Adapter ten instaluje się na jednym z komputerów w sieci lokalnej, który staje się serwerem komunikacyjnym. Komputer ten może służyć również do innych zadań. Jest to możliwe dzięki temu, że EiconCard posiada dość mocny procesor oraz własną pamięć i jest w stanie przetwarzać protokoły sieciowe bez obciążania serwera komunikacyjnego. Oprogramowanie Eicon umożliwia budowę zarówno bramek, jak i routerów w oparciu o kartę EiconCard, obsługujących niemal wszystkie systemy operacyjne na platformie Intel. Tutaj przyjrzymy się najciekawszym z nich.

Rodzina rozwiązań Eicon dla systemu Unix obejmuje router IP Connect, bramy X.25 Connect i SNA Connect. Wszystkie te produkty można zainstalować na komputerze z systemem SCO Unix lub Unixware. IP Connect umożliwia przesyłanie ruchu IP poprzez X.25, Frame Relay, PPP lub HDLC i jest kompatybilny ze sprzętem innych producentów, w tym Cisco i Motorola. Pakiet zawiera zaporę sieciową, narzędzia do kompresji danych i narzędzia do zarządzania SNMP. Głównym zastosowaniem IP Connect jest łączenie serwerów aplikacji i serwerów internetowych opartych na systemie Unix z siecią danych. Naturalnie ten sam komputer może służyć także jako router dla całego biura, w którym jest zainstalowany. Korzystanie z routera Eicon zamiast urządzeń czysto sprzętowych ma wiele zalet. Po pierwsze, jest łatwy w instalacji i obsłudze. Z punktu widzenia systemu operacyjnego karta EiconCard z zainstalowanym IP Connect wygląda jak kolejna karta sieciowa. Dzięki temu konfiguracja i administrowanie IP Connect jest dość proste dla każdego, kto miał styczność z Uniksem. Po drugie, bezpośrednie podłączenie serwera do sieci danych pozwala zmniejszyć obciążenie biurowej sieci LAN i zapewnić pojedynczy punkt połączenia z Internetem lub siecią firmową bez konieczności instalowania dodatkowych kart sieciowych i routerów. Po trzecie, to rozwiązanie „skoncentrowane na serwerze” jest bardziej elastyczne i rozszerzalne niż tradycyjne routery. Używanie IP Connect z innymi produktami Eicon wiąże się z wieloma innymi korzyściami.

X.25 Connect to bramka umożliwiająca aplikacjom LAN komunikację z zasobami X.25. Produkt ten umożliwia podłączenie użytkowników Uniksa oraz stacji roboczych DOS/Windows i OS/2 do zdalnych systemów pocztowych, baz danych i innych systemów. Przy okazji należy zaznaczyć, że bramy Eicon są dziś chyba jedynym powszechnym produktem na naszym rynku, który implementuje stos OSI i umożliwia łączenie się z aplikacjami X.400 i FTAM. Ponadto X.25 Connect umożliwia łączenie zdalnych użytkowników z maszyną uniksową i aplikacjami terminalowymi na lokalnych stacjach sieciowych, a także organizowanie interakcji pomiędzy zdalnymi komputerami z systemem Unix za pośrednictwem protokołu X.25. Wykorzystując standardowe możliwości Uniksa wraz z X.25 Connect możliwa jest realizacja konwersji protokołów, czyli tzw. tłumaczenie dostępu Telnet w systemie Unix na połączenie X.25 i odwrotnie. Możliwe jest podłączenie zdalnego użytkownika X.25 za pomocą protokołu SLIP lub PPP do sieci lokalnej i odpowiednio do Internetu. Zasadniczo podobne możliwości translacji protokołów są dostępne w routerach Cisco z oprogramowaniem IOS Enterprise, ale rozwiązanie jest droższe niż łączne produkty Eicon i Unix.

Kolejnym produktem wspomnianym powyżej jest SNA Connect. Jest to brama zaprojektowana do łączenia się z komputerem mainframe IBM i systemem AS/400. Zwykle jest używany w połączeniu z oprogramowaniem użytkownika — emulatorami terminali 5250 i 3270 oraz interfejsami APPC — również produkowanymi przez firmę Eicon. Analogi omówionych powyżej rozwiązań istnieją dla innych systemów operacyjnych - Netware, OS/2, Windows NT, a nawet DOS. Na szczególną uwagę zasługuje Interconnect Server for Netware, który łączy wszystkie powyższe możliwości z narzędziami do zdalnej konfiguracji i administracji oraz systemem autoryzacji klientów. Zawiera dwa produkty - Interconnect Router, który umożliwia routing IP, IPX i Appletalk i jest naszym zdaniem najskuteczniejszym rozwiązaniem do łączenia zdalnych sieci Novell Netware oraz Interconnect Gateway, który zapewnia w szczególności wydajną łączność SNA. Kolejnym produktem firmy Eicon zaprojektowanym do pracy w środowisku Novell Netware są usługi WAN dla Netware. Jest to zestaw narzędzi umożliwiający korzystanie z aplikacji Netware w sieciach X.25 i ISDN. Używanie go w połączeniu z Netware Connect umożliwia zdalnym użytkownikom łączenie się z siecią LAN poprzez X.25 lub ISDN, a także zapewnia wyjście X.25 z sieci LAN. Istnieje możliwość dostarczenia usług WAN dla Netware z wieloprotokołowym routerem Novell 3.0. Ten produkt nazywa się Packet Blaster Advantage. Dostępna jest także karta Packet Blaster ISDN, która współpracuje nie z kartą EiconCard, ale z adapterami ISDN dostarczanymi także przez firmę Eicon. W tym przypadku możliwe są różne opcje połączenia - BRI (2B+D), 4BRI (8B+D) i PRI (30B+D). Usługi WAN dla NT są przeznaczone do współpracy z aplikacjami Windows NT. Zawiera router IP, narzędzia do łączenia aplikacji NT z sieciami X.25, obsługę Microsoft SNA Server oraz narzędzia dla zdalnych użytkowników umożliwiające dostęp do sieci lokalnej przez X.25 przy użyciu serwera dostępu zdalnego. Adaptera Eicon ISDN można także używać w połączeniu z oprogramowaniem ISDN Services for Netware w celu podłączenia serwera Windows NT do sieci ISDN.

Metodyka budowy sieci korporacyjnych.

Skoro już wymieniliśmy i porównaliśmy główne technologie, z których może skorzystać programista, przejdźmy do podstawowych zagadnień i metod stosowanych przy projektowaniu i tworzeniu sieci.

Wymagania sieciowe.

Projektanci sieci i administratorzy sieci zawsze starają się zapewnić spełnienie trzech podstawowych wymagań sieciowych:

skalowalność;

wydajność;

sterowalność.

Dobra skalowalność jest konieczna, aby bez większego wysiłku można było zmieniać zarówno liczbę użytkowników w sieci, jak i oprogramowanie aplikacyjne. Do prawidłowego działania większości nowoczesnych aplikacji wymagana jest wysoka wydajność sieci. Wreszcie, sieć musi być na tyle łatwa w zarządzaniu, aby można ją było ponownie skonfigurować w celu spełnienia stale zmieniających się potrzeb organizacji. Wymagania te odzwierciedlają nowy etap w rozwoju technologii sieciowych - etap tworzenia wysokowydajnych sieci korporacyjnych.

Wyjątkowość nowego oprogramowania i technologii komplikuje rozwój sieci korporacyjnych. Scentralizowane zasoby, nowe klasy programów, różne zasady ich stosowania, zmiany ilościowych i jakościowych cech przepływu informacji, wzrost liczby jednoczesnych użytkowników i wzrost mocy platform obliczeniowych - wszystkie te czynniki należy wziąć pod uwagę uwzględnić je w całości przy tworzeniu sieci. Obecnie na rynku dostępnych jest wiele rozwiązań technologicznych i architektonicznych, a wybór tego najodpowiedniejszego jest zadaniem dość trudnym.

W nowoczesnych warunkach, w celu prawidłowego projektowania, rozwoju i utrzymania sieci, specjaliści muszą wziąć pod uwagę następujące kwestie:

o Zmiana struktury organizacyjnej.

Realizując projekt, nie należy „oddzielać” specjalistów od oprogramowania i specjalistów od sieci. Przy budowie sieci i całego systemu potrzebny jest jeden zespół specjalistów z różnych dziedzin;

o Wykorzystanie nowych narzędzi programowych.

Konieczne jest zapoznanie się z nowym oprogramowaniem już na wczesnym etapie rozwoju sieci, aby móc w odpowiednim czasie dokonać niezbędnych dostosowań w planowanych do użycia narzędziach;

o Poszukaj różnych rozwiązań.

Należy ocenić różne decyzje architektoniczne i ich możliwy wpływ na działanie przyszłej sieci;

o Sprawdzanie sieci.

Niezbędne jest przetestowanie całej sieci lub jej części już na wczesnych etapach rozwoju. W tym celu można stworzyć prototyp sieci, który pozwoli ocenić poprawność podjętych decyzji. W ten sposób można zapobiec pojawianiu się różnego rodzaju wąskich gardeł oraz określić przydatność i przybliżoną wydajność różnych architektur;

o Wybór protokołów.

Aby wybrać odpowiednią konfigurację sieci, należy ocenić możliwości różnych protokołów. Ważne jest określenie, w jaki sposób operacje sieciowe optymalizujące wydajność jednego programu lub pakietu oprogramowania mogą wpływać na wydajność innych;

o Wybór lokalizacji fizycznej.

Wybierając lokalizację do zainstalowania serwerów, należy najpierw określić lokalizację użytkowników. Czy można je przenieść? Czy ich komputery będą podłączone do tej samej podsieci? Czy użytkownicy będą mieli dostęp do sieci globalnej?

o Obliczanie czasu krytycznego.

Należy określić dopuszczalny czas reakcji każdej aplikacji oraz możliwe okresy maksymalnego obciążenia. Ważne jest, aby zrozumieć, jak sytuacje awaryjne mogą wpłynąć na wydajność sieci i ustalić, czy potrzebna jest rezerwa, aby zorganizować ciągłą pracę przedsiębiorstwa;

o Analiza opcji.

Ważne jest, aby przeanalizować różne zastosowania oprogramowania w sieci. Scentralizowane przechowywanie i przetwarzanie informacji często powoduje dodatkowe obciążenie w centrum sieci, a przetwarzanie rozproszone może wymagać wzmocnienia lokalnych sieci grup roboczych.

Dziś nie ma gotowej, usprawnionej, uniwersalnej metodologii, zgodnie z którą można automatycznie przeprowadzić cały zakres działań związanych z rozwojem i tworzeniem sieci korporacyjnej. Przede wszystkim wynika to z faktu, że nie ma dwóch absolutnie identycznych organizacji. W szczególności każdą organizację charakteryzuje unikalny styl przywództwa, hierarchia i kultura biznesowa. A jeśli weźmiemy pod uwagę, że sieć nieuchronnie odzwierciedla strukturę organizacji, to śmiało możemy powiedzieć, że nie ma dwóch identycznych sieci.

Architektura sieci

Zanim zaczniesz budować sieć korporacyjną, musisz najpierw określić jej architekturę, organizację funkcjonalną i logiczną oraz wziąć pod uwagę istniejącą infrastrukturę telekomunikacyjną. Dobrze zaprojektowana architektura sieci pomaga ocenić wykonalność nowych technologii i aplikacji, stanowi podstawę przyszłego rozwoju, pomaga w wyborze technologii sieciowych, pomaga uniknąć niepotrzebnych kosztów, odzwierciedla łączność elementów sieci, znacznie zmniejsza ryzyko nieprawidłowego wdrożenia itp. Architektura sieci stanowi podstawę specyfikacji technicznych tworzonej sieci. Należy zauważyć, że architektura sieci różni się od projektowania sieci tym, że na przykład nie definiuje dokładnego schematu sieci i nie reguluje rozmieszczenia elementów sieci. Na przykład architektura sieci określa, czy niektóre części sieci zostaną zbudowane w oparciu o technologię Frame Relay, ATM, ISDN lub inną. Projekt sieci musi zawierać szczegółowe instrukcje i szacunki parametrów, na przykład wymaganą wartość przepustowości, rzeczywistą przepustowość, dokładną lokalizację kanałów komunikacyjnych itp.

Architektura sieci składa się z trzech aspektów, trzech logicznych komponentów:

zasady konstrukcji,

szablony sieciowe

i stanowiska techniczne.

Zasady projektowania są stosowane w planowaniu sieci i podejmowaniu decyzji. Zasady są zbiorem prostych instrukcji, które wystarczająco szczegółowo opisują wszystkie zagadnienia związane z budową i eksploatacją wdrażanej sieci w długim okresie czasu. Z reguły tworzenie zasad opiera się na celach korporacyjnych i podstawowych praktykach biznesowych organizacji.

Zasady stanowią podstawowe powiązanie pomiędzy strategią rozwoju firmy a technologiami sieciowymi. Służą do opracowywania stanowisk technicznych i szablonów sieciowych. Opracowując specyfikację techniczną sieci, zasady konstruowania architektury sieci są określone w części, która określa ogólne cele sieci. Stan techniczny można postrzegać jako opis celu, który determinuje wybór pomiędzy konkurencyjnymi alternatywnymi technologiami sieciowymi. Stanowisko techniczne wyjaśnia parametry wybranej technologii i zawiera opis pojedynczego urządzenia, metody, protokołu, świadczonej usługi itp. Na przykład przy wyborze technologii sieci LAN należy wziąć pod uwagę szybkość, koszt, jakość usług i inne wymagania. Rozwijanie stanowisk technicznych wymaga dogłębnej wiedzy na temat technologii sieciowych i dokładnego rozważenia wymagań organizacji. Liczba stanowisk technicznych zależy od danego poziomu szczegółowości, złożoności sieci i wielkości organizacji. Architekturę sieci można opisać następującymi terminami technicznymi:

Protokoły transportu sieciowego.

Jakich protokołów transportowych należy używać do przesyłania informacji?

Routing sieciowy.

Jakiego protokołu routingu należy używać między routerami i przełącznikami ATM?

Jakość usługi.

W jaki sposób zostanie osiągnięta możliwość wyboru jakości obsługi?

Adresowanie w sieciach IP i adresowanie domen.

Jaki schemat adresowania powinien być zastosowany dla sieci, włączając adresy zarejestrowane, podsieci, maski podsieci, przekazywanie itp.?

Przełączanie w sieciach lokalnych.

Jaką strategię przełączania należy zastosować w sieciach lokalnych?

Łączenie przełączania i routingu.

Gdzie i jak należy stosować przełączanie i routing; jak mają to połączyć?

Organizacja sieci miejskiej.

Jak powinny komunikować się oddziały przedsiębiorstwa zlokalizowane np. w tym samym mieście?

Organizacja sieci globalnej.

W jaki sposób oddziały przedsiębiorstw powinny komunikować się w sieci globalnej?

Usługa zdalnego dostępu.

W jaki sposób użytkownicy zdalnych oddziałów uzyskują dostęp do sieci korporacyjnej?

Wzorce sieciowe to zbiór modeli struktur sieciowych, które odzwierciedlają relacje pomiędzy elementami sieci. Na przykład dla określonej architektury sieci tworzony jest zestaw szablonów w celu „ujawnienia” topologii sieci dużej sieci oddziałowej lub rozległej lub pokazania rozmieszczenia protokołów w warstwach. Wzorce sieciowe ilustrują infrastrukturę sieciową opisaną za pomocą pełnego zestawu stanowisk technicznych. Co więcej, w dobrze zaprojektowanej architekturze sieci szablony sieci mogą pod względem szczegółowości być możliwie najbliższe elementom technicznym. W rzeczywistości szablony sieci są opisem schematu funkcjonalnego odcinka sieci, który ma określone granice; można wyróżnić następujące główne szablony sieci: dla sieci globalnej, dla sieci metropolitalnej, dla centrali, dla dużego oddziału organizacja, dla działu. Dla sekcji sieci, które mają jakieś specjalne cechy, można opracować inne szablony.

Opisane podejście metodologiczne opiera się na badaniu konkretnej sytuacji, rozważeniu zasad budowy sieci korporacyjnej jako całości, analizie jej struktury funkcjonalnej i logicznej, opracowaniu zestawu szablonów sieci i stanowisk technicznych. Różne implementacje sieci korporacyjnych mogą zawierać pewne komponenty. Ogólnie rzecz biorąc, sieć korporacyjna składa się z różnych oddziałów połączonych sieciami komunikacyjnymi. Mogą być rozległe (WAN) lub metropolitalne (MAN). Gałęzie mogą być duże, średnie i małe. Duży dział może być centrum przetwarzania i przechowywania informacji. Wyznaczone jest centralne biuro, z którego zarządzana jest cała korporacja. Do małych działów zaliczają się różne działy serwisowe (magazyny, warsztaty itp.). Małe oddziały są zasadniczo odległe. Celem strategicznym oddziału zdalnego jest przybliżenie konsumenta usług sprzedaży i wsparcia technicznego. Komunikacja z klientami, która znacząco wpływa na przychody firmy, będzie bardziej produktywna, jeśli wszyscy pracownicy będą mieli możliwość dostępu do danych firmowych w dowolnym momencie.

W pierwszym etapie budowy sieci korporacyjnej opisano proponowaną strukturę funkcjonalną. Określa się skład ilościowy oraz status urzędów i wydziałów. Uzasadniona jest potrzeba budowy własnej, prywatnej sieci komunikacyjnej lub dokonano wyboru usługodawcy, który jest w stanie sprostać stawianym wymaganiom. Rozwój struktury funkcjonalnej odbywa się z uwzględnieniem możliwości finansowych organizacji, długoterminowych planów rozwoju, liczby aktywnych użytkowników sieci, działających aplikacji i wymaganej jakości usług. Rozwój opiera się na strukturze funkcjonalnej samego przedsiębiorstwa.

Drugim krokiem jest określenie struktury logicznej sieci korporacyjnej. Struktury logiczne różnią się od siebie jedynie wyborem technologii (ATM, Frame Relay, Ethernet...) budowy szkieletu, będącego centralnym ogniwem sieci korporacyjnej. Rozważmy struktury logiczne zbudowane w oparciu o przełączanie komórek i przełączanie ramek. Wybór pomiędzy tymi dwoma sposobami przekazywania informacji dokonywany jest ze względu na potrzebę zapewnienia gwarantowanej jakości usług. Można zastosować inne kryteria.

Szkielet transmisji danych musi spełniać dwa podstawowe wymagania.

o Możliwość podłączenia dużej liczby wolnych stacji roboczych do niewielkiej liczby wydajnych, szybkich serwerów.

o Akceptowalna szybkość reakcji na prośby klientów.

Idealna autostrada powinna cechować się wysoką niezawodnością transmisji danych oraz rozbudowanym systemem sterowania. Przez system zarządzania należy rozumieć np. możliwość skonfigurowania szkieletu z uwzględnieniem wszystkich funkcji lokalnych i utrzymanie niezawodności na takim poziomie, że nawet w przypadku awarii niektórych fragmentów sieci serwery pozostaną dostępne. Wymienione wymagania prawdopodobnie zdeterminują kilka technologii, a ostateczny wybór jednej z nich pozostaje w gestii samej organizacji. Musisz zdecydować, co jest najważniejsze – koszt, szybkość, skalowalność czy jakość usługi.

Struktura logiczna z przełączaniem komórek stosowana jest w sieciach z ruchem multimedialnym w czasie rzeczywistym (wideokonferencje i wysokiej jakości transmisja głosu). Jednocześnie ważne jest, aby trzeźwo ocenić potrzebę tak drogiej sieci (z drugiej strony nawet drogie sieci czasami nie są w stanie sprostać pewnym wymaganiom). Jeżeli tak jest, to konieczne jest przyjęcie za podstawę struktury logicznej sieci komutacji ramek. Logiczną hierarchię przełączania, łączącą dwa poziomy modelu OSI, można przedstawić w postaci diagramu trójpoziomowego:

Poziom niższy służy do łączenia lokalnych sieci Ethernet,

Warstwa środkowa to sieć lokalna ATM, sieć MAN lub szkieletowa sieć komunikacyjna WAN.

Najwyższy poziom tej hierarchicznej struktury jest odpowiedzialny za routing.

Logiczna struktura pozwala na identyfikację wszystkich możliwych tras komunikacyjnych pomiędzy poszczególnymi sekcjami sieci korporacyjnej

Szkielet oparty na przełączaniu komórek

Gdy do budowy szkieletu sieci wykorzystywana jest technologia przełączania typu mesh, wzajemne połączenia wszystkich przełączników Ethernet na poziomie grupy roboczej realizowane są za pomocą wysokowydajnych przełączników ATM. Działając w warstwie 2 modelu referencyjnego OSI, przełączniki te przesyłają 53-bajtowe komórki o stałej długości zamiast ramek Ethernet o zmiennej długości. Ta koncepcja sieci wymaga, aby przełącznik Ethernet grupy roboczej był wyposażony w port wyjściowy ATM typu segmentuj i składaj (SAR), który konwertuje ramki Ethernet o zmiennej długości na komórki ATM o stałej długości przed przesłaniem informacji do szkieletowego przełącznika ATM.

W przypadku sieci rozległych podstawowe przełączniki ATM umożliwiają łączenie odległych regionów. Te przełączniki WAN, działające również w warstwie 2 modelu OSI, mogą wykorzystywać łącza T1/E1 (1,544/2,0 Mb/s), łącza T3 (45 Mb/s) lub łącza SONET OC-3 (155 Mb/s). Aby zapewnić komunikację miejską, można wdrożyć sieć MAN w oparciu o technologię ATM. Do komunikacji pomiędzy centralami telefonicznymi można wykorzystać tę samą sieć szkieletową ATM. W przyszłości, w ramach modelu telefonii klient/serwer, stacje te mogą zostać zastąpione przez serwery głosowe w sieci lokalnej. W tym przypadku możliwość zagwarantowania jakości usług w sieciach bankomatów staje się bardzo ważna przy organizacji komunikacji z komputerami osobistymi klientów.

Rozgromienie

Jak już wspomniano, routing jest trzecim i najwyższym poziomem w hierarchicznej strukturze sieci. Routing działający w warstwie 3 modelu referencyjnego OSI służy do organizowania sesji komunikacyjnych, na które składają się:

o Sesje komunikacyjne pomiędzy urządzeniami znajdującymi się w różnych sieciach wirtualnych (każda sieć jest zazwyczaj odrębną podsiecią IP);

o Sesje komunikacyjne przebiegające przez rozległy obszar/miasto

Jedną ze strategii budowy sieci korporacyjnej jest instalowanie przełączników na niższych poziomach całej sieci. Sieci lokalne są następnie łączone za pomocą routerów. Routery są wymagane do podzielenia sieci IP dużej organizacji na wiele oddzielnych podsieci IP. Jest to konieczne, aby zapobiec „eksplozji rozgłoszeniowej” związanej z protokołami takimi jak ARP. Aby powstrzymać rozprzestrzenianie się niepożądanego ruchu w sieci, wszystkie stacje robocze i serwery muszą zostać podzielone na sieci wirtualne. W tym przypadku routing kontroluje komunikację pomiędzy urządzeniami należącymi do różnych sieci VLAN.

Sieć taka składa się z routerów lub serwerów routingowych (rdzenia logicznego), szkieletu sieci opartego na przełącznikach ATM oraz dużej liczby przełączników Ethernet rozmieszczonych na peryferiach. Z wyjątkiem szczególnych przypadków, takich jak serwery wideo podłączane bezpośrednio do szkieletu ATM, wszystkie stacje robocze i serwery muszą być podłączone do przełączników Ethernet. Ten typ budowy sieci umożliwi lokalizację ruchu wewnętrznego w grupach roboczych i zapobiegnie pompowaniu takiego ruchu przez szkieletowe przełączniki lub routery ATM. Agregacja przełączników Ethernet odbywa się za pomocą przełączników ATM, zwykle umieszczonych w tym samym przedziale. Należy zauważyć, że do zapewnienia wystarczającej liczby portów do podłączenia wszystkich przełączników Ethernet może być wymaganych wiele przełączników ATM. Z reguły w tym przypadku wykorzystywana jest komunikacja z szybkością 155 Mbit/s poprzez światłowód wielomodowy.

Routery są zlokalizowane z dala od głównych przełączników ATM, ponieważ routery te należy przenieść poza trasy głównych sesji komunikacyjnych. Taka konstrukcja sprawia, że ​​routing jest opcjonalny. Zależy to od rodzaju sesji komunikacyjnej i rodzaju ruchu w sieci. Podczas przesyłania informacji wideo w czasie rzeczywistym należy unikać routingu, ponieważ może to spowodować niepożądane opóźnienia. Routing nie jest potrzebny do komunikacji pomiędzy urządzeniami znajdującymi się w tej samej sieci wirtualnej, nawet jeśli znajdują się one w różnych budynkach dużego przedsiębiorstwa.

Ponadto nawet w sytuacjach, gdy do określonej komunikacji wymagane są routery, umieszczenie routerów z dala od przełączników ATM w szkieletowej sieci może zminimalizować liczbę przeskoków routingu (przeskok routingu to część sieci od użytkownika do pierwszego routera lub od jednego routera do inny). To nie tylko zmniejsza opóźnienia, ale także zmniejsza obciążenie routerów. Routing stał się powszechny jako technologia łączenia sieci lokalnych w środowisku globalnym. Routery udostępniają różnorodne usługi przeznaczone do wielopoziomowej kontroli kanału transmisyjnego. Obejmuje to ogólny schemat adresowania (w warstwie sieciowej), który jest niezależny od sposobu tworzenia adresów poprzedniej warstwy, a także konwersję z formatu ramki jednej warstwy kontrolnej na inny.

Routery podejmują decyzje o tym, gdzie kierować przychodzące pakiety danych na podstawie zawartych w nich informacji adresowych warstwy sieciowej. Informacje te są pobierane, analizowane i porównywane z zawartością tablic routingu, aby określić, do którego portu należy wysłać konkretny pakiet. Adres warstwy łącza jest następnie wyodrębniany z adresu warstwy sieci, jeśli pakiet ma zostać wysłany do segmentu sieci, takiego jak Ethernet lub Token Ring.

Oprócz przetwarzania pakietów routery jednocześnie aktualizują tablice routingu, które służą do określenia miejsca docelowego każdego pakietu. Routery tworzą i zarządzają tymi tabelami dynamicznie. Dzięki temu routery mogą automatycznie reagować na zmiany warunków sieciowych, takie jak przeciążenia czy uszkodzenia łączy komunikacyjnych.

Wyznaczenie trasy jest dość trudnym zadaniem. W sieci korporacyjnej przełączniki ATM muszą działać w podobny sposób jak routery: informacje muszą być wymieniane w oparciu o topologię sieci, dostępne trasy i koszty transmisji. Przełącznik ATM krytycznie potrzebuje tych informacji, aby wybrać najlepszą trasę dla określonej sesji komunikacyjnej inicjowanej przez użytkowników końcowych. Ponadto wyznaczenie trasy nie ogranicza się jedynie do określenia ścieżki, którą będzie przebiegać połączenie logiczne po wygenerowaniu żądania jego utworzenia.

Centrala ATM może wybierać nowe trasy, jeżeli z jakiegoś powodu kanały komunikacyjne są niedostępne. Jednocześnie przełączniki ATM muszą zapewniać niezawodność sieci na poziomie routera. Aby stworzyć rozszerzalną sieć o dużej efektywności kosztowej, konieczne jest przeniesienie funkcji routingu na peryferie sieci i zapewnienie przełączania ruchu w jej szkielecie. ATM jest jedyną technologią sieciową, która może to zrobić.

Aby wybrać technologię, musisz odpowiedzieć na następujące pytania:

Czy technologia zapewnia odpowiednią jakość usług?

Czy może zagwarantować jakość usług?

Jak rozszerzalna będzie sieć?

Czy można wybrać topologię sieci?

Czy usługi świadczone przez sieć są opłacalne?

Jak skuteczny będzie system zarządzania?

Odpowiedzi na te pytania determinują wybór. Zasadniczo jednak w różnych częściach sieci można stosować różne technologie. Przykładowo, jeśli pewne obszary wymagają obsługi ruchu multimedialnego w czasie rzeczywistym lub prędkości 45 Mbit/s, to instaluje się w nich ATM. Jeśli część sieci wymaga interaktywnego przetwarzania żądań, co nie pozwala na znaczne opóźnienia, konieczne jest skorzystanie z Frame Relay, jeśli takie usługi są dostępne na tym obszarze geograficznym (w przeciwnym razie konieczne będzie skorzystanie z Internetu).

W ten sposób duże przedsiębiorstwo może łączyć się z siecią za pośrednictwem ATM, podczas gdy oddziały firmy mogą łączyć się z tą samą siecią za pośrednictwem protokołu Frame Relay.

Tworząc sieć korporacyjną i wybierając technologię sieciową wraz z odpowiednim oprogramowaniem i sprzętem, należy wziąć pod uwagę stosunek ceny do wydajności. Trudno oczekiwać dużych prędkości od tanich technologii. Z drugiej strony nie ma sensu używać najbardziej skomplikowanych technologii do najprostszych zadań. Aby osiągnąć maksymalną efektywność, należy odpowiednio połączyć różne technologie.

Przy wyborze technologii należy wziąć pod uwagę rodzaj systemu okablowania i wymagane odległości; kompatybilność z już zainstalowanym sprzętem (znaczną minimalizację kosztów można osiągnąć, jeśli już zainstalowany sprzęt można włączyć do nowego systemu.

Ogólnie rzecz biorąc, istnieją dwa sposoby budowy szybkiej sieci lokalnej: ewolucyjny i rewolucyjny.

Pierwszy sposób polega na rozwinięciu starej, dobrej technologii Frame Relay. W ramach tego podejścia można zwiększyć prędkość sieci lokalnej poprzez modernizację infrastruktury sieciowej, dodanie nowych kanałów komunikacyjnych i zmianę sposobu transmisji pakietów (co ma miejsce w komutowanym Ethernecie). Typowa sieć Ethernet dzieli szerokość pasma, co oznacza, że ​​ruch wszystkich użytkowników w sieci konkuruje ze sobą, zajmując całą szerokość pasma segmentu sieci. Switched Ethernet tworzy dedykowane trasy, zapewniając użytkownikom rzeczywistą przepustowość 10 Mbit/s.

Rewolucyjna ścieżka polega na przejściu na radykalnie nowe technologie, na przykład ATM dla sieci lokalnych.

Szeroka praktyka w budowaniu sieci lokalnych pokazała, że ​​głównym problemem jest jakość usług. To od niego zależy, czy sieć będzie mogła pomyślnie współpracować (na przykład z aplikacjami takimi jak wideokonferencje, które są coraz częściej stosowane na całym świecie).

Wniosek.

Posiadanie własnej sieci komunikacyjnej jest „sprawą prywatną” każdej organizacji. Jeśli jednak w planach jest budowanie sieci korporacyjnej (wydziałowej), konieczne jest przeprowadzenie głębokiego, wszechstronnego badania samej organizacji, problemów, jakie ona rozwiązuje, sporządzenie przejrzystego schematu przepływu dokumentów w tej organizacji i na tej podstawie , zacznij wybierać najbardziej odpowiednią technologię. Przykładem budowy sieci korporacyjnych jest obecnie powszechnie znany system Galaktika.

Lista wykorzystanej literatury:

1. M. Szestakow „Zasady budowy korporacyjnych sieci danych” - „Computerra”, nr 256, 1997

2. Kosarev, Eremin „Systemy i sieci komputerowe”, Finanse i statystyka, 1999.

3. Olifer V. G., Olifer N. D. „Sieci komputerowe: zasady, technologie, protokoły”, St. Petersburg, 1999

4. Materiały ze strony rusdoc.df.ru

duża sieć korporacyjna). Zanim omówimy charakterystyczne cechy każdego z wymienionych typów sieci, zatrzymajmy się na tych czynnikach, które zmuszają przedsiębiorstwa do nabywania własnych śieć komputerowa.

Co korzystanie z sieci daje przedsiębiorstwu?

Pytanie to można wyjaśnić w następujący sposób:

  • Kiedy wdrożyć w przedsiębiorstwie sieć komputerowa Czy lepiej jest używać komputerów samodzielnych, czy systemów wielomaszynowych?
  • Jakie nowe możliwości pojawiają się w przedsiębiorstwie wraz z pojawieniem się sieci komputerowej?
  • I wreszcie, czy firma zawsze potrzebuje sieci?

Nie wchodząc w szczegóły, ostateczny cel użytkowania sieć komputerowa w przedsiębiorstwie jest zwiększenie efektywności jego pracy, co może przełożyć się na przykład na zwiększone zyski. Rzeczywiście, jeśli dzięki informatyzacji zmniejszono koszty produkcji istniejącego produktu, skrócono czas opracowywania nowego modelu lub przyspieszono obsługę zamówień konsumenckich, oznacza to, że to przedsiębiorstwo naprawdę potrzebowało sieci.

Konceptualistyczny zaleta sieci, co wynika z ich przynależności do systemów rozproszonych, przed autonomicznie działającymi komputerami jest ich zdolność do działania Równoległe obliczenia. Dzięki temu w systemie z kilkoma węzłami przetwarzającymi jest to w zasadzie możliwe do osiągnięcia wydajność, przekraczającą obecnie maksymalną możliwą wydajność dowolnego procesora, niezależnie od jego mocy. Systemy rozproszone mają potencjalnie lepszy stosunek wydajności do kosztów niż systemy scentralizowane.

Kolejną oczywistą i ważną zaletą systemów rozproszonych jest ich większa tolerancja błędów. Pod tolerancja błędów konieczne jest zrozumienie zdolności systemu do realizacji swoich funkcji (być może nie w pełni) w przypadku awarii poszczególnych elementów sprzętowych i niepełnej dostępności danych. Podstawą zwiększonej odporności na awarie systemów rozproszonych jest redundancja. Redundancja węzłów przetwarzających (procesory w wieloprocesorowy systemy lub komputery w sieci) pozwala w przypadku awarii jednego węzła na ponowne przypisanie przypisanych mu zadań innym węzłom. W tym celu system rozproszony może posiadać procedury rekonfiguracji dynamicznej lub statycznej. W sieć komputerowa niektóre zestawy danych mogą być duplikowane zewnętrzne urządzenia pamięci masowej kilka komputerów w sieci, dzięki czemu w przypadku awarii jednego z nich dane pozostaną dostępne.

Stosowanie rozproszonych geograficznie systemów komputerowych jest bardziej spójne z rozproszonym charakterem problemów aplikacji w niektórych obszarach tematycznych, takich jak automatyzacja procesy technologiczne, bankowość itp. We wszystkich tych przypadkach występują indywidualni odbiorcy informacji, rozproszeni na określonym terytorium – pracownicy, organizacje czy instalacje technologiczne. Konsumenci ci rozwiązują swoje problemy samodzielnie, dlatego należy im zapewnić własne zaplecze obliczeniowe, ale jednocześnie, ponieważ rozwiązywane przez nich zadania są ze sobą ściśle powiązane logicznie, ich zaplecze obliczeniowe powinno zostać połączone we wspólny system. Optymalnym rozwiązaniem w tej sytuacji jest skorzystanie z sieci komputerowej.

Dla użytkownika systemy rozproszone zapewniają także korzyści takie jak możliwość współdzielenia danych i urządzeń, a także możliwość elastycznego rozdziału pracy w całym systemie. Ten podział jest drogi urządzenia peryferyjne- takie jak macierze dyskowe o dużej pojemności, drukarki kolorowe, plotery, modemy, napędy optyczne – w wielu przypadkach jest to główny powód wdrażania sieci w przedsiębiorstwie. Użytkownik nowoczesnej sieci komputerowej pracuje przy swoim komputerze, często nie zdając sobie sprawy, że korzysta z danych innego potężnego komputera, oddalonego o setki kilometrów. Pocztę elektroniczną wysyła poprzez modem podłączony do serwera komunikacyjnego współdzielonego przez kilka działów jego firmy. Użytkownik ma wrażenie, że zasoby te są podłączone bezpośrednio do jego komputera lub „prawie” połączone, ponieważ praca z nimi wymaga niewiele dodatkowych działań w porównaniu z korzystaniem z naprawdę natywnych zasobów.

Ostatnio dominuje kolejna zachęta do wdrażania sieci, która w nowoczesnych warunkach jest o wiele ważniejsza niż oszczędzanie pieniędzy poprzez dzielenie się drogim sprzętem lub programami wśród pracowników korporacji. Motywem tym była chęć zapewnienia pracownikom szybkiego dostępu do obszernej informacji korporacyjnej. W warunkach ostrej konkurencji w dowolnym sektorze rynku zwycięzcą zostaje ostatecznie firma, której pracownicy potrafią szybko i poprawnie odpowiedzieć na każde pytanie klienta – dotyczące możliwości swoich produktów, warunków ich stosowania, rozwiązywania różnych problemów itp. duże przedsiębiorstwo, nawet dobry menedżer raczej nie zna wszystkich cech każdego z wytwarzanych produktów, zwłaszcza że ich asortyment można aktualizować co kwartał, jeśli nie miesiąc. Dlatego bardzo ważne jest, aby menedżer miał możliwość podłączenia swojego komputera sieć korporacyjna powiedzmy w Magadanie, przekaż pytanie klienta na serwer zlokalizowany w centrali przedsiębiorstwa w Nowosybirsku i szybko otrzymaj odpowiedź satysfakcjonującą klienta. W takim przypadku klient nie skontaktuje się z inną firmą, lecz będzie nadal korzystał z usług tego menadżera w przyszłości.

Networking prowadzi do poprawy komunikacja pomiędzy pracownikami przedsiębiorstwa, a jego klientami i dostawcami. Sieci zmniejszają potrzebę korzystania przez przedsiębiorstwa z innych form przekazywania informacji, takich jak telefon czy poczta. Często umiejętność uporządkowania poczty elektronicznej jest jednym z powodów wdrożenia sieci komputerowej w przedsiębiorstwie. Coraz powszechniejsze stają się nowe technologie, które umożliwiają przesyłanie nie tylko danych komputerowych, ale także informacji głosowych i wideo za pośrednictwem sieciowych kanałów komunikacyjnych. Sieć korporacyjna, który integruje dane i informacje multimedialne, może być wykorzystany do organizacji konferencji audio i wideo, dodatkowo można na jego podstawie stworzyć własną, wewnętrzną sieć telefoniczną.

Korzyści z korzystania z sieci
  1. Integralną zaletą jest zwiększenie efektywności przedsiębiorstwa.
  2. Możliwość wykonania Równoległe obliczenia, dzięki czemu można zwiększyć produktywność i tolerancja błędów.
  3. Lepiej dostosowane do rozproszonego charakteru niektórych problemów z aplikacjami.
  4. Możliwość udostępniania danych i urządzeń.
  5. Możliwość elastycznego podziału pracy w całym systemie.
  6. Szybki dostęp do obszernych informacji korporacyjnych.
  7. Poprawa komunikacji.
Problemy
  1. Złożoność tworzenia oprogramowania systemowego i aplikacyjnego dla systemów rozproszonych.
  2. Problemy z wydajnością i niezawodność transmisja danych przez sieć.
  3. Problem bezpieczeństwa.

Oczywiście podczas używania sieć komputerowa Istnieją także problemy związane głównie z organizacją efektywnej interakcji pomiędzy poszczególnymi częściami systemu rozproszonego.

Po pierwsze, są problemy z oprogramowaniem: systemami operacyjnymi i aplikacjami. Programowanie dla systemów rozproszonych zasadniczo różni się od programowania dla systemów scentralizowanych. Zatem sieciowy system operacyjny, w zasadzie realizując wszystkie funkcje zarządzania lokalnymi zasobami komputera, dodatkowo rozwiązuje liczne zadania związane ze świadczeniem usług sieciowych. Rozwój aplikacji sieciowych komplikuje konieczność zorganizowania wspólnego działania ich części pracujących na różnych maszynach. Zapewnienie kompatybilności oprogramowania instalowanego na węzłach sieci również przysparza sporo kłopotów.

Po drugie, wiele problemów wiąże się z transportem wiadomości kanałami komunikacyjnymi pomiędzy komputerami. Do głównych zadań należy tutaj zapewnienie niezawodności (aby przesyłane dane nie uległy utracie ani zniekształceniu) oraz wydajności (aby wymiana danych odbywała się z akceptowalnymi opóźnieniami). W strukturze całkowitych kosztów sieci komputerowej znaczącą część stanowią koszty rozwiązania „kwestii transportowych”, podczas gdy w systemach scentralizowanych problemy te są w ogóle nieobecne.

Po trzecie, istnieją problemy związane z bezpieczeństwem, które znacznie trudniej rozwiązać w sieci niż na samodzielnym komputerze. W niektórych przypadkach, gdy bezpieczeństwo jest szczególnie ważne, lepiej nie korzystać z sieci.

Za i przeciw można wymieniać jeszcze wiele, jednak głównym dowodem na efektywność wykorzystania sieci jest niepodważalny fakt ich wszechobecności. Trudno dziś znaleźć przedsiębiorstwo, które nie posiadałoby choćby jednosegmentowej sieci komputerów osobistych; Pojawia się coraz więcej sieci z setkami stacji roboczych i dziesiątkami serwerów, niektóre duże organizacje przejmują prywatne globalne sieci, które łączą ich oddziały oddalone o tysiące kilometrów. W każdym konkretnym przypadku istniały przesłanki do stworzenia sieci, ale prawdziwe jest także ogólne stwierdzenie: w tych sieciach wciąż coś jest.

Sieci wydziałowe

Sieci wydziałowe- Są to sieci, z których korzysta stosunkowo niewielka grupa pracowników pracujących w jednym dziale przedsiębiorstwa. Pracownicy ci zajmują się niektórymi typowymi zadaniami, takimi jak księgowość czy marketing. Uważa się, że dział może liczyć do 100-150 pracowników.

Głównym celem sieci wydziałów jest separacja lokalny zasoby takie jak aplikacje, dane, drukarki laserowe i modemy. Zazwyczaj sieci wydziałowe mają jeden lub dwa serwery plików, nie więcej niż trzydziestu użytkowników (ryc. 10.3) i nie są podzielone na podsieci. W tych sieciach zlokalizowana jest większość ruchu przedsiębiorstwa. Sieci wydziałowe tworzone są najczęściej w oparciu o jedną technologię sieciową – Ethernet, Token Ring. W takiej sieci najczęściej używany jest jeden lub co najwyżej dwa rodzaje systemów operacyjnych. Niewielka liczba użytkowników umożliwia sieciom wydziałowym korzystanie z systemów operacyjnych sieci peer-to-peer, takich jak Windows 98.


Ryż. 10.3.

Zadania związane z zarządzaniem siecią na poziomie działu są stosunkowo proste: dodawanie nowych użytkowników, rozwiązywanie prostych awarii, instalowanie nowych węzłów i instalowanie nowych wersji oprogramowania. Taką siecią może zarządzać pracownik, który tylko część swojego czasu poświęca na wykonywanie obowiązków administratora. Najczęściej administrator sieci działu nie ma specjalnego przeszkolenia, ale jest osobą w dziale, która najlepiej rozumie komputery i naturalnie okazuje się, że zajmuje się administracją siecią.

Istnieje inny rodzaj sieci zbliżony do sieci wydziałowych - sieci grup roboczych. Do takich sieci zaliczają się bardzo małe sieci, liczące do 10-20 komputerów. Charakterystyka sieci grup roboczych praktycznie nie różni się od opisanych powyżej cech sieci wydziałowych. Właściwości takie jak prostota i jednorodność sieci są tutaj najbardziej widoczne, podczas gdy sieci wydziałowe mogą w niektórych przypadkach zbliżać się do kolejnego co do wielkości typu sieci, czyli sieci kampusowych.

Sieci kampusowe

Sieci kampusowe wzięły swoją nazwę od angielskiego słowa kampus – miasto studenckie. To właśnie na kampusach uniwersyteckich często pojawiała się potrzeba połączenia kilku małych sieci w jedną dużą. Teraz ta nazwa nie jest kojarzona z kampusami uniwersyteckimi, ale służy do oznaczania sieci wszelkich przedsiębiorstw i organizacji.

Sieci kampusowe(Rys. 10.4) łączą wiele sieci różnych działów jednego przedsiębiorstwa w ramach jednego budynku lub jednego terytorium o powierzchni kilku kilometrów kwadratowych. Jednak połączenia globalne w sieciach kampusowych nie są wykorzystywane. Usługi w takiej sieci obejmują interoperacyjność między sieciami wydziałowymi, dostęp do współdzielonych korporacyjnych baz danych oraz dostęp do współdzielonych serwerów faksowych, szybkich modemów i szybkich drukarek. Dzięki temu pracownicy każdego działu przedsiębiorstwa zyskują dostęp do niektórych plików i zasobów sieciowych innych działów. Sieci kampusowe zapewniają dostęp do korporacyjnych baz danych bez względu na typ komputerów, na których się znajdują.


Ryż. 10.4.

Problemy związane z integracją heterogenicznego sprzętu i oprogramowania pojawiają się na poziomie sieci kampusowej. Typy komputerów, sieciowych systemów operacyjnych i sprzętu sieciowego w każdym dziale mogą się różnić. Prowadzi to do złożoności zarządzania sieciami kampusowymi. W takim przypadku administratorzy muszą być bardziej wykwalifikowani, a środki operacyjnego zarządzania siecią muszą być bardziej skuteczne.

Sieci korporacyjne

Sieci korporacyjne zwane także sieciami korporacyjnymi, co odpowiada dosłownemu tłumaczeniu terminu „sieci korporacyjne” używanego w literaturze angielskiej w odniesieniu do tego typu sieci. Sieci korporacyjne ( sieci korporacyjne) łączą dużą liczbę komputerów we wszystkich obszarach oddzielnego przedsiębiorstwa. Mogą być ze sobą ściśle powiązane i obejmować miasto, region, a nawet kontynent. Liczbę użytkowników i komputerów można mierzyć w tysiącach, a liczbę serwerów w setkach; odległości pomiędzy sieciami poszczególnych terytoriów są takie, że konieczne jest wykorzystanie sieć korporacyjna Z pewnością zastosowane zostaną różne typy komputerów – od komputerów typu mainframe po komputery osobiste, kilka rodzajów systemów operacyjnych i wiele różnych aplikacji. Części heterogeniczne sieć korporacyjna powinien działać jako pojedyncza jednostka, zapewniając użytkownikom możliwie wygodny i łatwy dostęp do wszystkich niezbędnych zasobów.

Sieci korporacyjne ( sieci korporacyjne) łączą dużą liczbę komputerów we wszystkich obszarach oddzielnego przedsiębiorstwa. Dla sieć korporacyjna Charakterystyka:

  • skala – tysiące komputerów użytkowników, setki serwerów, ogromne ilości danych przechowywanych i przesyłanych liniami komunikacyjnymi, wiele różnych zastosowań;
  • wysoki stopień heterogeniczności – różne typy komputerów, sprzętu komunikacyjnego, systemów operacyjnych i aplikacji;
  • wykorzystanie połączeń globalnych – sieci oddziałowe łączone są za pomocą środków telekomunikacyjnych, w tym kanałów telefonicznych, kanałów radiowych i łączności satelitarnej.

Wygląd sieci korporacyjne– to dobra ilustracja znanego postulatu przejścia od ilości do jakości. Kiedy poszczególne sieci dużego przedsiębiorstwa z oddziałami w różnych miastach, a nawet krajach zostaną połączone w jedną sieć, wiele cech ilościowych połączonej sieci przekracza pewien krytyczny próg, po przekroczeniu którego zaczyna się nowa jakość. W tych warunkach istniejące metody i podejścia do rozwiązywania tradycyjnych problemów sieci o mniejszej skali sieci korporacyjne okazało się nieodpowiednie. Na pierwszy plan wysunęły się zadania i problemy, które albo miały drugorzędne znaczenie, albo w ogóle nie pojawiały się w sieciach grup roboczych, wydziałów, a nawet kampusów. Przykładem jest najprostsze (dla małych sieci) zadanie - utrzymywanie danych uwierzytelniających użytkowników sieci.

Najprostszym sposobem rozwiązania tego problemu jest umieszczenie poświadczeń każdego użytkownika w lokalnej bazie danych poświadczeń każdego komputera, do którego zasobów użytkownik powinien mieć dostęp. W przypadku próby dostępu dane te są pobierane z bazy danych kont lokalnych i na ich podstawie przyznawany lub odmawiany jest dostęp. W małej sieci składającej się z 5-10 komputerów i mniej więcej tej samej liczby użytkowników metoda ta sprawdza się bardzo dobrze. Ale jeśli w sieci jest kilka tysięcy użytkowników, z których każdy potrzebuje dostępu do kilkudziesięciu serwerów, to oczywiście takie rozwiązanie staje się wyjątkowo nieskuteczne. Administrator musi powtórzyć operację wprowadzania danych uwierzytelniających każdego użytkownika kilkadziesiąt razy (w zależności od liczby serwerów). Sam użytkownik jest także zmuszony do powtarzania logicznej procedury logowania za każdym razem, gdy potrzebuje dostępu do zasobów nowego serwera. Dobrym rozwiązaniem tego problemu w przypadku dużej sieci jest zastosowanie scentralizowanego centrum pomocy, które przechowuje w bazie danych konta wszystkich użytkowników sieci. Administrator jednokrotnie wykonuje operację wprowadzenia danych użytkownika do tej bazy, a użytkownik raz logicznie loguje się nie do osobnego serwera, ale do całej sieci.

Przechodząc z prostszego typu sieci na bardziej złożoną - z sieci wydziałowych do sieć korporacyjna- zwiększa się zasięg zasięgu, utrzymanie połączeń komputerowych staje się coraz trudniejsze. Wraz ze wzrostem skali sieci rosną wymagania dotyczące jej niezawodności, wydajności i funkcjonalności. W sieci krąży coraz większa ilość danych, dlatego konieczne jest zapewnienie ich bezpieczeństwa i dostępności. Wszystko to prowadzi do tego, że sieci korporacyjne budowane są w oparciu o najpotężniejszy i najbardziej zróżnicowany sprzęt i oprogramowanie.

Sieć korporacyjna to sieć, której głównym celem jest wspomaganie działania konkretnego przedsiębiorstwa będącego właścicielem tej sieci. Użytkownicy sieci korporacyjnej są pracownikami tego przedsiębiorstwa. W zależności od skali przedsiębiorstwa, a także złożoności i różnorodności rozwiązywanych zadań wyróżnia się sieci wydziałowe, sieci kampusowe i sieci korporacyjne (czyli sieć dużego przedsiębiorstwa).

Sieci wydziałowe- Są to sieci, z których korzysta stosunkowo niewielka grupa pracowników pracujących w jednym dziale przedsiębiorstwa.

Głównym celem sieci wydziałowej jest współdzielenie lokalnych zasobów, takich jak aplikacje, dane, drukarki laserowe i modemy. Zazwyczaj sieci wydziałowe mają jeden lub dwa serwery plików, nie więcej niż trzydziestu użytkowników i nie są podzielone na podsieci (ryc. 55). W tych sieciach zlokalizowana jest większość ruchu przedsiębiorstwa. Sieci wydziałowe tworzone są najczęściej w oparciu o jedną technologię sieciową – Ethernet, Token Ring. Sieć taka charakteryzuje się jednym lub co najwyżej dwoma typami systemów operacyjnych. Niewielka liczba użytkowników umożliwia działom korzystanie z sieciowych systemów operacyjnych typu peer-to-peer, takich jak Microsoft Windows.



Istnieje inny rodzaj sieci, blisko sieci wydziałowych - sieci grup roboczych. Do takich sieci zaliczają się bardzo małe sieci, liczące do 10-20 komputerów. Charakterystyka sieci grup roboczych praktycznie nie różni się od charakterystyki sieci wydziałowych. Właściwości takie jak prostota i jednorodność sieci są tutaj najbardziej widoczne, podczas gdy sieci wydziałowe mogą w niektórych przypadkach zbliżać się do kolejnego co do wielkości typu sieci, czyli sieci kampusowych.

Sieci kampusowe swoją nazwę wzięli od angielskiego słowa „campus” – miasto studenckie. To właśnie na kampusach uniwersyteckich często pojawiała się potrzeba połączenia kilku małych sieci w jedną dużą. Teraz ta nazwa nie jest kojarzona z kampusami uniwersyteckimi, ale służy do oznaczania sieci wszelkich przedsiębiorstw i organizacji.

Główną cechą sieci kampusowych jest to, że łączą one wiele sieci różnych działów jednego przedsiębiorstwa w ramach jednego budynku lub jednego terytorium o powierzchni kilku kilometrów kwadratowych (ryc. 56). Jednak połączenia globalne w sieciach kampusowych nie są wykorzystywane. Usługi takiej sieci obejmują interakcje pomiędzy sieciami wydziałowymi. Dostęp do wspólnych baz danych przedsiębiorstwa, dostęp do wspólnych serwerów faksowych, szybkich modemów i szybkich drukarek. Dzięki temu pracownicy każdego działu przedsiębiorstwa zyskują dostęp do niektórych plików i zasobów sieciowych innych działów. Ważną usługą świadczoną przez sieci kampusowe stał się dostęp do korporacyjnych baz danych, niezależnie od tego, na jakim komputerze się one znajdują.

Problemy związane z integracją heterogenicznego sprzętu i oprogramowania pojawiają się na poziomie sieci kampusowej. Typy komputerów, sieciowych systemów operacyjnych i sprzętu sieciowego mogą się różnić w zależności od działu. Prowadzi to do złożoności zarządzania sieciami kampusowymi. W takim przypadku administratorzy muszą być bardziej wykwalifikowani, a sposoby operacyjnego zarządzania siecią muszą być bardziej zaawansowane.

Sieci korporacyjne nazywane są także sieciami korporacyjnymi, co odpowiada dosłownemu tłumaczeniu terminu „sieć korporacyjna”. Sieci korporacyjne (sieci korporacyjne) łączą dużą liczbę komputerów we wszystkich obszarach pojedynczego przedsiębiorstwa. Mogą być ze sobą ściśle powiązane i obejmować miasto, region, a nawet kontynent. Liczbę użytkowników i komputerów można mierzyć w tysiącach, a liczbę serwerów w setkach, odległości pomiędzy sieciami poszczególnych terytoriów mogą być takie, że konieczne będzie wykorzystanie połączeń globalnych (ryc. 57). Aby połączyć zdalne sieci lokalne i poszczególne komputery w firmie




sieci wykorzystują różnorodne narzędzia telekomunikacyjne, w tym kanały telefoniczne, radary i komunikację satelitarną. Sieć korporacyjną można traktować jako „wyspy” sieci lokalnych „unoszących się” w środowisku telekomunikacyjnym. Niezbędną cechą tak złożonej i wielkoskalowej sieci jest wysoki stopień heterogeniczności (interogeniczności) - nie da się zaspokoić potrzeb tysięcy użytkowników korzystających z tego samego typu sprzętu. Sieć korporacyjna z konieczności korzysta z różnych typów komputerów - od komputerów typu mainframe po komputery osobiste, kilka typów systemów operacyjnych i wiele różnych aplikacji. Heterogeniczne części sieci korporacyjnej powinny działać jako jedna całość, zapewniając użytkownikom najwygodniejszy i najprostszy dostęp do wszystkich niezbędnych zasobów.

Powstanie sieci korporacyjnej jest dobrą ilustracją znanego postulatu filozoficznego o przejściu od ilości do jakości. Kiedy poszczególne sieci dużego przedsiębiorstwa z oddziałami w różnych miastach, a nawet krajach zostaną połączone w jedną sieć, wiele cech ilościowych połączonej sieci przekracza pewien próg krytyczny, powyżej którego zaczyna się nowa jakość. W tych warunkach istniejące metody i podejścia do rozwiązywania tradycyjnych problemów sieci o mniejszej skali dla sieci korporacyjnych okazały się nieodpowiednie. Na pierwszy plan wysunęły się zadania i problemy, które w rozproszonych sieciach grup roboczych, wydziałów, a nawet kampusów albo miały drugorzędne znaczenie, albo w ogóle się nie pojawiały.

W rozproszonych sieciach lokalnych składających się z 1-20 komputerów i w przybliżeniu tej samej liczby użytkowników niezbędne dane informacyjne są przenoszone do lokalnej bazy danych każdego komputera, do której zasobów użytkownicy muszą mieć dostęp, czyli dane są pobierane z lokalnej bazy danych księgowych, do której można uzyskać dostęp w oparciu o dostarczoną lub nie dostarczoną bazę danych.

Jeśli jednak w sieci znajduje się kilka tysięcy użytkowników, z których każdy potrzebuje dostępu do kilkudziesięciu serwerów, to oczywiście rozwiązanie to staje się skrajnie nieefektywne, gdyż administrator musi kilkadziesiąt razy powtarzać operację wprowadzania danych uwierzytelniających każdego użytkownika (wg. do liczby serwerów). Sam użytkownik jest także zmuszony do powtarzania logicznej procedury logowania za każdym razem, gdy potrzebuje dostępu do zasobów nowego serwera. Rozwiązaniem tego problemu w przypadku dużej sieci jest zastosowanie scentralizowanego działu pomocy technicznej, którego baza danych przechowuje niezbędne informacje. Administrator jednokrotnie wykonuje operację wprowadzenia danych użytkownika do tej bazy, a użytkownik raz logicznie loguje się nie do osobnego serwera, ale do całej sieci. Wraz ze wzrostem skali sieci rosną wymagania dotyczące jej niezawodności, wydajności i funkcjonalności. Biorąc pod uwagę stale rosnące ilości danych krążących w sieci, sieć musi zapewniać bezpieczeństwo i dostępność. Wszystko to prowadzi do tego, że sieci korporacyjne budowane są w oparciu o najpotężniejszy i najbardziej zróżnicowany sprzęt i oprogramowanie.

Oczywiście korporacyjne sieci komputerowe mają swoje własne problemy. Problemy te związane są głównie z organizacją efektywnej interakcji pomiędzy poszczególnymi częściami systemu rozproszonego.

Po pierwsze, pojawiają się trudności związane z oprogramowaniem – systemami operacyjnymi i aplikacjami. Programowanie dla systemów rozproszonych zasadniczo różni się od programowania dla systemów scentralizowanych. W ten sposób sieciowy system operacyjny, wykonujący wszystkie funkcje zarządzania lokalnymi zasobami komputera, rozwiąże liczne zadania związane z zapewnieniem serwerów sieciowych. Rozwój aplikacji sieciowych komplikuje konieczność zorganizowania wspólnego działania ich części pracujących na różnych maszynach. Wiele obaw budzi zapewnienie kompatybilności oprogramowania instalowanego w węzłach sieci.

Po drugie, wiele problemów wiąże się z transportem wiadomości kanałami komunikacyjnymi pomiędzy komputerami. Głównymi celami jest tutaj zapewnienie niezawodności (aby dostarczane dane nie zostały utracone lub zniekształcone) i wydajności (aby wymiana danych odbywała się z akceptowalnymi opóźnieniami). W strukturze całkowitych kosztów sieci komputerowej znaczącą część stanowią koszty rozwiązania „kwestii transportowych”, podczas gdy w systemach scentralizowanych problemy te są w ogóle nieobecne.

Po trzecie, istnieją kwestie bezpieczeństwa, które znacznie trudniej rozwiązać w sieci komputerowej niż na samodzielnym komputerze. W niektórych przypadkach, gdy bezpieczeństwo jest szczególnie ważne, lepiej całkowicie zrezygnować z korzystania z sieci.

Jednak ogólnie korzystanie z sieci lokalnych (sieci korporacyjnych) daje przedsiębiorstwu następujące możliwości:

Udostępnianie drogich zasobów;

Poprawa przełączania;

Poprawa dostępu do informacji;

Szybkie i wysokiej jakości podejmowanie decyzji;

Swoboda terytorialnego rozmieszczenia komputerów.

Sieć korporacyjną (sieć korporacyjną) charakteryzuje:

Skala – tysiące komputerów użytkowników, setki serwerów, ogromne ilości danych przechowywanych i przesyłanych liniami komunikacyjnymi, wiele różnych zastosowań;

Wysoki stopień heterogeniczności (heterogeniczności) – rodzaje komputerów, sprzętu komunikacyjnego, systemów operacyjnych i aplikacji są różne;

Wykorzystanie połączeń globalnych – sieci oddziałowe łączone są za pomocą środków telekomunikacyjnych, w tym kanałów telefonicznych, kanałów radiowych i łączności satelitarnej.

Terminowa wymiana informacji wewnątrz zespołu jest ważnym elementem udanej pracy każdej firmy, niezależnie od jej specyfiki i skali.

Rozprzestrzenianie się technologii cyfrowych we wszystkich branżach przyczynia się do powszechnego wdrażania sieci korporacyjnych na różnych poziomach działalności, od małych firm po holdingi.

Projektowanie i budowa sieci korporacyjnej

Popularność sieci korporacyjnych wynika z szeregu ich zalet.

Skrócenie przestojów systemu w przypadku błędów sprzętowych, programowych i technicznych wymaga stabilnej, ciągłej wymiany danych pomiędzy wszystkimi uczestnikami.

Specjalne programy i dostosowanie praw dostępu do poszczególnych dokumentów, funkcji i sekcji zmniejszają ryzyko wycieku informacji i utraty poufnych danych. Ponadto osoby naruszające zasady można łatwo wyśledzić za pomocą oprogramowania.

Proces projektowania sieci korporacyjnej obejmuje ujednolicenie lokalnych sieci działów w firmie oraz stworzenie bazy materialnej i technicznej do dalszego planowania, organizacji i zarządzania podstawową działalnością przedsiębiorstwa.

Budowa sieci korporacyjnej opiera się na uzgodnionej i opracowanej architekturze danych, platform i aplikacji, za pośrednictwem których następuje wymiana informacji pomiędzy użytkownikami. Uzyskanie działającej sieci korporacyjnej wiąże się dodatkowo z opracowaniem narzędzi do utrzymywania i ochrony baz danych.

Firmy tworzące sieci korporacyjne

Wśród firm tworzących sieci korporacyjne na uwagę zasługują:

  1. Altegra Sky to moskiewska firma zajmująca się świadczeniem pełnego zakresu usług związanych z tworzeniem sieci wewnętrznej, od opracowania podstawowej architektury po uruchomienie. Firma kupuje, instaluje, uruchamia cały niezbędny sprzęt oraz prowadzi szkolenia dla swoich klientów.

  2. Universum to moskiewski dostawca usług integracji systemów i tworzenia bezpiecznych sieci lokalnych dla przedsiębiorstw o ​​szerokim zasięgu. Specjalizacja - instalacja i dostrojenie wszystkich elementów funkcjonalnych sieci lokalnych oraz zapewnienie nieprzerwanej pracy.

  3. Open Technologies jest dostawcą innowacyjnych rozwiązań w zakresie wymiany danych wewnątrz firmy. Specjalizacją firmy jest stworzenie optymalnej struktury hierarchicznej, która zapewni niezmiennie wysoką prędkość przesyłania dokumentów, zdjęć i multimediów przy wykorzystaniu dostępnej pojemności serwerów.

Struktura, architektura, technologie korporacyjnych sieci korporacyjnych

Sieć korporacyjną przedsiębiorstwa charakteryzują dwa elementy.

LAN to sieć lokalna zapewniająca stabilną wymianę niezbędnych danych i zarządzanie uprawnieniami użytkowników. Do jego stworzenia potrzebny jest sprzęt - strukturalne sieci kablowe, a następnie SCS.

SCS to infrastruktura telekomunikacyjna – zbiór wszystkich urządzeń komputerowych firmy, pomiędzy którymi następuje wymiana danych w czasie rzeczywistym.

Tworzenie sieci korporacyjnej polega na wyborze:

  • Grupa robocza;

  • modelowanie środowisk;

  • rozwiązania programowe i sprzętowe do jego tworzenia;

  • konfiguracja i utrzymanie gotowej architektury.

Budowa architektury i wybór technologii sieci korporacyjnej składa się z kilku etapów:

  • wybór elementarnych obiektów wchodzących w skład korporacyjnej sieci wymiany danych. Z reguły są to określone produkty, usługi firmy i informacje na ich temat;

  • wybór modeli funkcjonalnych, informacyjnych i zasobowych dla przyszłej sieci. Na tym etapie ustalana jest „wewnętrzna logika” funkcjonowania przyszłej sieci;

  • ponadto na podstawie już wybranych parametrów określane są języki i metody modelowania, które mogą rozwiązać postawione problemy.

Na przykład podczas tworzenia sieci korporacyjnej dla małej firmy produkcyjnej stosuje się najbardziej dostępne języki modelowania, które nie wymagają zasilania sprzętowego. I odwrotnie, tworzenie architektury dla dużych firm o szerokim spektrum działalności wymaga użycia potężnych narzędzi.

Korporacyjne sieci lokalne poprzez VPN i Wi-Fi

VPN, czyli Virtual Private Network, to możliwość stworzenia sieci wirtualnej w przedsiębiorstwie, wykorzystującej możliwości sieci globalnej. Cechą budowy takiej sieci jest możliwość dostępu do Internetu z dowolnego miejsca na świecie za pomocą zarejestrowanego loginu i hasła.

Rozwiązanie cieszy się popularnością wśród firm IT, biur projektowych i innych przedsiębiorstw zatrudniających pracowników do pracy zdalnej. Wadą tej metody organizacji sieci lokalnej jest ryzyko nieuprawnionego dostępu i utraty danych użytkownika.

Wi-Fi to bardziej zaawansowana technologicznie i nowoczesna opcja tworzenia sieci korporacyjnej, która nie jest powiązana z wydajnością sprzętu i fizyczną lokalizacją użytkowników. Za pomocą routerów dostęp do sieci jest konfigurowany dla wszystkich pracowników i można „dostać się” do sieci z dowolnego urządzenia.

Główną zaletą Wi-Fi jest łatwa integracja i skalowanie tworzonej sieci dla dowolnej liczby użytkowników. Za pomocą Wi-Fi przepustowość sieci jest dynamicznie redystrybuowana pomiędzy poszczególnymi węzłami, w zależności od poziomu zastosowanego obciążenia.

Korporacyjna sieć satelitarna

Funkcjonowanie tego typu korporacyjnej sieci lokalnej opiera się na wykorzystaniu mocy HUB-a – terminala satelitarnego zlokalizowanego w centrach sterowania siecią.

Każdy uczestnik uzyskuje dostęp do sieci za pomocą adresu IP i satelity przekaźnikowego, który przesyła sygnał do innych użytkowników.

Ta opcja organizacji sieci korporacyjnej umożliwia:

  • szybko podłączaj nowych użytkowników do istniejącej sieci;

  • zdalnie monitorować jego funkcjonowanie i przestrzeganie przez uczestników polityki bezpieczeństwa;

  • gwarantują bezpieczeństwo danych i optymalną prywatność.

Sieci satelitarne to najstabilniejszy, najdroższy i najbardziej zaawansowany technologicznie sposób organizacji wymiany danych pomiędzy pracownikami tej samej struktury.

Korporacyjna sieć wielousługowa

Cechą sieci wielousługowej jest możliwość przesyłania informacji tekstowych, graficznych, wideo i audio za pomocą tych samych kanałów komunikacyjnych. Z reguły firmy świadczące usługi budowy sieci wielousługowych tworzą rozwiązania „pod klucz”, które umożliwiają przesyłanie wszelkiego rodzaju niezbędnych informacji za pośrednictwem adresów IP.

Z technicznego punktu widzenia tworzone są osobne podsystemy, które mają za zadanie przesyłać określone rodzaje informacji, natomiast do przesyłania danych służą przełączniki, routery i wzmacniacze sygnału. Dzięki temu sieć jest stabilniejsza, dobrze znosi duże obciążenie i umożliwia urządzeniom peryferyjnym możliwie najszybszy dostęp do centralnego serwera.

Korporacyjna sieć komputerowa

Sieć komputerowa w firmie to adaptacja technologii internetowych do wykorzystania na poziomie pojedynczej firmy. Głównym celem budowania takich sieci jest wspólne wykorzystanie informacji do wewnętrznej pracy korporacyjnej: jednoczesny dostęp i edycja dokumentów, wymiana danych.

Funkcjonowanie sieci komputerowej wymaga stosowania systemu operacyjnego kompatybilnego z całym sprzętem i oprogramowaniem do niej podłączonym. Ważne jest zapewnienie racjonalnej dystrybucji informacji oraz wyposażenie pracowników w narzędzia do planowania i zarządzania dokumentacją.

Etap budowania architektury korporacyjnej sieci komputerowej wiąże się z ciągłą komunikacją z przyszłymi użytkownikami w celu identyfikacji ich potrzeb. Pomyślnie zbudowana korporacyjna sieć komputerowa to wygodne rozwiązanie programowo-sprzętowe do wykorzystania w codziennej pracy.

Korporacyjna sieć społecznościowa

Stworzenie narzędzia do przesyłania komunikatów i wymiany informacji w ramach jednej firmy daje pracownikom możliwość utrzymywania kontaktu pomiędzy działami w czasie rzeczywistym. Jednocześnie produkt opiera się na zasadzie działania zwykłych sieci społecznościowych z „okrojoną” funkcjonalnością, która nie odrywa uwagi pracowników od ich obowiązków zawodowych.

Z reguły pracownicy firmy przebywający w biurze lub pracujący zdalnie mają dostęp do firmowego portalu społecznościowego, a poufne kwestie służbowe omawiane są przy użyciu bezpiecznych protokołów komunikacyjnych. Zapewnia to szybką i bezpieczną komunikację pomiędzy działami firmy, bez przerywania produkcji i bez ryzyka wycieku danych.

Zdalny dostęp do sieci korporacyjnej

Podstawą zdalnego dostępu do możliwości sieci firmowej jest skonfigurowanie protokołu VPN, który zapewnia korzystanie z serwerów firmowych poprzez uruchomienie maszyny wirtualnej.

Technologia opiera się na serwerze terminali, wolnych podsieciach i bezpiecznej sieci dla gości. Użytkownik nie musi kupować ani konfigurować dodatkowych programów: dostęp przez VPN zapewnia aplikacja „Team Viewer”, kompatybilna ze wszystkimi wersjami systemu operacyjnego Windows.

Rozwiązanie to jest bezpieczne ze względu na możliwość dostosowania uprawnień dostępu do danych przechowywanych na serwerach firmy.

Bezpieczeństwo sieci korporacyjnych: zagrożenia i ochrona

Nieautoryzowany dostęp do danych przechowywanych na serwerach firmowych oraz zagrożenie ich utratą to dwa główne zagrożenia, przed którymi należy chronić sieć firmową.

Do tych celów stosuje się:

  • systemy antywirusowe;

  • natychmiastowe ręczne blokowanie nieautoryzowanego dostępu;

  • dostrajanie sieci VPN, które odcinają nieautoryzowanych użytkowników poprzez podanie loginu i hasła.

Stała ochrona realizowana jest za pomocą firewalli, które w czasie rzeczywistym monitorują funkcjonowanie wszystkich elementów sieci.

Przeczytaj nasze inne artykuły:

Utworzenie sieci lokalnej to najlepszy sposób na zorganizowanie jednolitego środowiska informacyjnego przedsiębiorstwa. Dzięki niemu użytkownicy będą mieli dostęp do współdzielonych zasobów i będą mogli współdzielić drukarki i inny sprzęt sieciowy. Administrator odpowiednio konfigurując sieć może zapewnić odpowiedni poziom poufności i zapobiec wyciekowi danych stanowiących tajemnicę przedsiębiorstwa.

Cztery etapy organizacji

Cały proces można podzielić na następujące etapy:

  • Rozwój sieci. Na tym etapie specjaliści badają terytorium przedsiębiorstwa, wysłuchują życzeń klienta dotyczących funkcjonalności, sporządzają plan, specyfikacje techniczne i przygotowują sprzęt niezbędny do jego instalacji.
  • Instalacja. Na tym etapie układane są kable, instalowany jest sprzęt i konfigurowany niezbędne oprogramowanie.
  • Testowanie. Specjaliści sprawdzają działanie i zgodność zainstalowanej sieci z ogólnie przyjętymi standardami jakości.
  • Praca. Ta faza obejmuje aktualizację i, jeśli to konieczne, rozwiązywanie problemów.

Utworzona sieć korporacyjna musi spełniać następujące podstawowe wymagania:

  • Bądź łatwy w zarządzaniu.
  • Chroń się przed atakami hakerów. Ochrona sieci firmowej polega na zainstalowaniu specjalnego oprogramowania – firewalla.
  • Dopasować się do głównych typów urządzeń i kabli sieciowych. Dzięki temu sieć można w dowolnym momencie unowocześnić i zmienić.

Topologia

Organizacja sieci korporacyjnej polega na wyborze jednej z architektur jej budowy:

  • gwiazda;
  • opona;
  • pierścień.

Pierwszy schemat łączenia komputerów w sieci lokalnej jest najczęstszy. Każdy wierzchołek „gwiazdy” to osobny komputer w sieci. Komputery są połączone z koncentratorem za pomocą kabla. Z reguły jest to skrętka ze złączem RJ-45. Zaletą tej metody połączenia jest niezależność w działaniu poszczególnych komputerów. Gdy jeden z komputerów utraci połączenie z siecią, pozostałe kontynuują normalną pracę. Wadą tego schematu jest to, że w przypadku awarii koncentratora żaden z komputerów nie będzie mógł połączyć się z Internetem. Aby zbudować sieć lokalną „gwiazdę” konieczne jest zastosowanie kabli o większej długości niż w przypadku pierścienia czy magistrali.

W przypadku topologii magistrali wszystkie komputery podłączone są do jednego głównego kabla – magistrali. W takim przypadku dane otrzymuje wyłącznie odbiorca posiadający określony adres IP. Jeśli połączenie na każdym komputerze zostanie przerwane, cała sieć nieuchronnie ulegnie awarii.

W przypadku „pierścienia” sygnał jest przesyłany „po okręgu” z jednego komputera na drugi, trzeci itd. Każdy komputer PC w tym przypadku jest wzmacniaczem i wzmacniaczem sygnału. Wada ringu jest taka sama jak autobusów: jeśli jeden komputer straci połączenie z Internetem, to samo dzieje się na wszystkich pozostałych komputerach.

Niezbędny sprzęt

Aby zbudować sieć lokalną, potrzebujesz aktywnego i pasywnego sprzętu sieciowego. Sprzęt aktywny nie tylko przesyła, ale także konwertuje sygnał. Obejmuje to sprzęt taki jak karty sieciowe do komputerów i laptopów, serwery druku i routery. Sprzęt pasywny przesyła dane wyłącznie na poziomie fizycznym.

Do zorganizowania sieci lokalnej używana jest skrętka lub kabel światłowodowy. Skrętka to izolowane przewody miedziane skręcone parami. Jest kabel z 8 żyłami (4 pary) lub 4 żyłami (2 pary).

Aby podłączyć komputer, musi on posiadać kartę sieciową. Jeżeli karta wewnętrzna nie działa, dopuszczalne jest zastosowanie adaptera USB.

Potrzebujesz także koncentratora - urządzenia, które analizuje ruch przychodzący i rozdziela go na podłączone komputery. Jeśli każdy komputer ma moduł Wi-Fi, lepiej zastosować router zamiast koncentratora. Router posiada jeden port WAN i kilka portów LAN. Do portu WAN podłączony jest kabel operatora Internetu, a do portów LAN podłączane są kable służące do sygnalizowania odbiorców: komputerów, telewizorów itp.

Będziesz także potrzebował dodatkowego sprzętu - wzmacniaczy sygnału i serwera druku. Repeater to urządzenie potrzebne do wydłużenia zasięgu połączenia sieciowego. Dzięki nim możliwe jest połączenie kablem kilku pobliskich budynków. Serwer wydruku to urządzenie sieciowe umożliwiające podłączenie drukarki. Drukarka nie jest podłączona bezpośrednio do komputera, dzięki czemu urządzenie drukujące jest dostępne w każdej chwili.

Jak zadbać o bezpieczeństwo sieci firmowej

Do ochrony sieci firmowej potrzebne jest specjalne oprogramowanie – bramka internetowa. Jest to cały pakiet oprogramowania obejmujący VPN, program antywirusowy, zaporę sieciową, narzędzie do kształtowania ruchu, serwer pocztowy i wiele więcej. Nasze oprogramowanie ICS jest właśnie taką bramą.