På datanettverk pålitelighetsindikatorer. Et eksempel på beregning av påliteligheten til et lokalt datanettverk

1) egenskaper for enheter som brukes i nettverket;

2) nettverksoperativsystemet som brukes;

3) metoden for fysisk å koble nettverksnoder med kommunikasjonskanaler;

4) metoden for å forplante signaler over nettverket.

60. For standard Ethernet-teknologier brukes...

1) koaksialkabel;

2) lineær topologi;

3) ringtopologi;

4) operatørsensortilgang;

5) videresende tokenet

6) fiberoptisk kabel;

61. Liste måter som en arbeidsstasjon kan være fysisk koblet til nettverket?

1) ved hjelp av en nettverksadapter og kabeluttak

2) ved å bruke et nav

3) bruk av et modem og en dedikert telefonlinje

4) ved å bruke serveren

62. Lokale nettverk er ikke tillatt fysisk kombinere med...

1) servere

2) porter

3) rutere

4) konsentratorer

63. Hva er den største ulempen med ringtopologien?

1. høy nettverkskostnad;

2. lav nettverkspålitelighet;

3. høyt kabelforbruk;

4. lav støyimmunitet til nettverket.

64. For hvilken topologi er påstanden sann: "Svikt i en datamaskin forstyrrer ikke driften av hele nettverket"?

1) grunnleggende stjernetopologi

2) grunnleggende "bus" topologi

3) grunnleggende "ring" topologi

4) utsagnet er ikke sant for noen av de grunnleggende topologiene

65. Hva er hovedfordelen med stjernetopologien?

1. lave nettverkskostnader;

2. høy pålitelighet og kontrollerbarhet av nettverket;

3. lavt kabelforbruk;

4. god nettverksstøyimmunitet.

66. Hvilken topologi og tilgangsmetode brukes i Ethernet-nettverk?

1) buss og CSMA/CD

2) buss- og merkeoverføring

3) ring og markøroverføring

4) buss og CSMA/CA

67. Hvilke nettverksegenskaper bestemmes av valget av nettverkstopologi?

1. utstyrskostnad

2. nettverkspålitelighet

3. underordning av datamaskiner i nettverket

4. nettverksutvidbarhet

68. Hva er hovedfordelen med tilgangsmetoden for token-passering?

  1. ingen kollisjoner
  2. enkel teknisk implementering
  3. lave kostnader på utstyr

Stadier av datautveksling i nettverksbaserte datasystemer

1) datatransformasjon i ferd med å flytte fra toppnivå til bunn1

2) datatransformasjon som følge av flytting fra lavere nivå til øvre3

3) transport til mottakerens datamaskin2

70. Hvilken protokoll er den viktigste for overføring av hypertekst på Internett?

2) TCP/IP

3) NetBIOS

71. Hva er navnet på en enhet som gir et domenenavn på forespørsel basert på en IP-adresse og omvendt:

1) DFS-server

2) vert – datamaskin

3) DNS-server

4) DHCP-server

72. DNS-protokollen etablerer korrespondanse...

1) IP-adresser med bytteport

2) IP-adresser med domeneadresse

3) IP-adresser med MAC-adresse

4) MAC-adresser med domeneadresse

73. Hvilke IP-adresser kan ikke tildeles verter på Internett?

1) 172.16.0.2;

2) 213.180.204.11;

3) 192.168.10.255;

4) 169.254.141.25

En unik 32-bits sekvens av binære sifre som unikt identifiserer en datamaskin på et nettverk kalles

1) MAC-adresse

2) URL;

3) IP-adresse;

4) ramme;

Hvilke (eller hvilke) identifikatorer er tildelt i en IP-adresse ved hjelp av en subnettmaske



1) nettverk

2) nettverk og node

3) node

4) adapter

76. For hver server som er koblet til Internett, angis følgende adresser:

1) kun digitalt;

2) kun domene;

3) digital og domene;

4) adresser bestemmes automatisk;

77. På nettverksnivået for interaksjon av OSI-modellen...

1) feilaktige data overføres på nytt;

2) ruten for meldingslevering bestemmes;

3) programmer som skal utføre samhandling er bestemt;

78. Hvilken protokoll brukes til å bestemme den fysiske MAC-adressen til en datamaskin som tilsvarer IP-adressen?

OSI-modellen inkluderer _____ sammenkoblingslag

1) syv

2) fem

3) fire

4) seks

80. Hvilken nettverksklasse må en organisasjon med 300 datamaskiner registrere for å få tilgang til Internett?

81. Hva skiller TCP-protokollen fra UDP-protokollen?

1) bruker porter når du arbeider

2) oppretter en forbindelse før overføring av data

3) garanterer levering av informasjon

82. Hvilken av følgende protokoller er plassert på nettverkslaget til TCP/IP-stakken?

avhandling

6.7 Beregning av nettverkspålitelighet

Det utformede LAN er montert på basis av ferdige produkter, og gjennomsnittstiden mellom feil er hentet fra dataene levert av utstyrsprodusentene.

Påliteligheten til et element (system) forstås som dets evne til å utføre spesifiserte funksjoner med en gitt kvalitet i en viss tidsperiode under visse forhold. En endring i tilstanden til et element (system), som medfører tap av en spesifisert egenskap, kalles en feil. Transmisjonssystemer er reparerbare systemer der feil kan repareres.

En av de sentrale bestemmelsene i pålitelighetsteorien er at feil betraktes i den som tilfeldige hendelser. Tidsintervallet fra det øyeblikket elementet (systemet) slås på til dets første feil er en tilfeldig variabel kalt "feilfri driftstid". Den kumulative fordelingsfunksjonen til denne tilfeldige variabelen, som (per definisjon) er sannsynligheten for at den feilfrie driftstiden vil være mindre enn t, er betegnet q(t) og har betydningen av sannsynligheten for feil i intervallet 0. ..t. Sannsynligheten for den motsatte hendelsen - feilfri drift i dette intervallet - er lik

р(t) = 1 - q(t), % (3)

Et mål på påliteligheten til elementer og systemer er feilraten l(t), som er den betingede sannsynlighetstettheten for feil i øyeblikket t, forutsatt at det ikke var noen feil før det øyeblikket. Det er en sammenheng mellom funksjonene l(t) og р(t)

Ved normal drift (etter innkjøring, men før fysisk slitasje oppstår), er feilraten tilnærmet konstant. I dette tilfellet

Dermed tilsvarer en konstant feilrate karakteristikk for en periode med normal drift en eksponentiell reduksjon i sannsynligheten for feilfri drift over tid.

Følgelig er gjennomsnittstiden mellom feil under normal drift omvendt proporsjonal med feilraten

La oss vurdere påliteligheten til systemet vårt, som består av mange forskjellige typer elementer. La p1(t), p2(t),..., pr(t) være sannsynlighetene for feilfri drift av hvert element på tidsintervallet 0...t, r være antall elementer i systemet. Hvis feil i individuelle elementer oppstår uavhengig, og svikt i minst ett element fører til svikt i hele systemet (denne typen kobling av elementer i pålitelighetsteori kalles sekvensiell), så er sannsynligheten for feilfri drift av systemet som helhet er lik produktet av sannsynlighetene for feilfri drift av dets individuelle elementer

hvor er systemfeilfrekvensen, h-1;

Feilrate for det i-te elementet, h-1.

Gjennomsnittlig tid for feilfri drift av systemet tcr.syst., h, er funnet av formelen

Hovedkarakteristikkene til påliteligheten til restaurerte elementer og systemer inkluderer tilgjengelighetsfaktoren

hvor tav er den gjennomsnittlige gjenopprettingstiden for elementet (systemet).

Det tilsvarer sannsynligheten for at et element (system) vil være operativt til enhver tid.

Metodikken for å beregne hovedkarakteristikkene til LAN-pålitelighet er som følger: beregning av feilraten og gjennomsnittlig tid mellom banefeil.

I samsvar med uttrykket bestemmes LAN-feilfrekvensen, h-1, som summen av feilfrekvensen til nettverksnoder (VPN-ruter, tre servere, 10 arbeidsstasjoner) og kabel

hvor er feilfrekvensene for henholdsvis en PC, ruter, server, en meter kabel, h-1;

Antall PC-er, rutere, servere

L - kabellengde, km.

Vi bestemmer verdier for individuelle enheter ved hjelp av oppslagsbøker og driftsforhold.

Som et resultat får vi:

4,77*10-5*10+5,26*10-5*1+4,02*10-5*3+4,28*10-7*0,1=2,69*10-4 (11)

La oss beregne gjennomsnittlig oppetid for et LAN ved å bruke formelen

Sannsynligheten for feilfri drift av et LAN i en gitt tidsperiode t1 = 24 timer (dag), t2 = 720 timer (måned) ved 2,69 * 10-4 h-1 er funnet av formelen:

Ved t = 24 timer (dager)

Ved t =720 t (måned)

Beregning av nyttig nettverksbåndbredde

Det må skilles mellom nyttig og total gjennomstrømning. Nyttig båndbredde refererer til hastigheten på informasjonsoverføringen, hvis volum alltid er litt mindre enn den overførte informasjonen, siden hver overført ramme inneholder tjenesteinformasjon som garanterer korrekt levering til mottakeren.

Automatisert elektronisk dokumentgodkjenningssystem basert på MS SharePoint 2007

La oss vurdere pålitelighetsmodellen til systemarkitekturen. Systemet består av følgende komponenter: klientmaskiner, en webserver og en databaseserver. Som en annen komponent vil vi vurdere det lokale nettverket...

Parallell kommunikasjonsadapter

Feilprosenten er preget av forholdet mellom antall produkter per tidsenhet og antall produkter som fortsatt kan brukes ved begynnelsen av den aktuelle tidsperioden: (4.3) hvor m er antall produkter...

Pålitelighet blokkdiagram analyse

I henhold til det strukturelle diagrammet over påliteligheten til det tekniske systemet (fig....

Bruken av nettverksteknologier i utformingen av et eksternt informasjonssystem og datanettverk

Modell 1. Reglene for modell 1 er ekstremt enkle: - den elektriske kabelen bør ikke være lengre enn 100m. Maksimal lengde mellom to abonnenter (ruter - switch) er 81,1 m Dette betyr at kabellengden er mindre enn 100 m, noe som betyr at nettverket er i drift...

Design-fase pålitelighet er en ny disiplin og refererer til prosessen med å utvikle pålitelige produkter. Denne prosessen inkluderer flere verktøy og beste fremgangsmåter og beskriver hvordan du bruker dem...

Metoder og midler for å sikre påliteligheten til automatiserte informasjonssystemer

Redundans er en metode for å øke pålitelighetsegenskapene til tekniske enheter eller opprettholde dem på det nødvendige nivået ved å introdusere maskinvareredundans ved å inkludere reserveelementer (backup) og tilkoblinger...

Pålitelighet av informasjonssystemer

logisk drift pålitelighet feilsikker Siden systemet består av elementer som ikke kan gjenopprettes, er elementene i pålitelighetsfunksjonen sannsynligheten for feilfri drift...

Funksjoner ved datamaskindesign og produksjon

Pålitelighetsberegning består av å bestemme pålitelighetsindikatorene til et produkt basert på de kjente pålitelighetsegenskapene til komponentene og driftsforholdene ...

Sikkerhetssystem med fjernkontroll

Pålitelighetsberegninger utføres på utviklingsstadiet av et objekt for å fastslå om det er i samsvar med kravene. Som et resultat av beregningen må kvantitative egenskaper for påliteligheten til objekter bestemmes ...

Design av et sanntids databehandlingssystem

Ytelsen til systemet eller dets individuelle deler under drift kan bli svekket som følge av utstyrssvikt - svikt i elementer eller forbindelser mellom dem...

Utvikling av et webgrensesnitt for ACS i Vatyeganskoye-feltet i Trace Mode 6-verktøypakken

Utvikling av et informasjonsinnhentingssystem for dannelse av teknologisk utstyr for monterings- og installasjonsarbeid

I kampen mot programvarekompleksitet brukes to begreper: - hierarkisk struktur. Hierarki lar deg bryte systemet ned i nivåer av forståelse (abstraksjon, kontroll). Konseptet med nivåer lar deg analysere et system...

Utvikling av et mikroprosessorkontrollsystem basert på 1883 mikroprosessorsettet for SM40TS-roboten

K572PV4 - en analog-til-digital-omformer med innebygd bryter har en gjennomsnittlig tid mellom feil, derfor er feilraten: LSI-kontrollminne U831-K1883RT1 har en gjennomsnittlig tid mellom feil...

Utvikling av et adgangskontrollsystem med analyse av irismønsteret

Basert på de tekniske spesifikasjonene må systemet som utvikles gi følgende pålitelighetsrelaterte indikatorer: Enhetens levetid er minst 5 år. Sannsynligheten for feilfri drift i løpet av levetiden er minst 0,95...

ALU-kontrollemulator modulo 3

Generelle bestemmelser Med utgangspunkt i det elektriske kretsskjemaet vurderes pålitelighet under gitte pålitelighetsforhold. Pålitelighet er evnen til en SVT til å forbli operativ i en spesifisert tidsperiode...

Forelesning 13. Krav til datanettverk

De viktigste indikatorene på nettverksytelse diskuteres: ytelse, pålitelighet og sikkerhet, utvidbarhet og skalerbarhet, transparens, støtte for ulike typer trafikk, kvalitet på tjenestekarakteristikker, administrerbarhet og kompatibilitet.

Stikkord: ytelse, responstid, gjennomsnittlig, øyeblikkelig, maksimal, total gjennomstrømning, overføringsforsinkelse, overføringsforsinkelsesvariasjon, pålitelighetsindikatorer, gjennomsnittlig tid mellom feil, sannsynlighet for feil, feilrate, tilgjengelighet, tilgjengelighetsfaktor, dataintegritet, konsistens, datakonsistens, sannsynlighet av datalevering, sikkerhet, feiltoleranse, utvidbarhet, skalerbarhet, åpenhet, multimedietrafikk, synkronisitet, pålitelighet, forsinkelser, datatap, datatrafikk, sentralisert kontroll, overvåking, analyse, nettverksplanlegging, Quality of Service (QoS), forsinkelser av pakkeoverføring , nivå av pakketap og forvrengning, "best innsats"-tjeneste, "med maksimal innsats", "som mulig".

Overholdelse av standarder er bare ett av mange krav til moderne nettverk. I denne delen vil vi fokusere på noen andre, ikke mindre viktige.

Det mest generelle ønsket som kan uttrykkes angående driften av et nettverk er at nettverket utfører det settet med tjenester som det er ment å tilby: for eksempel gi tilgang til filarkiver eller sider på offentlige Internett-nettsteder, utveksling av e- post i en bedrift eller på global skala, interaktiv talemelding over IP-telefoni, etc.

Alle andre krav – ytelse, pålitelighet, kompatibilitet, håndterbarhet, sikkerhet, utvidbarhet og skalerbarhet – er relatert til kvaliteten på denne hovedoppgaven. Og selv om alle de ovennevnte kravene er veldig viktige, er ofte konseptet "kvalitet på tjenesten" (Quality of Service, QoS) til et datanettverk tolkes snevrere: det inkluderer bare de to viktigste egenskapene til nettverket - ytelse og pålitelighet.

Ytelse

Potensielt høy ytelse er en av hovedfordelene med distribuerte systemer, som inkluderer datanettverk. Denne egenskapen sikres av den grunnleggende, men dessverre ikke alltid praktisk realiserbare muligheten for å fordele arbeid mellom flere datamaskiner på nettverket.

Viktige nettverksytelsesegenskaper:

    reaksjonstid;

    trafikk overføring hastighet;

    gjennomstrømning;

    overføringsforsinkelse og overføringsforsinkelsesvariasjon.

Nettverksresponstid er en integrert karakteristikk av nettverksytelse fra brukerens synspunkt. Dette er nettopp egenskapen en bruker har i tankene når han sier: "Nettverket er tregt i dag."

Generelt er responstid definert som intervallet mellom forekomsten av en brukerforespørsel for en nettverkstjeneste og mottak av et svar på den.

Selvfølgelig avhenger verdien av denne indikatoren av typen tjeneste som brukeren har tilgang til, hvilken bruker og hvilken server som har tilgang til, samt den nåværende tilstanden til nettverkselementer - belastningen på segmentene, bryterne og ruterne som forespørselen passerer, belastningen på serveren og etc.

Derfor er det fornuftig å også bruke et vektet gjennomsnittlig estimat av nettverkets responstid, med et gjennomsnitt av denne indikatoren over brukere, servere og tidspunkt på dagen (som nettverksbelastningen i stor grad avhenger av).

Nettverksresponstid består vanligvis av flere komponenter. Generelt inkluderer det:

    be om forberedelsestid på klientdatamaskinen;

    tidspunktet for overføring av forespørsler mellom klienten og serveren gjennom nettverkssegmenter og mellomliggende kommunikasjonsutstyr;

    behandlingstid for serverforespørsel;

    tiden for overføring av svar fra serveren til klienten og behandlingstiden for svar mottatt fra serveren på klientdatamaskinen.

Det er klart at brukeren ikke er interessert i å dekomponere reaksjonstiden i dens komponenter - sluttresultatet er viktig for ham. For en nettverksspesialist er det imidlertid svært viktig å isolere fra den totale reaksjonstiden komponentene som tilsvarer stadiene i selve nettverksdatabehandlingen - dataoverføring fra klient til server gjennom nettverkssegmenter og kommunikasjonsutstyr.

Å kjenne nettverkskomponentene for responstid lar deg evaluere ytelsen til individuelle nettverkselementer, identifisere flaskehalser og, om nødvendig, oppgradere nettverket for å forbedre dets generelle ytelse.

Nettverksytelse kan også karakteriseres av trafikkoverføringshastighet.

Trafikkoverføringshastigheten kan være øyeblikkelig, maksimal og gjennomsnittlig.

    gjennomsnittshastigheten beregnes ved å dele det totale volumet av data som overføres med tidspunktet for overføringen, og en tilstrekkelig lang tidsperiode velges - en time, en dag eller en uke;

    øyeblikkelig hastighet skiller seg fra gjennomsnittshastighet ved at en svært kort tidsperiode velges for gjennomsnittlig - for eksempel 10 ms eller 1 s;

    maksimal hastighet er den høyeste hastigheten registrert i observasjonsperioden.

Oftest, når du designer, konfigurerer og optimaliserer et nettverk, brukes indikatorer som gjennomsnittlig og maksimal hastighet. Gjennomsnittshastigheten som trafikken behandles med av et enkelt element eller nettverket som helhet, gjør det mulig å evaluere driften av nettverket over en lang tidsperiode, hvor på grunn av loven om store tall, topper og daler i trafikkintensiteten kompenserer hverandre. Den maksimale hastigheten lar deg evaluere hvordan nettverket vil takle toppbelastninger som er karakteristiske for spesielle driftsperioder, for eksempel om morgenen, når bedriftsansatte logger på nettverket nesten samtidig og får tilgang til delte filer og databaser. Vanligvis, når du bestemmer hastighetsegenskapene til et bestemt segment eller enhet, er trafikken til en spesifikk bruker, applikasjon eller datamaskin ikke uthevet i de overførte dataene - den totale mengden overført informasjon beregnes. For en mer nøyaktig vurdering av kvaliteten på tjenesten er imidlertid slik granularitet ønskelig, og nylig tillater nettverksstyringssystemer det i økende grad.

Passevne– maksimal mulig hastighet for trafikkbehandling, bestemt av teknologistandarden som nettverket er bygget på. Båndbredde gjenspeiler den maksimalt mulige mengden data som overføres av et nettverk eller deler av det per tidsenhet.

Båndbredde er ikke lenger, som responstid eller hastighet på datapassasje gjennom nettverket, en brukerkarakteristikk, siden den snakker om hastigheten på interne nettverksoperasjoner - overføring av datapakker mellom nettverksnoder gjennom ulike kommunikasjonsenheter. Men det karakteriserer direkte kvaliteten på nettverkets hovedfunksjon – meldingstransport – og brukes derfor oftere til å analysere nettverksytelse enn responstid eller hastighet.

Gjennomstrømning måles enten i bits per sekund eller pakker per sekund.

Nettverksgjennomstrømning avhenger både av egenskapene til det fysiske overføringsmediet (kobberkabel, optisk fiber, tvunnet par) og av den vedtatte dataoverføringsmetoden (Ethernet, FastEthernet, ATM-teknologi). Båndbredde brukes ofte som en karakteristikk ikke så mye av nettverket, men av den faktiske teknologien som nettverket er bygget på. Betydningen av denne egenskapen for nettverksteknologi vises spesielt ved at betydningen noen ganger blir en del av navnet, for eksempel 10 Mbit/s Ethernet, 100 Mbit/s Ethernet.

I motsetning til responstid eller trafikkoverføringshastighet, er ikke gjennomstrømming avhengig av nettverksbelastning og har en konstant verdi bestemt av teknologiene som brukes i nettverket.

I ulike deler av et heterogent nettverk, hvor flere ulike teknologier brukes, kan gjennomstrømningen variere. For å analysere og konfigurere et nettverk, er det veldig nyttig å vite data om gjennomstrømmingen til dets individuelle elementer. Det er viktig å merke seg at på grunn av den sekvensielle karakteren av dataoverføring mellom forskjellige nettverkselementer, vil den totale gjennomstrømningen av en hvilken som helst sammensatt bane i nettverket være lik minimum av gjennomstrømningene til rutens bestanddeler. For å forbedre gjennomstrømningen til en sammensatt bane, må du først fokusere på de tregeste elementene. Noen ganger er det nyttig å operere med den totale nettverkskapasiteten, som er definert som den gjennomsnittlige informasjonsmengden som overføres mellom alle nettverksnoder per tidsenhet. Denne indikatoren karakteriserer kvaliteten på nettverket som helhet, uten å skille det etter individuelle segmenter eller enheter.

Sendingsforsinkelse er definert som forsinkelsen mellom øyeblikket data kommer til inngangen til en nettverksenhet eller del av nettverket og øyeblikket den vises ved utgangen til denne enheten.

Denne ytelsesparameteren er nær i betydningen nettverkets responstid, men skiller seg ved at den alltid bare karakteriserer nettverksstadiene av databehandling, uten forsinkelser i behandlingen av sluttnodene til nettverket.

Vanligvis er nettverkskvaliteten preget av maksimal overføringsforsinkelse og forsinkelsesvariasjon. Ikke alle typer trafikk er følsomme for overføringsforsinkelser, i det minste for de forsinkelsene som er typiske for datanettverk - vanligvis overstiger forsinkelser ikke hundrevis av millisekunder, sjeldnere - flere sekunder. Denne størrelsesorden forsinkelser for pakker generert av en filtjeneste, e-posttjeneste eller utskriftstjeneste har liten innvirkning på kvaliteten på disse tjenestene fra nettverksbrukerens synspunkt. På den annen side kan de samme forsinkelsene av pakker som bærer tale- eller videodata føre til en betydelig reduksjon i kvaliteten på informasjonen som gis til brukeren - utseendet til en "ekko"-effekt, manglende evne til å forstå noen ord, vibrasjon av bilde osv.

Alle disse nettverksytelsesegenskapene er ganske uavhengige. Mens nettverksgjennomstrømningen er konstant, kan trafikkhastigheten variere avhengig av nettverksbelastningen, uten selvfølgelig å overskride grensen satt av gjennomstrømningen. Så i et enkeltsegment 10 Mbit/s Ethernet-nettverk kan datamaskiner utveksle data med hastigheter på 2 Mbit/s og 4 Mbit/s, men aldri med 12 Mbit/s.

Båndbredde og overføringsforsinkelser er også uavhengige parametere, så et nettverk kan ha for eksempel høy gjennomstrømning, men introdusere betydelige forsinkelser i overføringen av hver pakke. Et eksempel på en slik situasjon er gitt av en kommunikasjonskanal dannet av en geostasjonær satellitt. Gjennomstrømningen til denne kanalen kan være svært høy, for eksempel 2 Mbit/s, mens overføringsforsinkelsen alltid er minst 0,24 s, som bestemmes av forplantningshastigheten til det elektriske signalet (ca. 300 000 km/s) og lengden av kanalen (72 000 km) .

Pålitelighet og sikkerhet

Et av de første målene med å lage distribuerte systemer, som inkluderer datanettverk, var å oppnå større pålitelighet sammenlignet med individuelle datamaskiner.

Det er viktig å skille mellom flere aspekter ved pålitelighet.

For relativt enkle tekniske enheter brukes følgende pålitelighetsindikatorer:

Gjennomsnittlig tid mellom feil;

Sannsynlighet for feil;

Sviktsprosent.

Imidlertid er disse indikatorene egnet for å vurdere påliteligheten til enkle elementer og enheter som bare kan være i to tilstander - operative eller inoperative. Komplekse systemer som består av mange elementer, i tillegg til drifts- og inoperabilitetstilstander, kan også ha andre mellomtilstander som disse egenskapene ikke tar hensyn til.

For å vurdere påliteligheten til komplekse systemer, brukes et annet sett med egenskaper:

Tilgjengelighet eller beredskapsgrad;

Datasikkerhet;

Konsistens (konsistens) av data;

Sannsynlighet for datalevering;

Sikkerhet;

Feiltoleranse.

Tilgjengelighet refererer til tidsperioden et system kan brukes. Tilgjengeligheten kan økes ved å innføre redundans i systemstrukturen: nøkkelelementer i systemet må eksistere i flere eksemplarer slik at hvis en av dem svikter, vil de andre sikre at systemet fungerer.

For at et datasystem skal anses som svært pålitelig, må det i det minste ha høy tilgjengelighet, men dette er ikke nok. Det er nødvendig å sikre sikkerheten til data og beskytte dem mot forvrengning. I tillegg må datakonsistens opprettholdes, for eksempel hvis flere kopier av data lagres på flere filservere for å øke påliteligheten, må deres identitet sikres til enhver tid.

Siden nettverket opererer på grunnlag av en mekanisme for å sende pakker mellom endenoder, er en av pålitelighetsegenskapene sannsynligheten for å levere en pakke til destinasjonsnoden uten forvrengning. Sammen med denne karakteristikken kan andre indikatorer brukes: sannsynligheten for pakketap (uansett grunn - på grunn av overløp av ruterbufferen, kontrollsummismatch, mangel på en brukbar bane til destinasjonsnoden, etc.), sannsynligheten for korrupsjon av en enkelt bit med overførte data, forholdet mellom antall tapte og leverte pakker.

Et annet aspekt ved generell pålitelighet er sikkerhet, som er systemets evne til å beskytte data mot uautorisert tilgang. Dette er mye vanskeligere å gjøre i et distribuert system enn i et sentralisert. I nettverk sendes meldinger over kommunikasjonslinjer, ofte gjennom offentlig tilgjengelige lokaler der det kan være installert midler for å lytte til linjene. En annen sårbarhet kan være personlige datamaskiner som står uten tilsyn. I tillegg er det alltid den potensielle trusselen om å hacke nettverkssikkerhet fra uautoriserte brukere hvis nettverket har tilgang til globale offentlige nettverk.

En annen pålitelighetskarakteristikk er feiltoleranse. I nettverk refererer feiltoleranse til evnen til et system til å skjule svikt i dets individuelle elementer for brukeren. For eksempel, hvis kopier av en databasetabell er lagret samtidig på flere filservere, kan det hende at brukere rett og slett ikke legger merke til at en av dem mislykkes. I et feiltolerant system fører svikt i et av elementene til en liten reduksjon i kvaliteten på driften (degradering), og ikke til fullstendig stopp. Så hvis en av filserverne svikter i det forrige eksempelet, øker bare databasetilgangstiden på grunn av en reduksjon i graden av spørringsparallellisering, men generelt vil systemet fortsette å utføre sine funksjoner.

Utvidbarhet og skalerbarhet

Begrepene "utvidbarhet" og ";skalerbarhet"; noen ganger brukt som synonymer, men dette er feil - hver av dem har en klart definert uavhengig betydning.

Utvidbarhet(utvidbarhet)

Skalerbarhet(skalerbarhet)

Mulighet for relativt enkelt tillegg av individuelle nettverkselementer

Evne til å legge til (ikke nødvendigvis enkle) nettverkselementer

Enkel systemutvidelse kan sikres innenfor visse svært begrensede grenser

Skalerbarhet gjør at nettverket kan utvides innenfor et meget bredt område, samtidig som forbrukeregenskapene til nettverket opprettholdes

Utvidbarhet(utvidbarhet) betyr muligheten til relativt enkelt å legge til individuelle nettverkselementer (brukere, datamaskiner, applikasjoner, tjenester), øke lengden på nettverkssegmenter og erstatte eksisterende utstyr med kraftigere. Det er grunnleggende viktig at enkel systemutvidelse noen ganger kan sikres innenfor svært begrensede rammer. For eksempel har et lokalt Ethernet-nettverk, bygget på ett segment av tykk koaksialkabel, god utvidbarhet i den forstand at det lar deg enkelt koble til nye stasjoner. Et slikt nettverk har imidlertid en grense på antall stasjoner - det bør ikke overstige 30–40. Selv om nettverket tillater fysisk tilkobling til et segment av et større antall stasjoner (opptil 100), resulterer dette oftest i en kraftig reduksjon i nettverksytelsen. Tilstedeværelsen av en slik begrensning er et tegn på dårlig skalerbarhet av systemet med god utvidbarhet.

Skalerbarhet(skalerbarhet) betyr at nettverket lar deg øke antall noder og lengden på tilkoblinger innenfor et meget bredt område, samtidig som nettverksytelsen ikke forringes. For å sikre nettverksskalerbarhet er det nødvendig å bruke ekstra kommunikasjonsutstyr og strukturere nettverket på en spesiell måte. For eksempel har et multi-segment nettverk bygget ved hjelp av svitsjer og rutere og har en hierarkisk struktur av forbindelser god skalerbarhet. Et slikt nettverk kan omfatte flere tusen datamaskiner og samtidig gi hver nettverksbruker den nødvendige kvaliteten på tjenesten.

Åpenhet

Nettverksgjennomsiktighet oppnås når nettverket fremstår for brukere som ikke så mange individuelle datamaskiner som er sammenkoblet av et komplekst system av kabler, men som en enkelt tradisjonell datamaskin med et tidsdelingssystem. Det berømte slagordet til Sun Microsystems "Nettverket er datamaskinen"; – snakker nettopp om et så transparent nettverk.

Åpenhet kan oppnås på to ulike nivåer – på brukernivå og på programmerernivå. På brukernivå betyr åpenhet at brukeren bruker de samme kommandoene og kjente prosedyrene for å arbeide med eksterne ressurser som han gjør for å jobbe med lokale ressurser. På programnivå betyr åpenhet at en applikasjon krever de samme kallene for å få tilgang til eksterne ressurser som den gjør for å få tilgang til lokale ressurser. Åpenhet på brukernivå er lettere å oppnå fordi alle prosedyredetaljene knyttet til systemets distribuerte natur er skjult for brukeren av programmereren som oppretter applikasjonen. Åpenhet på applikasjonsnivå krever at alle distribusjonsdetaljer skjules ved å bruke nettverksoperativsystemet.

Åpenhet– Et nettverks evne til å skjule detaljer om sin interne struktur for brukeren, noe som forenkler arbeidet på nettverket.

Nettverket må skjule alle funksjonene til operativsystemer og forskjeller i datamaskintyper. En Macintosh-bruker må ha tilgang til ressurser som støttes av et UNIX-system, og en UNIX-bruker må kunne dele informasjon med Windows 95-brukere. De aller fleste brukere ønsker ikke å vite noe om interne filformater eller UNIX-kommandosyntaks. En IBM 3270-terminalbruker skal kunne utveksle meldinger med brukere på et nettverk av personlige datamaskiner uten å måtte fordype seg i hemmelighetene til adresser som er vanskelige å huske.

Konseptet med åpenhet gjelder ulike aspekter av nettverket. For eksempel betyr plasseringsgjennomsiktighet at brukeren ikke er pålagt å vite plasseringen av programvare- og maskinvareressurser som prosessorer, skrivere, filer og databaser. Ressursnavnet skal ikke inneholde informasjon om plasseringen, så navn som mashinel:prog.c eller \\ftp_serv\pub er ikke gjennomsiktige. På samme måte betyr bevegelsestransparens at ressurser kan bevege seg fritt fra en datamaskin til en annen uten å endre navn. Et annet mulig aspekt ved åpenhet er gjennomsiktigheten av parallellisme, som ligger i det faktum at prosessen med å parallellisere beregninger skjer automatisk, uten deltakelse av en programmerer, mens systemet selv distribuerer parallelle grener av applikasjonen mellom prosessorer og nettverksdatamaskiner. Foreløpig kan det ikke sies at egenskapen til åpenhet er helt iboende i mange datanettverk, det er snarere et mål som utviklere av moderne nettverk streber etter.

Støtter ulike typer trafikk

Datanettverk var opprinnelig ment for å dele tilgang til dataressurser: filer, skrivere osv. Trafikken som skapes av disse tradisjonelle datanettverkstjenestene har sine egne egenskaper og er vesentlig forskjellig fra meldingstrafikk i telefonnettverk eller for eksempel i kabel-tv-nettverk. . På 90-tallet trengte imidlertid multimediadatatrafikk, som representerte tale og video i digital form, inn i datanettverk. Datanettverk begynte å bli brukt til å organisere videokonferanser, opplæring basert på videoer osv. Den dynamiske overføringen av multimedietrafikk krever naturligvis andre algoritmer og protokoller, og følgelig annet utstyr. Selv om andelen multimediatrafikk fortsatt er liten, har den allerede begynt å trenge gjennom både globale og lokale nettverk, og denne prosessen vil åpenbart fortsette aktivt.

Hovedtrekket i trafikken som genereres under dynamisk overføring av tale eller bilde, er tilstedeværelsen av strenge krav for synkronisering av overførte meldinger. For høykvalitets gjengivelse av kontinuerlige prosesser, som lydvibrasjoner eller endringer i lysintensitet i et videobilde, er det nødvendig å oppnå målte og kodede signalamplituder med samme frekvens som de ble målt på sendersiden. Hvis meldinger er forsinket, vil det oppstå forvrengning.

Samtidig er datatrafikk preget av en ekstremt ujevn intensitet av meldinger som kommer inn i nettverket i fravær av strenge krav til synkronisering av leveringen av disse meldingene. For eksempel genererer tilgang fra en bruker som arbeider med tekst på en ekstern disk en tilfeldig strøm av meldinger mellom den eksterne og lokale datamaskinen, avhengig av brukerens handlinger, og leveringsforsinkelser innenfor visse (ganske vide fra et datamaskinsynspunkt) grenser har liten effekt på kvaliteten på tjenesten for nettverksbrukeren. Alle datakommunikasjonsalgoritmer, tilsvarende protokoller og kommunikasjonsutstyr ble designet for nettopp dette "pulserende" signalet. trafikkens natur, derfor krever behovet for å overføre multimediatrafikk grunnleggende endringer i både protokoller og utstyr. I dag gir nesten alle nye protokoller støtte for multimedietrafikk i en eller annen grad.

Spesielt vanskelig er kombinasjonen av tradisjonell data- og multimediatrafikk i ett nettverk. Å overføre utelukkende multimedietrafikk over et datanettverk, selv om det er forbundet med visse vanskeligheter, er mindre problematisk. Men sameksistensen av to typer trafikk med motstridende krav til tjenestekvalitet er en mye vanskeligere oppgave. Vanligvis klassifiserer datanettverksprotokoller og utstyr multimedietrafikk som valgfritt, så kvaliteten på tjenesten overlater mye å være ønsket. I dag brukes stor innsats på å skape nettverk som ikke krenker interessene til én type trafikk. Nærmest dette målet er nettverk basert på ATM-teknologi, hvor utviklerne i utgangspunktet tok hensyn til tilfellet med sameksistens av forskjellige typer trafikk i samme nettverk.

Kontrollerbarhet

Ideelt sett er nettverksadministrasjonsverktøy et system som overvåker, kontrollerer og administrerer hvert element i nettverket - fra de enkleste til de mest komplekse enhetene, og et slikt system ser på nettverket som en enkelt helhet, og ikke som en uensartet samling av individuelle enheter .

Kontrollerbarhet nettverk innebærer muligheten til sentralt å overvåke statusen til hovedelementene i nettverket, identifisere og løse problemer som oppstår under nettverksdrift, utføre ytelsesanalyse og planlegge nettverksutvikling.

Et godt styringssystem overvåker nettverket og, når det oppdager et problem, iverksetter en handling, retter opp situasjonen og varsler administratoren om hva som skjedde og hvilke skritt som ble tatt. Samtidig skal kontrollsystemet akkumulere data på bakgrunn av hvilke nettverksutbygging kan planlegges. Til slutt må kontrollsystemet være uavhengig av produsenten og ha et brukervennlig grensesnitt som lar deg utføre alle handlinger fra én konsoll.

Mens de løser taktiske problemer, står administratorer og teknisk personale overfor de daglige utfordringene med å sikre nettverksfunksjonalitet. Disse oppgavene krever raske løsninger nettverksvedlikeholdspersonell må raskt svare på feilmeldinger mottatt fra brukere eller automatiske nettverksadministrasjonsverktøy. Over tid blir vanlige problemer med ytelse, nettverkskonfigurasjon, feilhåndtering og datasikkerhet tydelige og krever en strategisk tilnærming, dvs. nettverksplanlegging. Planlegging inkluderer i tillegg prognoser for endringer i brukerkrav for nettverket, problemer med bruk av nye applikasjoner, nye nettverksteknologier, etc.

Behovet for et styringssystem er spesielt uttalt i store nettverk: bedrifts- eller globalt. Uten et styringssystem krever slike nettverk tilstedeværelsen av kvalifiserte driftsspesialister i hver bygning i hver by der nettverksutstyr er installert, noe som til slutt fører til behovet for å opprettholde en stor stab av vedlikeholdspersonell.

For tiden er det mange uløste problemer innen nettverksstyringssystemer. Det er tydeligvis ikke nok virkelig praktiske, kompakte og multi-protokoll nettverksadministrasjonsverktøy. De fleste eksisterende verktøy administrerer ikke nettverket i det hele tatt, men overvåker bare driften. De overvåker nettverket, men gjør ikke aktive handlinger hvis noe har skjedd eller kan skje med nettverket. Det er få skalerbare systemer som er i stand til å betjene både avdelingsskala nettverk og bedriftsskala nettverk - mange systemer administrerer kun individuelle nettverkselementer og analyserer ikke nettverkets evne til å utføre dataoverføring av høy kvalitet mellom sluttbrukere.

Kompatibilitet

Kompatibilitet eller integrerbarhet betyr at nettverket kan inkludere en rekke programvare og maskinvare, det vil si at det kan eksistere side om side med forskjellige operativsystemer som støtter forskjellige kommunikasjonsprotokollstabler og kjøre maskinvare og applikasjoner fra forskjellige produsenter. Et nettverk som består av ulike typer elementer kalles heterogent eller heterogent, og hvis et heterogent nettverk fungerer uten problemer, så er det integrert. Den viktigste måten å bygge integrerte nettverk på er å bruke moduler laget i henhold til åpne standarder og spesifikasjoner.

Kvalitet på tjenesten

Kvalitet på tjenesten Quality of Service (QoS) kvantifiserer sannsynligheten for at et nettverk vil overføre en gitt dataflyt mellom to noder i henhold til behovene til en applikasjon eller bruker.

For eksempel, når du overfører taletrafikk gjennom et nettverk, betyr tjenestekvalitet oftest garantier for at talepakker vil bli levert av nettverket med en forsinkelse på ikke mer enn N ms, mens forsinkelsesvariasjonen ikke vil overstige M ms, og disse egenskapene vil vedlikeholdes av nettverket med en sannsynlighet på 0,95 ved et visst tidsintervall. Det vil si at for en applikasjon som bærer taletrafikk, er det viktig at nettverket garanterer samsvar med dette spesielle settet med tjenestekvalitetsegenskaper som er oppført ovenfor. Filtjenesten trenger garantier for gjennomsnittlig båndbredde og utvidelse med korte intervaller til et visst maksimalt nivå for rask overføring av krusninger. Ideelt sett bør nettverket garantere spesifikke tjenestekvalitetsparametere formulert for hver enkelt applikasjon. Men av åpenbare grunner er QoS-mekanismene som utvikles og allerede eksisterer begrenset til å løse et enklere problem - garanterer visse gjennomsnittskrav spesifisert for hovedtypene av applikasjoner.

Oftest regulerer parametrene som vises i ulike definisjoner av tjenestekvalitet følgende nettverksytelsesindikatorer:

Båndbredde;

Pakkeoverføringsforsinkelser;

Nivå av pakketap og forvrengning.

Kvaliteten på tjenesten er garantert for noen datastrøm. Husk at en dataflyt er en sekvens av pakker som har noen felles kjennetegn, for eksempel adressen til kildenoden, informasjon som identifiserer applikasjonstypen (TCP/UDP-portnummer), etc. Begreper som aggregering og differensiering gjelder for flyter. Dermed kan en datastrøm fra én datamaskin representeres som en samling av strømmer fra forskjellige applikasjoner, og strømmer fra datamaskiner til en bedrift samles til én datastrøm for en abonnent hos en tjenesteleverandør.

Tjenestekvalitetsmekanismer skaper ikke kapasitet alene. Nettverket kan ikke gi mer enn det det har. Så den faktiske kapasiteten til kommunikasjonskanaler og transittkommunikasjonsutstyr er nettverksressurser som er utgangspunktet for driften av QoS-mekanismer. QoS-mekanismer administrerer kun tildelingen av tilgjengelig båndbredde i henhold til applikasjonskrav og nettverksinnstillinger. Den mest åpenbare måten å omfordele nettverksbåndbredde på er å administrere pakkekøer.

Siden data som utveksles mellom to endenoder går gjennom en rekke mellomliggende nettverksenheter som huber, svitsjer og rutere, krever QoS-støtte samhandling av alle nettverkselementer langs trafikkbanen, det vil si ende-til-ende. (";ende-til-ende";, ";e2e";). Enhver QoS-garanti er bare like sann som den svakeste. element i kjeden mellom avsender og mottaker. Derfor må du tydelig forstå at QoS-støtte i bare én nettverksenhet, til og med en ryggradsenhet, bare kan forbedre kvaliteten på tjenesten litt eller ikke påvirke QoS-parametrene i det hele tatt.

Implementeringen av QoS-støttemekanismer i datanettverk er en relativt ny trend. I lang tid eksisterte datanettverk uten slike mekanismer, og dette skyldes hovedsakelig to årsaker. For det første var de fleste applikasjonene som kjørte på nettverket "lyskrevende", noe som betyr at for slike applikasjoner, resulterte ikke pakkeforsinkelser eller gjennomsnittlige gjennomstrømningsvariasjoner over et bredt nok område i betydelig tap av funksjonalitet. Eksempler på "low-demand"-applikasjoner er de vanligste applikasjonene i 1980-tallsnettverk: e-post eller ekstern filkopiering.

For det andre var selve båndbredden til 10 Mbit Ethernet-nettverk ikke mangelvare i mange tilfeller. Et delt Ethernet-segment, som 10-20 datamaskiner var koblet til, som av og til kopierte små tekstfiler, hvis volum ikke overstiger flere hundre kilobyte, tillot trafikken til hvert par interaksjonerende datamaskiner å krysse nettverket så raskt som nødvendig av applikasjonene som genererte denne trafikken.

Som et resultat opererte de fleste nettverk med kvaliteten på transporttjenesten som dekket behovene til applikasjonene. Riktignok ga disse nettverkene ingen garantier angående kontroll av pakkeforsinkelser eller gjennomstrømmingen som pakker overføres med mellom noder, innenfor visse grenser. Dessuten, under midlertidige nettverksoverbelastninger, når en betydelig del av datamaskinene samtidig begynte å overføre data med maksimal hastighet, ble forsinkelser og gjennomstrømning slik at applikasjoner ville mislykkes - de var for trege, med øktpauser, etc.

Det er to hovedtilnærminger for å sikre nettverkskvalitet. Den første er at nettverket garanterer at brukeren overholder en viss numerisk verdi av kvalitetsindikatoren. For eksempel kan rammerelé- og ATM-nettverk garantere brukeren et gitt nivå av gjennomstrømning. I den andre tilnærmingen (best innsats) prøver nettverket å betjene brukeren så effektivt som mulig, men garanterer ingenting.

Transporttjenesten levert av slike nettverk ble kalt "best innsats", det vil si tjenesten "med maksimal innsats" (eller ";som mulig";). Nettverket prøver å behandle innkommende trafikk så raskt som mulig, men gir ingen garantier for resultatet. Eksempler inkluderer de fleste teknologier utviklet på 80-tallet: Ethernet, Token Ring, IP, X.25. Service "med maksimal innsats" er basert på en eller annen rettferdig algoritme for å behandle køer som oppstår under overbelastning av nettverket, når hastigheten på pakker som kommer inn i nettverket i noen tid overstiger hastigheten for videresending av disse pakkene. I det enkleste tilfellet behandler købehandlingsalgoritmen pakker fra alle flyter som like og fremmer dem i rekkefølgen av ankomst (First In – First Out, FIFO). I tilfelle køen blir for stor (passer ikke inn i bufferen), løses problemet ved ganske enkelt å forkaste nye innkommende pakker.

Det er åpenbart at tjenesten "med beste innsats" gir en akseptabel tjenestekvalitet bare i tilfeller der nettverksytelsen langt overstiger gjennomsnittlige behov, det vil si at den er overflødig. I et slikt nettverk er gjennomstrømningen tilstrekkelig også til å støtte trafikk i høye perioder. Det er også åpenbart at en slik løsning ikke er økonomisk – i hvert fall i forhold til gjennomstrømmingen av dagens teknologier og infrastrukturer, spesielt for wide area-nettverk.

Imidlertid brukes det i praksis noen ganger i praksis å bygge nettverk med overkapasitet, som er den enkleste måten å sikre nødvendig kvalitetsnivå på tjenesten. For eksempel gir noen TCP/IP-nettverkstjenesteleverandører en garanti for kvalitetstjeneste ved konstant å opprettholde et visst nivå av overkapasitet på ryggradene deres sammenlignet med kundenes behov.

I forhold der mange mekanismer for å støtte kvaliteten på tjenesten nettopp er under utvikling, er bruk av overflødig båndbredde til disse formålene ofte den eneste mulige, om enn midlertidige, løsningen.

Alternativ 1

1. Hvilken teknikk vil redusere nettverkets responstid når brukeren jobber med

database server?

    overføre serveren til nettverkssegmentet der flertallet av klientene jobber

    erstatte servermaskinvareplattformen med en mer produktiv

    reduksjon i intensiteten av kundeforespørsler

    redusere størrelsen på databasen

2. Hvilke av følgende påstander er feil?

    overføringsforsinkelse er synonymt med nettverksresponstid

    Båndbredde er synonymt med trafikkoverføringshastighet

    overføringsforsinkelse – den gjensidige gjennomstrømmingen

    QoS-mekanismer kan ikke øke nettverkets gjennomstrømning

3. Hvilke av følgende egenskaper kan tilskrives pålitelighet?

datanettverk?

    beredskap eller beredskapsgrad

    reaksjonstid

    datasikkerhet

    datakonsistens

    overføringsforsinkelse

    sannsynlighet for datalevering

Alternativ 2

1. Dataoverføringshastighetsmålinger ble tatt på nettet fra klokken 3 til 5. Var bestemt

gjennomsnittlig hastighet. Øyeblikkelige hastighetsmålinger ble tatt med intervaller på 10 sekunder. Til slutt ble makshastigheten bestemt. Hvilke av påstandene er sanne?

    gjennomsnittlig hastighet er alltid mindre enn maksimum

    gjennomsnittlig hastighet er alltid mindre enn øyeblikkelig

    øyeblikkelig hastighet er alltid mindre enn maksimum

2. Hvilken av følgende oversettelser av navnene på nettverkskarakteristikker fra engelsk

Er du enig med russisk?

    tilgjengelighet – pålitelighet

    feiltoleranse - feiltoleranse

    pålitelighet - beredskap

    sikkerhet - hemmelighold

    utvidbarhet - utvidbarhet

    skalerbarhet - skalerbarhet

3. Hvilke av påstandene er sanne?

    nettverket kan ha høy gjennomstrømning, men introduserer betydelige forsinkelser i overføringen av hver pakke

    "beste innsats" tjeneste gir akseptabel tjenestekvalitet bare hvis det er overflødig nettverkskapasitet

Alternativ 3

1. Hvilke av påstandene er sanne?

    gjennomstrømning er en konstant verdi for hver teknologi

    nettverksbåndbredden er lik maksimalt mulig dataoverføringshastighet

    gjennomstrømning avhenger av volumet av overført trafikk

    nettverket kan ha forskjellige båndbreddeverdier i forskjellige seksjoner

2. Hvilken egenskap bør for det første et nettverk ha for å bli klassifisert som

kjent firmaslagordSolMikrosystemer: "Et nettverk er en datamaskin"?

    høy ytelse

    høy pålitelighet

    høy grad av åpenhet

    utmerket skalerbarhet

3. Hvilke av påstandene er feil?

    utvidbarhet og skalerbarhet er to navn for samme systemegenskap

    Ved å bruke QoS kan du øke nettverksgjennomstrømningen

    For datatrafikk er enhetlighet i dataoverføring viktigere enn høy nettverkspålitelighet

    alle utsagn er sanne

Nødvendig litteratur

1. V.G. Olifer, NA. Olifer

Datanettverk. Prinsipper, teknologier, protokoller

lærebok for studenter ved høyere utdanningsinstitusjoner,

studenter innen "Informatikk og databehandling"

teknikk";

Videre lesing

1. V.G. Olifer, N.A. Olifer

Nettverksoperativsystemer

Peter, 2001

2. A.Z. Dodd

Verden av telekommunikasjon. Oversikt over teknologi og industri

Olympus Business, 2002

Om prosjekt 2

Forord 3

Forelesning 1. Datanettverks utvikling. Del 1. Fra Charles Babages maskin til de første globale nettverkene 4

To røtter til datanettverk 4

Fremveksten av de første datamaskinene 5

Programvareskjermer – 6 første operativsystemer

Multiprogrammering 6

Multiterminalsystemer - en prototype av nettverket 8

De første nettverkene er globale 8

Arven etter telefonnettverk 9

Forelesning 2. Datanettverks utvikling. 12

Del 2. Fra de første lokale nettverkene til moderne nettverksteknologier 12

Minidatamaskiner – varsler om lokale nettverk 12

Fremveksten av standard lokale nettverksteknologier 13

Rollen til personlige datamaskiner i utviklingen av datanettverk 13

Nye muligheter for brukere av lokale nettverk 14

Utvikling av nettverksoperativsystemer 14

Forelesning 3. Grunnleggende oppgaver for å bygge nettverk 18

Kommunikasjon mellom en datamaskin og eksterne enheter 18

Kommunikasjon mellom to datamaskiner 20

Klient, omdirigerer og server 21

Problemet med fysisk dataoverføring over kommunikasjonslinjer 22

Forelesning 4. Problemer med kommunikasjon mellom flere datamaskiner 25

Topologi av fysiske forbindelser 25

Adressering av nettverksnoder 30

Forelesning 5. Bytte og multipleksing 35

Generalisert kommuteringsproblem 35

Definisjon av informasjonsflyt 36

Definere ruter 37

Varsle nettverket om den valgte ruten 37

Markedsføring - flytgjenkjenning og bytte ved hver transittnode 38

Multipleksing og demultipleksing 39

Delte medier 41

Forelesning 6. Kretssvitsjing og pakkesvitsjing. Del 1 44

Ulike tilnærminger til å utføre bytte 44

Kanalbytte 45

Pakkebytte 47

Meldingsveksling 50

Forelesning 7. Kretssvitsjing og pakkesvitsjing. Del 2 52

Permanent og dynamisk bytte 52

Gjennomstrømning av pakkesvitsjede nettverk 53

Ethernet – et eksempel på en standard pakkesvitsjingsteknologi 55

Datagramoverføring 57

Virtuelle kanaler i pakkesvitsjede nettverk 58

Forelesning 8. Strukturere nettverk 62

Årsaker til å strukturere transportinfrastrukturen til nettverk 62

Fysisk strukturering av nettverket 63

Logisk nettverksstrukturering 65

Forelesning 9. Funksjonelle roller til datamaskiner på nettverket 71

Flerlags nettverk modell 71

Funksjonelle roller til datamaskiner på nettverket 72

Node-til-node-nettverk 73

Dedikerte servernettverk 74

Nettverkstjenester og operativsystem 76

Forelesning 10. Konvergens av data- og telekommunikasjonsnettverk 79

Generell struktur for et telekommunikasjonsnettverk 80

Teleoperatørnettverk 82

Bedriftsnettverk 86

Avdelingsnettverk 88

Campusnettverk 89

Enterprise Networks 89

Forelesning 11. OSI modell 93

Flernivåtilnærming 94

Dekomponering av 94

Protokoll. Grensesnitt. Protokollstabel 95

Modell OSI 97

Generelle egenskaper for OSI 97-modellen

Fysisk lag 100

Link nivå 100

Nettverkslag 102

Transportlag 103

Øktnivå 104

Representantnivå 104

Påføringslag 105

Nettverksavhengige og nettverksuavhengige nivåer 105

Forelesning 12. Nettverksstandardisering 109

Konseptet med "åpent system" 109

Modularitet og standardisering 110

Kilder til standarder 111

Internett-standarder 112

Standard kommunikasjonsprotokollstabler 114

informasjonressurser Med hensikt
  • Kan utelukkende brukes til utdanningsformål er forbudt (2)

    Bok

    tillattbrukutelukkende V pedagogiskformål. Forbudtreplikeringinformasjonressurser Med hensikt oppnå kommersielle fordeler, så vel som andre...

  • Kan utelukkende brukes til utdanningsformål er forbudt (4)

    Opplæring

    I telekommunikasjonsbiblioteket og presentert i form av sitater, tillattbrukutelukkende V pedagogiskformål. Forbudtreplikeringinformasjonressurser Med hensikt oppnå kommersielle fordeler, så vel som andre...

  • Kan utelukkende brukes til utdanningsformål er forbudt (5)

    Liste over lærebøker

    I telekommunikasjonsbiblioteket og presentert i form av sitater, tillattbrukutelukkende V pedagogiskformål. Forbudtreplikeringinformasjonressurser Med hensikt oppnå kommersielle fordeler, så vel som andre...

  • Kan utelukkende brukes til utdanningsformål er forbudt (3)

    Opplæring

    I telekommunikasjonsbiblioteket og presentert i form av sitater, tillattbrukutelukkende V pedagogiskformål. Forbudtreplikeringinformasjonressurser Med hensikt oppnå kommersielle fordeler, så vel som andre...

  • Den viktigste egenskapen til datanettverk er pålitelighet. Økende pålitelighet er basert på prinsippet om å forhindre feil ved å redusere frekvensen av feil og feilfunksjoner gjennom bruk av elektroniske kretser og komponenter med høy og ultrahøy grad av integrasjon, redusere interferensnivået, lette driftsmoduser for kretser, sikre termiske forhold for deres drift, samt ved å forbedre maskinvaremonteringsmetoder .

    Feiltoleranse er en egenskap til et datasystem som gir det, som en logisk maskin, muligheten til å fortsette handlinger spesifisert av programmet etter at en funksjonsfeil oppstår. Å innføre feiltoleranse krever overflødig maskinvare og programvare. Områder knyttet til feilforebygging og feiltoleranse står sentralt i problematikken rundt pålitelighet. Parallelle datasystemer oppnår både den høyeste ytelsen og i mange tilfeller svært høy pålitelighet. Tilgjengelige redundansressurser i parallelle systemer kan brukes fleksibelt for både å forbedre ytelsen og forbedre påliteligheten.

    Det bør huskes at begrepet pålitelighet inkluderer ikke bare maskinvare, men også programvare. Hovedmålet med å øke påliteligheten til systemene er integriteten til dataene som er lagret i dem.

    Sikkerhet er en av hovedoppgavene som løses av ethvert vanlig datanettverk. Sikkerhetsproblemet kan sees fra forskjellige vinkler - skade på data, konfidensialitet av informasjon, uautorisert tilgang, tyveri, etc.

    Det er alltid lettere å sikre informasjonsbeskyttelse i et lokalt nettverk enn om bedriften har et titalls autonomt opererende datamaskiner. I praksis har du ett verktøy til rådighet – backup. For enkelhets skyld, la oss kalle denne prosessen redundans. Essensen er å lage en fullstendig kopi av dataene på et trygt sted, oppdatert regelmessig og så ofte som mulig. For en personlig datamaskin fungerer disketter som mer eller mindre sikre medier. Det er mulig å bruke en streamer, men dette er en tilleggskostnad for utstyret.

    Ris. 5.1. Datasikkerhetsutfordringer

    Den enkleste måten å sikre databeskyttelse mot en rekke problemer er i tilfelle av et nettverk med en dedikert filserver. Alle de viktigste filene er konsentrert på serveren, og det er mye enklere å beskytte én maskin enn ti. Konsentrasjonen av data letter også sikkerhetskopiering, siden den ikke trenger å samles over hele nettverket.

    Skjermede linjer forbedrer nettverkssikkerhet og pålitelighet. Skjermede systemer er mye mer motstandsdyktige mot eksterne RF-felt.


    Innhold
    Introduksjon
    Beskyttelse mot feil i overført informasjon til CS
    Fordeling av ressurser i nettverk
    Beskyttelse og nødgjenoppretting av informasjon i CS
    Konklusjon
    Liste over brukt litteratur

    Introduksjon
    For mange år siden ble personlige datamaskiner (PC-er) brukt uavhengig, som små øyer med datakraft som fylte skrivebord i hjem og kontorer. Og selve det faktum at hver PC ofte kjørte en annen versjon av et eller annet operativsystem eller applikasjon, ble oppfattet som noe mer enn en irriterende plage.
    Årene gikk og nettverksteknologi tok tak i personlige datamaskiner, og brukerne begynte å innse at de kunne jobbe sammen. Å gi personlige datamaskiner muligheten til å kommunisere med hverandre har åpnet for enorme muligheter for samarbeid og samarbeid. I dag er datanettverk avgjørende for funksjonen til alle typer virksomheter og finnes selv hjemme, og kobler sammen flere PC-er. Med riktig instrumentering og konfigurasjon kan datanettverk være svært raske og pålitelige i drift.
    Nettverk kan imidlertid svikte, og når det oppstår problemer, må det tas avgjørende tiltak for å oppdage og rette opp problemet. Og når du tenker på at i tillegg til kabler, huber, rutere, svitsjer og andre nettverksenheter, kan mange datanettverk omfatte hundrevis eller til og med tusenvis av PC-er, blir det klart at effektiv feilsøking krever mer enn bare å erstatte personlige datamaskiner og andre nettverksenheter.

    Beskyttelse mot feil i overført informasjon til CS
    Nettverkspålitelighet er relatert til muligheten til pålitelig (uten feil) å overføre brukerdata fra en DTE (dataterminalutstyr) til en annen DTE. Det inkluderer muligheten til å gjenopprette fra feil eller datatap i nettverket, inkludert feil på koblingen, DTE, DCE (datalinktermineringsutstyr) eller DCS (datasvitsjingsutstyr). Pålitelighet er også relatert til systemvedlikehold, som inkluderer daglig testing, forebyggende vedlikehold som å bytte ut feilede eller feilede komponenter; diagnostisere en funksjonsfeil når det er et problem. Hvis det oppstår et problem med en komponent, kan nettverksdiagnosesystemet enkelt oppdage feilen, isolere problemet og eventuelt fjerne komponenten fra nettverket. Forekomsten av feil under overføring av informasjon forklares enten av fremmede signaler som alltid er tilstede i kanalene, eller av interferens forårsaket av eksterne kilder og atmosfæriske fenomener, eller andre årsaker. I telefoni anses forvrengning å være en endring i formen på strømmen i mottakerapparatet, og i telegrafi er det en endring i varigheten av mottatte strømskurer sammenlignet med sendte skurer.
    "Krenkelser" eller feil kan grovt klassifiseres som tilfeldige, impulsive eller blandede.
    Tilfeldige feil oppstår tilfeldig i blokker med mottatte data. De fleste fysiske mediekanaler (så vel som satellittkanaler) er gjenstand for tilfeldige feil.
    Kanaler med sprengningsfeil viser en feilfri tilstand mesteparten av tiden, men noen ganger vises gruppe- eller enkeltfeil. Radiosignaler er gjenstand for slike feil, det samme er kabler og ledninger, for eksempel tvunnede telefonlinjer.
    For å øke påliteligheten og kvaliteten til kommunikasjonssystemer, brukes gruppefeilbeskyttelsesmetoder, redundant koding og tilbakemeldingssystemer. I praksis brukes ofte en kombinasjon av disse metodene. Gruppefeilbeskyttelsesmetoder inkluderer en metode som lenge har vært brukt i telegrafi, kjent som Verdan-prinsippet: all informasjon (eller individuelle kodekombinasjoner) overføres flere ganger, vanligvis ikke et partall ganger (minst tre ganger). Den mottatte informasjonen lagres av en spesiell enhet og sammenlignes. En vurdering av riktigheten av overføringen gjøres basert på sammenfallet av flertallet av den mottatte informasjonen ved å bruke metodene "to av tre", "tre av fem" og så videre.
    En annen metode, som heller ikke krever omkoding av informasjon, innebærer å overføre informasjon i blokker bestående av flere kodekombinasjoner. På slutten av hver blokk sendes informasjon som inneholder kvantitative egenskaper for den overførte blokken, for eksempel antall enere eller nuller i blokken. Ved mottaksenden blir disse karakteristikkene igjen beregnet, sammenlignet med de som sendes over kommunikasjonskanalen, og hvis de samsvarer, anses blokken som riktig mottatt. Hvis de kvantitative egenskapene ikke stemmer overens, sendes et feilsignal til sendersiden.
    Blant metodene for feilbeskyttelse er den mest brukte støybestandig koding, som lar en oppnå ytelsesindikatorer av høyere kvalitet for kommunikasjonssystemer. Hovedformålet er å ta alle mulige tiltak for å sikre at sannsynligheten for informasjonsforvrengning er tilstrekkelig liten, til tross for tilstedeværelsen av forstyrrelser eller feil i nettverket. Støybestandig koding innebærer utvikling av korrigerende (støybestandige) koder som oppdager og korrigerer visse typer feil, samt konstruksjon og implementering av kodings- og dekodingsenheter.
    Ved overføring av informasjon, avhengig av nummersystemet, kan koder være to- eller multi-posisjoner. I henhold til graden av støyimmunitet er to-posisjonskoder delt inn i vanlige og støybestandige.
    Vanlige toposisjonskoder bruker alle mulige elementer av kodekombinasjoner for å overføre data og er ensartede når lengden på alle kodekombinasjoner er den samme, for eksempel en femelements telegrafkode, og ujevn når kodekombinasjoner består av et annet antall elementer , for eksempel morsekode.
    I tillegg til informasjonselementer inneholder støybestandige koder alltid ett eller flere tilleggselementer som er verifikasjonselementer og tjener til å oppnå høyere kvalitet på dataoverføring. Tilstedeværelsen av overflødig informasjon i koder gjør at feil kan oppdages og korrigeres (eller bare oppdages).
    Valg av korreksjonskoder avhenger til en viss grad av kravene til overføringspålitelighet. For å velge det riktig, er det nødvendig å ha statistiske data om mønstrene for forekomst av feil, deres natur, antall og fordeling over tid. For eksempel kan en korreksjonskode som korrigerer enkeltfeil bare være effektiv hvis feilene er statistisk uavhengige og sannsynligheten for at de oppstår ikke overstiger en viss verdi. Denne koden viser seg å være helt ubrukelig hvis det oppstår feil i grupper (pakker). Tilbakevendende koder som korrigerer gruppefeil kan også være ineffektive hvis antall overføringsfeil overskrider den akseptable grensen.
    De ulike korrigeringskodene som er utviklet er delt inn i kontinuerlig og blokk. I kontinuerlige eller tilbakevendende koder
    kontrollelementer er plassert mellom informasjonselementer. I blokk
    I koder blir informasjon kodet, overført og dekodet i separate grupper (blokker) av lik lengde. Blokkkoder kan være separerbare (alle informasjons- og kontrollelementer er plassert i strengt definerte posisjoner) og uadskillelige (elementer i kodekombinasjonen har ikke en klar inndeling i redundant og informativt). Uatskillelig er en kode med et konstant antall nuller og enere.
    Separerbare koder består av systematiske og ikke-systematiske. I systematiske koder dannes testsymboler ved hjelp av ulike lineære kombinasjoner. Systematiske koder er den største og mest brukte gruppen av korreksjonskoder. Disse inkluderer koder som Hamming-kode, sykliske koder, Bose-Chowdhury-koder og andre. Store datasystemer (Amdal, IBM, Burroughs, ICL) bruker svært komplekse teknikker for å sjekke feil når de overføres over kommunikasjonslinjer mellom maskiner. PC-er bruker vanligvis en enklere feilkontrollteknikk. En av de enkleste formene for feilkontroll er den såkalte ekkoplexen. I samsvar med denne teknikken blir hvert tegn sendt av PC-en over en duplekskommunikasjonslinje til en fjernabonnent returnert tilbake til PC-en i form av et ekko. Hvis PC-en mottar samme tegn som ble sendt, antas det at overføringen av tegnet var korrekt. Hvis ikke, oppsto det en feil under overføringen, og det samme tegnet må sendes på nytt. Echoplex brukes i toveis dupleks kommunikasjonskanaler.
    En annen vanlig (og relativt enkel) metode i praksis er paritet. Essensen ligger i det faktum at ett siffer legges til hver kodekombinasjon, som en enhet skrives inn i hvis antallet enere i kodekombinasjonen er oddetall, eller null hvis det er partall. Ved dekoding telles antall enheter i kodekombinasjonen. Hvis det viser seg å være jevnt, anses informasjonen som er mottatt, hvis ikke, så er den feil.
    En annen form for feilkontroll er beregning av kontrollsummer. Dette er en enkel metode og brukes vanligvis i forbindelse med feilkontroll ved bruk av ekkopleks eller partall/oddetall paritet. Dens essens ligger i det faktum at den overførende PC-en oppsummerer de numeriske verdiene til alle overførte symboler. De seksten minst signifikante bitene av summen plasseres i en seksten-bits kontrollsum-teller, som sammen med brukerinformasjon overføres til den mottakende PC-en. Den mottakende PC-en utfører de samme beregningene og sammenligner den mottatte sjekksummen med den overførte. Hvis disse summene stemmer, antas det at blokken ble overført uten feil. Det siste ordet i feltet for feilkontroll innen PC-er er syklisk redundanssjekk (CRC). Det er mye brukt i HDLC- og SDLC-protokollene, men det dukket opp i PC-industrien relativt nylig. Feilkontrollfeltet er inkludert i rammen av den sendende noden. Verdien oppnås som en funksjon av innholdet i alle andre felt. Ved mottaksnoden gjøres det identiske beregninger for et annet feilkontrollfelt. Disse feltene sammenlignes så; hvis de samsvarer, er det stor sannsynlighet for at pakken ble overført uten feil.

    Fordeling av ressurser i nettverk
    Nettressurser er svært rike og fortsetter å bli kontinuerlig oppdatert. Dette er nettsider (som inneholder tekst, bilder, Java-applets, rammer osv.), musikkfiler i MP3-format, innspilt streaming av lyd og video, virtuelle verdener. Ressurser er fordelt på et stort antall servere spredt over hele verden og er tilgjengelige for millioner av brukere. HTTP-protokollen er et middel som lar enhver bruker motta et hvilket som helst objekt, uavhengig av hvor mange tusen kilometer avstanden mellom brukerens vert og den eksterne serveren er målt og hvor mange Internett-leverandører som er i veien for forespørselen. Imidlertid kan tilgangstiden til nettressurser noen ganger være ganske betydelig. På veien til objektet til brukerens vert er det kommunikasjonslinjer med lav hastighet, noe som fører til betydelige overføringsforsinkelser. På banen til objektet er det minst én overbelastet node der venteforsinkelsen er høy og pakker går tapt. Overbelastning kan oppstå selv når nodens innganger er høyhastighets kommunikasjonslinjer. Webserveren som forespørselen er adressert til er overbelastet, og ventetiden for å betjene forespørselen kan være ganske betydelig.
    For å løse problemet med forsinkelser brukes en enkel teknikk: den samme ressursen er plassert på flere servere, og forespørselen videresendes til den "beste" serveren. For en nettside eller MP3-fil vil den "beste" serveren være den som har minimal utføringstid for forespørselen. Ofte tilhører en slik server den Internett-leverandøren som er nærmest brukerens vert.
    Ressursallokering involverer mekanismer for duplisering av ressurser, samt måter for verter å bestemme hvilke servere som er best egnet til å oppfylle forespørsler. I andre halvdel av 1990-tallet ble ressursallokeringsverktøy utbredt; For tiden brukes de aktivt, spesielt innen lyd- og videoinformasjon. Det er flere store ressursdistribusjonsselskaper. Cisco, Lucent, Inktomi og CacheFlow utvikler relatert maskinvare og programvare, mens Akamai, Digital Island og AT&T leverer ressursdistribusjonstjenester til ressursleverandører som Yahoo! og CNN. Ressursfordeling er et område med aktiv forskning fra både vitenskapelige og industrielle perspektiver.
    Gjennom årene har ingeniører og forskere foreslått mange løsninger når det gjelder ressursallokering. Disse løsningene kan grovt sett deles inn i tre grupper: webbufring, innholdsdistribusjonsnettverk (CDN) og peer-to-peer fildeling. Nedenfor skal vi se på hver av teknologiene, men først skal vi tydeliggjøre terminologien litt. Vi vil betrakte en ressursleverandør som enhver person, organisasjon eller bedrift som har en ressurs tilgjengelig for Internett-brukere. Opprinnelsesserveren til et objekt vil være serveren som objektet opprinnelig var plassert på og hvor en kopi av dette objektet alltid kan finnes.
    En nettbuffer, ofte kalt en proxy, er et nettverk som gjør HTTP-forespørsler på vegne av opprinnelsesserveren. Webbufferen har sin egen disklagringsenhet som inneholder tidligere forespurte kopier av objekter. Som vist i fig. Brukerens nettleser kan konfigureres slik at alle HTTP-forespørsler først sendes til nettbufferen (denne prosedyren er veldig enkel i Microsoft- og Netscape-nettlesere).

    Etter at nettleseren er konfigurert på denne måten, slås først ethvert forespurt objekt opp i nettbufferen. Vanligvis leies og installeres hurtigbufferservere av Internett-leverandører. For eksempel kan et universitet opprette en hurtigbufferserver på sitt lokale nettverk og konfigurere alle nettlesere for å få tilgang til bufferserveren.
    Webbufring er en form for ressursdistribusjon fordi den dupliserer objekter på kildeservere og gir brukertilgang til lokale kopier av objekter. Merk at ressursleverandøren ikke har noen innflytelse på dupliseringsprosessen; tvert imot, duplisering avhenger bare av brukerforespørsler.
    Caching har blitt utbredt på Internett av tre grunner. Den første er at hurtigbufferservere kan redusere tiden det tar å fullføre en brukers forespørsel betydelig, spesielt hvis overføringshastigheten mellom brukeren og hurtigbufferserveren er høyere enn overføringshastigheten mellom brukeren og opprinnelsesserveren. Ofte brukes høyhastighets kommunikasjonslinjer for å koble brukeren til cache-serveren, så hvis det nødvendige objektet er tilgjengelig på cache-serveren, blir det levert til brukeren i løpet av svært kort tid. Den andre grunnen til populariteten til hurtigbuffermekanismen er at den kan redusere trafikken mellom lokale nettverk og Internett betydelig. Dette lar deg i sin tur redusere kostnadene for dyre kommunikasjonslinjer som kobler lokale nettverk til Internett. I tillegg skjer en betydelig reduksjon i trafikken under hurtigbufring på Internett som helhet, noe som fører til en bedre tjenestekvalitet for applikasjoner for alle brukere av det globale nettverket. Til slutt, den tredje grunnen til suksessen med caching er at den lar ressurser distribueres blant brukere i høy hastighet. Selv om leverandøren bruker rimelig, lavhastighets nettverksutstyr, vil de mest populære ressursene snart havne i webcacher, og derfor vil brukerne kunne laste dem ned med en akseptabel servicekvalitet. Dermed gir bruk av en cache-server bedre resultater enn å øke tilgangslinjekapasiteten og krever ikke utskifting av nettverksutstyr. Det er selvfølgelig ikke gratis å leie og installere en cache-server, men kostnadene for universitetet hvis aksesslinjen ble erstattet ville vært betydelig høyere. Merk at for å lage en nettbuffer er en rimelig personlig datamaskin tilstrekkelig, og i tillegg er det gratis programvare for cache-servere.
    Innholdslevering (og distribusjon) nettverk (engelsk: Content Delivery Network eller Content Distribution Network, CDN) er en geografisk distribuert nettverksinfrastruktur som lar deg optimalisere levering og distribusjon av innhold til sluttbrukere på Internett. Bruken av CDN av innholdsleverandører bidrar til å øke nedlastingshastigheten til Internett-brukere for lyd, video, programvare, spill og andre typer digitalt innhold ved CDN-nettverkets tilstedeværelse.
    Innholdsleverings- og distribusjonsnettverk består av geografisk distribuerte multifunksjonelle plattformer, hvor samspillet tillater den mest effektive behandlingen og tilfredsstillelsen av brukerforespørsler ved mottak av innhold.
    Når du bruker et CDN-nettverk, blir data fra den sentrale serveren til en Internett-ressurs replikert til perifere plattformer. Hver plattform opprettholder en oppdatert hel eller delvis kopi av de distribuerte dataene. Nettverksnoden som er en del av plattformen samhandler med lokale nettverk av internettleverandører og distribuerer innhold til sluttbrukere langs den korteste nettverksveien fra en server som er optimal med tanke på belastning. Lengden på nettverksruten avhenger av den geografiske eller topologiske avstanden til brukerens datamaskin fra serveren eller kostnadene ved å overføre trafikk i nærværsområdet.
    Caching er den vanligste metoden for å implementere en CDN-løsning, da det innebærer optimal bruk av diskplass og nettverkskommunikasjonskanaler. I dette tilfellet bæres den maksimale kostnaden når det gjelder filnedlastingstid (filkø) av den første brukeren som får tilgang til den opprinnelige serveren til innholdsleverandøren. Alle etterfølgende brukere vil få tilgang til de allerede nedlastede replikaene (HTTP-objektene) fra serveren nærmest dem. Dermed lagres bare populært og ofte etterspurt innhold på eksterne servere.
    Store CDN-er kan bestå av et stort antall distribuerte noder og plassere deres servere direkte på nettverket til hver lokal Internett-leverandør. Mange CDN-operatører fokuserer på gjennomstrømningen av tilkoblingskanaler og minimum antall tilkoblingspunkter i nærværsregionen. Uavhengig av arkitekturen som brukes, er hovedformålet med slike nettverk å akselerere overføringen av både statisk innhold og en kontinuerlig strøm av data.
    Avhengig av hvordan funksjoner er fordelt mellom datamaskiner på nettverket, er nettverksoperativsystemer, og dermed nettverk, delt inn i to klasser: peer-to-peer og to-peer. Hvis en datamaskin gir ressursene sine til andre nettverksbrukere, spiller den rollen som en server. I dette tilfellet er en datamaskin som har tilgang til ressursene til en annen maskin en klient. Som allerede nevnt kan en datamaskin som opererer på et nettverk utføre funksjonene til enten en klient eller en server, eller kombinere begge disse funksjonene.
    I peer-to-peer-nettverk har alle datamaskiner like tilgangsrettigheter til hverandres ressurser. Hver bruker kan, etter eget skjønn, erklære enhver ressurs på datamaskinen sin som delt, hvoretter andre brukere kan utnytte den. I slike nettverk har alle datamaskiner det samme operativsystemet installert, noe som gir alle datamaskiner på nettverket potensielt like muligheter.
    I peer-to-peer-nettverk kan funksjonell asymmetri også oppstå: noen brukere ønsker ikke å dele ressursene sine med andre, og i dette tilfellet fungerer datamaskinene deres som en klient, kun funksjoner for organisering av ressursdeling til andre datamaskiner, noe som betyr at de er servere I tilfellet der en lokal bruker ikke protesterer mot bruken av ressursene hans og ikke utelukker muligheten for å få tilgang til andre datamaskiner, må operativsystemet som er installert på datamaskinen hans inkludere både server- og klientdeler; . I motsetning til nettverk med dedikerte servere, i peer-to-peer-nettverk er det ingen OS-spesialisering avhengig av det dominerende funksjonelle fokuset - klient eller server. Alle varianter implementeres ved å konfigurere samme OS-versjon.
    Peer-to-peer-nettverk er lettere å organisere og drifte, men de brukes hovedsakelig til å forene små grupper av brukere som ikke har store krav til volumet av lagret informasjon, dens sikkerhet mot uautorisert tilgang og tilgangshastighet. Med økte krav til disse egenskapene er torangsnettverk mer egnet, der serveren bedre løser problemet med å betjene brukere med ressursene sine, siden utstyret og nettverksoperativsystemet er spesielt designet for dette formålet.

    Beskyttelse og nødgjenoppretting av informasjon i CS
    Avhengig av mulige typer nettverksforstyrrelser (med forstyrrelse mener vi også uautorisert tilgang), er mange typer informasjonsbeskyttelse kombinert i to hovedklasser:
    - fysiske beskyttelsesmidler, inkludert midler for å beskytte kabelsystemet, strømforsyningssystemer, arkiveringsmidler, diskarrayer, etc.
    - programvarebeskyttelsesverktøy, inkludert: antivirusprogrammer, strømavgrensningssystemer, programvare for tilgangskontroll.
    - administrative beskyttelsestiltak, herunder kontroll av tilgang til lokaler, utvikling av bedriftssikkerhetsstrategi, nødhandlingsplaner mv.
    Det skal bemerkes at en slik inndeling er ganske vilkårlig, siden moderne teknologier utvikler seg mot en kombinasjon av programvare- og maskinvarebeskyttelse. Slik programvare og maskinvare er mest utbredt, spesielt innen tilgangskontroll, virusbeskyttelse osv.

    Fysisk databeskyttelse

    Kabelsystem

    Kablingssystemet er fortsatt den viktigste "akilleshælen" i de fleste lokale nettverk: ifølge forskjellige studier er kabelsystemet årsaken til mer enn halvparten av alle nettverksfeil. I denne forbindelse bør kabelsystemet gis spesiell oppmerksomhet fra øyeblikket av nettverksdesign.
    Den beste måten å redde deg selv fra hodepinen med feil kabelinstallasjon er å bruke de såkalte strukturerte kabelsystemene som har blitt utbredt i det siste, ved å bruke de samme kablene for dataoverføring i et lokalt datanettverk, lokalt telefonnettverk, overføring av videoinformasjon eller signaler fra brannsensorers sikkerhets- eller sikkerhetssystemer. Strukturerte kablingssystemer inkluderer for eksempel SYSTIMAX SCS fra AT&T,
    Den beste måten å beskytte kabler mot fysiske (og noen ganger temperatur- og kjemiske påvirkninger, for eksempel i produksjonsverksteder) er å legge kabler ved hjelp av forskjellige beskyttede bokser.
    Et annet viktig problem med korrekt installasjon og problemfri drift av et kabelsystem er at alle komponentene er i samsvar med kravene i internasjonale standarder.

    Strømforsyningssystemer

    Den mest pålitelige måten å forhindre tap av informasjon under et kortvarig strømbrudd er for tiden installasjon av avbruddsfri strømforsyning. Forskjellige i sine tekniske og forbrukeregenskaper, kan slike enheter gi strøm til et helt lokalt nettverk eller en individuell datamaskin i en periode som er tilstrekkelig til å gjenopprette spenningsforsyningen eller lagre informasjon på magnetiske medier. De fleste avbruddsfrie strømforsyninger fungerer samtidig som en spenningsstabilisator, som er ekstra beskyttelse mot strømstøt i nettverket. Mange moderne nettverksenheter - servere, huber, broer osv. - er utstyrt med egne redundante strømforsyningssystemer.
    I utlandet har store selskaper egne nødstrømgeneratorer eller reservestrømledninger. Disse linjene er koblet til forskjellige nettstasjoner, og hvis en av dem svikter, tilføres strøm fra en reservestasjon.

    Arkiverings- og dupliseringssystemer

    Organisering av et pålitelig og effektivt dataarkiveringssystem er en av de viktigste oppgavene for å sikre informasjonssikkerheten på nettverket. I små nettverk hvor en eller to servere er installert, er den vanligste metoden å installere et arkiveringssystem direkte inn i de ledige sporene på serverne. I store bedriftsnettverk er det mest å foretrekke å organisere en dedikert spesialisert arkiveringsserver.
    En slik server arkiverer automatisk informasjon fra harddiskene til servere og arbeidsstasjoner på et tidspunkt spesifisert av administratoren for det lokale datanettverket, og utsteder en rapport om sikkerhetskopieringen. Dette gir kontroll over hele arkiveringsprosessen fra administratorkonsollen, for eksempel kan du spesifisere spesifikke volumer, kataloger eller individuelle filer som må arkiveres. Det er også mulig å organisere automatisk arkivering ved forekomst av en hendelse ("hendelsesdrevet backup"), for eksempel når du mottar informasjon om at det er lite ledig plass igjen på harddisken til en server eller arbeidsstasjon, eller når en av "speil"-enheter feiler "disker på filserveren. Blant de vanligste modellene for arkivservere er Storage Express System fra Intel Corporation, ARCserve for Windows, produsert av Cheyenne, og en rekke andre.
    Lagring av arkivinformasjon av spesiell verdi skal organiseres i et spesielt sikret rom. Eksperter anbefaler å lagre dupliserte arkiver av dine mest verdifulle data i en annen bygning, i tilfelle brann eller naturkatastrofer.
    Å øke påliteligheten og beskytte data på et nettverk, basert på bruk av redundant informasjon, implementeres ikke bare på nivået av individuelle nettverkselementer, for eksempel diskmatriser, men også på nivået av nettverksoperativsystemer.

    Katastrofebeskyttelse

    Den viktigste og vanligste metoden for å beskytte informasjon og utstyr fra ulike naturkatastrofer - branner, jordskjelv, flom osv. - er å lagre arkivkopier av informasjon eller å plassere noen nettverksenheter, for eksempel databaseservere, i spesielle beskyttede lokaler som er plassert , vanligvis i andre bygninger eller, mindre vanlig, til og med i et annet område av byen eller en annen by.

    Programvare og maskinvare-programvare metoder for beskyttelse

    Beskyttelse mot datavirus

    Det er usannsynlig at det er minst én bruker eller nettverksadministrator som aldri har møtt datavirus. I følge en studie utført av Creative Strategies Research, hadde 64 % av 451 undersøkte fagpersoner opplevd effekten av virus. I dag, i tillegg til tusenvis av allerede kjente virus, dukker det opp 100-150 nye stammer hver måned. De vanligste metodene for virusbeskyttelse til i dag er fortsatt forskjellige antivirusprogrammer.
    De siste årene har imidlertid en kombinasjon av programvare- og maskinvarebeskyttelsesmetoder i økende grad blitt brukt som en lovende tilnærming til beskyttelse mot datavirus. Blant maskinvareenhetene av denne typen er spesielle antiviruskort som settes inn i standard datamaskinutvidelsesspor. I 1994 foreslo Intel Corporation en lovende teknologi for å beskytte mot virus i datanettverk. Flash-minnet til Intel EtherExpress PRO/10 nettverkskort inneholder et antivirusprogram som skanner alle datasystemer før det starter opp.

    Beskyttelse mot uautorisert tilgang

    Problemet med å beskytte informasjon mot uautorisert tilgang har blitt spesielt akutt med den utbredte bruken av lokale og spesielt globale datanettverk. Det bør også bemerkes at ofte er skaden forårsaket ikke på grunn av "ondsinnet hensikt", men på grunn av enkle brukerfeil som ved et uhell skader eller sletter viktige data. I denne forbindelse, i tillegg til tilgangskontroll, er et nødvendig element av informasjonsbeskyttelse i datanettverk avgrensningen av brukermakter.
    I datanettverk, når du organiserer tilgangskontroll og avgrenser brukermakter, brukes oftest innebygde verktøy i nettverksoperativsystemer.
    Et av de vellykkede eksemplene på å lage en helhetlig løsning for tilgangskontroll i åpne systemer, basert på både programvare- og maskinvaresikkerhet, er Kerberos-systemet. Denne autorisasjonsordningen er basert på tre komponenter:
    - En database som inneholder informasjon om alle nettverksressurser, brukere, passord, krypteringsnøkler osv.
    - Autorisasjonsserver (autentiseringsserver), som behandler alle brukerforespørsler for å motta en eller annen type nettverkstjeneste. Autorisasjonsserveren, som mottar en forespørsel fra brukeren, får tilgang til databasen og avgjør om brukeren har rett til å utføre denne operasjonen. Det er bemerkelsesverdig at brukerpassord ikke overføres over nettverket, noe som også øker informasjonssikkerhetsnivået.
    - Billettbevilgende server (tillatelsesutstedende server) mottar fra autorisasjonsserveren et "pass" som inneholder brukernavn og nettverksadresse, forespørselstid og en rekke andre parametere, samt en unik sesjonsnøkkel. Pakken som inneholder "passet" overføres også kryptert ved hjelp av DES-algoritmen. Etter å ha mottatt og dekryptert "passet", sjekker tillatelsesserveren forespørselen og sammenligner nøklene og gir deretter klarsignal til å bruke nettverksutstyret eller programmene.
    Blant andre lignende komplekse ordninger kan vi merke oss Sesame-systemet utviklet av European Computer Manufacturers Association (ECMA). (Secure European System for Applications in Multivendor Environment), designet for bruk i store heterogene nettverk.