![]() |
![]() ![]() |
![]() |
![]()
Post
#1
|
|
![]() Grupa: Zarejestrowani Postów: 54 Pomógł: 0 Dołączył: 25.09.2006 Ostrzeżenie: (0%) ![]() ![]() |
Witam !
W ramch przygotowań do olimipady natchnąłem się na takie zadanie: Cytat Załóżmy, ze dwa komputery stosują multipleksowanie z podziałem czasu do wysyłania pakietów o rozmiarze 1000 bajtow przez dzielone łącze, które pozwala na przesyłanie 64 000 bitów na sekundę. jeśli technika sieciowa wymaga, żeby po wysłaniu pakietu przez komputer następny wysyłający musiał odczekać 100 mikrosekund, to ile czasu zajmie przesłanie pliku o rozmiarze 1 megabajta ? I oto moje rozwiązanie: 1000 bajtów - rozmiar pojedyńczego pakietu 1 megabajt - rozmiar pliku 64 kilobitów na sekunde - prędkośc transmisji 100 mikrosekund - czas pomiędzy pakietami n - illość pakietów Całość transmisji będzie wyglądać w ten sposób: Cytat |pakiet|0,0001 s|pakiet|0,0001 s|...|...|pakiet| czyli będzie n pakietów, oraz n-1 odstępów po 0,0001 s. 64 kilobity = 8 kilobajty 1024/8=16 s - czas potrzebny do transmisji samych pakietów bez uwzględnienia odstępu między pakietami 16 s + n odstępów po 0,0001 s. 1 MB - 1048576 bajtów n = 1048576/1000(rozmiar jednego pakietu) = 1049 pakietów 1049 - 1 = 1048 - ilość odstępów pomiędzy pakietami 0,0001*1048 = 0,1048 - czas przeznaczony na przerwe między pakietami 16 + 0,1048 = 16,1048 s. Wydaje mi się, że zadanie jest dobrze rozwiązane, jednak prosze Was o sprawdzenie. Pozdrawiam Darektbg -------------------- skocz.org - system skracania linków
|
|
|
![]() ![]() |
![]() |
Wersja Lo-Fi | Aktualny czas: 14.06.2025 - 14:53 |