top - download
⟦ccd1d16d7⟧ Wang Wps File
Length: 116043 (0x1c54b)
Types: Wang Wps File
Notes: CPS/REP/001
Names: »0828A «
Derivation
└─⟦0cd3644ba⟧ Bits:30006012 8" Wang WCS floppy, CR 0051A
└─ ⟦this⟧ »0828A «
WangText
…00……00……00……00……00…D…0a……00……00…D…0b…D…00…D C…08…C…0f…C
C…07…B…0a…B…0d…B…01…B B…07…A…0a…A…0d…A…00…A
A @…0c…@…05…?…0c…? >…0d…>…05…=…0d…=
<…0b…<…02…;…09…;…00…;…01…;…06…:…0d…:…05…9…08…9…0e…9…02…9 8…0c…8…00…8…06……86…1 …02… …02… …02…
…02…CPS/REP/001
…02…FAH/820107…02……02…#
CAMPS PERFORMANCE REPORT
…02……02…CAMPS
3.6 R̲E̲S̲U̲L̲T̲I̲N̲G̲ ̲L̲O̲A̲D̲I̲N̲G̲ ̲R̲E̲Q̲U̲I̲R̲E̲M̲E̲N̲T̲S̲
Loading requirements may be finally broken dawn into
CPU time, TDX system access, I/O Channel access, and
DISC access requirements. The requirements may be further
divided amongst different processes, coroutines, and
procedures. The loading requirements are presented
in section 3.6.1 as based on the Data Collection Sheets
of the sections 3.3 - 3.5.
The TDX system access requirements may also be expressed
in terms of the character transfer. Section 3.6.2 presents
the total load on the following types of terminals:
VDU's and printers for user and supervisory functions.
Section 3.6.2 also presents the I/O Channel character
transfer load.
Sections 3.6.1 and 3.6.2 will include busy hour as
well as busy minute figure, whereas section 3.6.3 and
3.6.4 will concentrate on the busy second requirements.
3.6.1 L̲o̲a̲d̲i̲n̲g̲ ̲R̲e̲s̲u̲l̲t̲i̲n̲g̲ ̲f̲r̲o̲m̲ ̲D̲a̲t̲a̲ ̲C̲o̲l̲l̲e̲c̲t̲i̲o̲n̲,̲ ̲C̲P̲U̲'̲s̲ ̲a̲n̲d̲ ̲D̲I̲S̲C̲s̲
This subsection presents the total load requirements
for CPU's and DISC's. Queuing considerations resulting
from these figures are found in the sections 4 and
5.
ITEM BUSY HOUR/3600
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
DIRECT CPU 0.08
QMON *) 0.006
MMON *) 0.13
MMS **) 0.19
XFER *) 0.25
CPT *) 0.02
FMS **) 0.02
FMST **) 0.03
TMP *) 0.10
TMS *) 0.20
LTU HANDLER *) 0.003
TDX HANDLER *) 0.08
DCM (DISC CACHE MANAG.)**) 0.08
DISC HANDLER 0.15
OTHERS 0.15
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
CPU TOTAL 1.48
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
CPU TOTAL BUSY MIN/60 = 2.20
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
TABLE 3.6.1-1…01…CPU Time Consumption in seconds
per seconds of time available…01…in one CPU
*), **): Non-concurrent…01…**) Same process, coroutines
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲
NUMBER OF ACCESS BUSY MIN. BUSY HOUR
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲
DISC READ 22.8 15.7
DISC WRITE 8.85 4.76
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲
Number of disc accesses per second
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲
BUSY MIN BUSY HOUR
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
DISC LOAD 74.6% 46.4%
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲
TABLE 3.6.1-2…01…Disc load assuming: NO CACHE HITS and CAPABILITY =…01…27.2 ACCESS/SEC*), where READ's are equally…01…distributed
on mirrorred discs.
*) refer section 4.5.2
3.6.2 T̲e̲r̲m̲i̲n̲a̲l̲ ̲L̲o̲a̲d̲i̲n̲g̲ ̲R̲e̲q̲u̲i̲r̲e̲m̲e̲n̲t̲s̲
This subsection presents the TDX-system load and the
I/O channel load due to terminals: Refer the tables
3.6.2.
Since the TDX-system and I/O channel systems are conditioned
to accept the full load corresponding to the total
terminal capacity (refer sections 4.3 and 4.4) we shall
in section 3.6 be concerned with the load per terminal
relative to the required capacity. This comparison
is done in subsections 3.6.3 and 3.6.4. It is seen
that even in busy minute the maximum terminal load
of 70 per cent of capacity specified for busy hour
is not exceeded; consequently the figures implied by
the traffic flow will be used (since not violating
the required capacity).
VDU and PRINTER output is treated en block in section
3.6.3, reflecting the fact that printer output of messages
may in some cases be guided to a VDU, or vica versa,
in case of overload. Here we shall consider the load
of the printers and VDU's separately: It is seen that
the load of each user printer is about 70 ch/sec and
thus below the specified limit for busy hour of 70
per cent of capacity which is 84 ch/sec. The load of
the VDU's and other Printers (they have the same capacity)
is also below the limit for busy hour.
Similarly, the OCR and PTR's are not overloaded.
The load of the OCR, which has a capacity of 240 ch./sec.,
is well below the limit of 0.7 x 240 = 168 ch./sec.
in busy hour.
It is a basic assumption that the loads are equally
distributed on the terminals.
BUSY MIN BUSY
HOUR
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM TRSFER/SEC BYTE/SEC TRSFER/SEC BYTE/SEC
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
CHECKPOINTS, TDX 5.79 92.7 4.54 72.7
USER VDU's (28) 3.07 72.8 3.05 65.2
MSO + MDCO VDU's 0.24 37.1 0.24 37.1
OCR (1) 0.03 12.8 0.01 6.4
PTR 0.08 4.3 0.04 2.1
PTR, DEDICATED (1) 0.04 20.5 0.01 6.8
EXT CHAN., TRC 0.26 132 0.10 52.2
(24)
EXIT CHAN., P-T-P 0.15 78.5 0.05 26.3
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
TOTAL 9.66 451 8.04 269
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
TABLE 3.6.2-1…01…TDX READ
BUSY MIN BUSY
HOUR
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM TRSFER/SEC BYTE/SEC TRSFER/SEC BYTE/SEC
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
CHECK POINTS, TDX 5.79 1668 4.54 1254
USER VDU's (28) 4.75 1627 4.72 1619
MSO + MDCO VDU's 0.26 101 0.26 101
USER PRINTERS (12) 1.65 844 1.65 844
LOG PRINTER (1) 0.16 80 0.16 80
STATISTIC PRINTER (1) 0.16 80 0.16 80
REPORT PRINTER (1) 0.01 4.2 0.01 4.2
P-T-P,DEDICATED (1) 0.04 20.5 0.01 6.8
EXT.CHAN., TRC 0.08 40.2 0.03 16.2
(24)
EXT.CHAN.,P-T-P 0.44 223 0.15 76.7
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
TOTAL 13.3 4688 11.7 4082
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
TABLE 3.6.2-2…01…TDX WRITE
BUSY MIN BUSY
HOUR
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM TRSFER/SEC BYTE/SEC TRSFER/SEC BYTE/SEC
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
NICS TARE 0.73 371 0.24 124
CCIS 0.16 80.8 0.05 27.5
SCARS 0.14 71.0 0.05 24.5
CCIS + SCARS
(VDU PAGES) 0.38 192 0.13 64.0
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
TOTAL 1.41 716 0.47 240
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
…01…TABLE 3.6.2-3…01…I/O CHANNEL READ
BUSY MIN BUSY
HOUR
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM TRSFER/SEC BYTE/SEC TRSFER/SEC BYTE/SEC
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
NICS TARE 0.24 122 0.10 48.5
CCIS 0.18 94 0.06 32.6
SCARS 0.10 51.3 0.03 17.6
CCIS + SCARS
(VDU PAGES) *) 0.13 64.0 0.04 21.3
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
TOTAL 0.65 331 0.23 120
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
*)ACKNOWLEDGEMENTS AT RECEPTION
TABLE 3.6.2-4…01…I/O CHANNEL WRITE
3.6.3 A̲d̲d̲i̲t̲i̲o̲n̲a̲l̲ ̲T̲D̲X̲ ̲L̲o̲a̲d̲i̲n̲g̲ ̲R̲e̲q̲u̲i̲r̲e̲m̲e̲n̲t̲s̲
The busy second load requirements have been introduced
which, together with the busy minute load, shall be
compared to the transfer capacity dictated by the requirements
specification. Refer the tables 3.6.3.
The busy second rates are all below the capacity.
It is seen that the requirements for busy second transfer
rate is exceeded by the busy minute transfer rate in
case of external channels. The excess is not serious,
however: in the calculations of this report it is shown
that the processing capacity is available for handling
this traffic; the possible queuing is acceptable to
the system (also with a 30% traffic expansion).
BUSY MIN BUSY SEC. CAPACITY
ITEM
BYTE/SEC BYTE/SEC BYTE/SEC
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
VDU's (32) +
OCR(1) + PTR(1) 148 225*) 4080
EXT CHAN (24) 211 160 240
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
*) 1615-ALL EXT. CHAN.
TABLE 3.6.3-1…01…TDX READ
BUSY MIN BUSY SEC. CAPACITY
ITEM
BYTE/SEC BYTE/SEC BYTE/SEC
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
R̲E̲C̲E̲P̲T̲I̲O̲N̲:
VDU's (28) + PRINTERS (12) 2471 4200 4800
T̲O̲T̲A̲L̲
VDU's (32) + PRINTERS (16) 2730 5750*) 5760
EXT. CHANNELS (24) 263 160
240
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
*) 7140 - ALL EXT. CHAN.
TABLE 3.6.3-2…01…TDX WRITE
3.6.4 A̲d̲d̲i̲t̲i̲o̲n̲a̲l̲ ̲I̲/̲O̲ ̲C̲h̲a̲n̲n̲e̲l̲ ̲L̲o̲a̲d̲i̲n̲g̲ ̲R̲e̲q̲u̲i̲r̲e̲m̲e̲n̲t̲s̲
The busy second load requirements have been introduced
which, together with the busy minute load, shall be
compared to the transfer capacity dictated by the requirement
specification. Refer the tables 3.6-4.
The busy second rates are all below the capacity.
The busy minute transfer rate is seen to exceed the
busy second transfer rate only for CCIS & SCARS channels
in case of I/O CHANNEL READs, and then only slightly
and well below the capacity.
BUSY MIN BUSY SEC. CAPACITY
ITEM
BYTE/SEC BYTE/SEC BYTE/SEC
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
NICS TARE (6 CHAN.) 371 750 1440
CCIS (1 CHAN.) 81 + (192*) 240
960
SCARS (1 CHAN.) 71 + (192*) 240
960
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
TOTAL 715 1230
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
*) VDU PAGES, INCOMING, ADDED IN TOTAL.
TABLE 3.6.4-1…01…I/O CHANNEL READ
BUSY MIN BUSY SEC. CAPACITY
ITEM
BYTE/SEC BYTE/SEC BYTE/SEC
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
NICS TARE (6 CHAN.) 122 750 1440
CCIS *) (1 CHAN.) 94+(64) 240 960
SCARS *) (1 CHAN.) 51+(64) 240 960
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
TOTAL 331 1230
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
*) VDU PAGES, INCOMING, ADDED IN TOTAL.
TABLE 3.6.4-2.…01…I/O CHANNEL WRITE
4̲ ̲ ̲M̲O̲D̲E̲L̲ ̲S̲E̲L̲E̲C̲T̲I̲O̲N̲ ̲C̲O̲N̲S̲I̲D̲E̲R̲A̲T̲I̲O̲N̲S̲
4.1 M̲O̲D̲E̲L̲ ̲L̲A̲Y̲O̲U̲T̲ ̲A̲N̲D̲ ̲M̲E̲C̲H̲A̲N̲I̲S̲M̲S̲
The performance model presented in section 1.2 was
based on the following assumptions: Poisonian arrival
at each service position, no throughput or response
time limitations, load at service positions being based
in general on a linear addition of all busy hour or
busy minute contributions with no limitation in form
of number of processes allowed in the system.
In this section a more general model shall be introduced,
the purpose being to show the applicability of the
model selected and presented in section 1.2.
FIG. 4-1…01…CAMPS Processing System
The CAMPS PROCESSING SYSTEM is sketched in figure 4-1
and shall be interpreted as follows:
Traffic is queued (if necessary) in front of the PU,
possibly according to priority. Having been served
by the PU, a process is forwarded to DISC, TDX, or
the CHANNEL system for service; it may also be directly
requeued for PU service.
Process requests returning from service are queued
in the internal system queue for PU service and may
not be preempted by higher priority external customers
if the multiprocessing level has been reached; if not,
requests are just processed in order of priority.
Considering the PU to be working on the time slice
principle, the probabilities for direction to the different
servers after PU service are simply calculated as:
n…0f…m…0e… cpu
P…0f…m…0e… = ̲ ̲ ̲ ̲ ̲, where n…0f…1…0e… = ̲ ̲ ̲ ̲ ̲ with
n…0f…1…0e… t
cpu as the CPU loading and t the time slice, n…0f…2…0e…
the combined number of reads and writes to disc with
average service time, n…0f…3…0e… and n…0f…4…0e… the number of writes
and reads for TDX and Channel System respectively.
The following mechanisms may limit the processing capability
of the system:
a) Queue length for a server exceeded thereby possibly
leading to excessive response times.
b) The multiprocessing level has been reached, i.e.
no more than N processes may be executed or requested
at the same time in the system.
c) The loading of a server has reached 100 percent.
It is in each case assumed that the limitation is monitored
and that no more processes are allowed into the system.
In the cases a and c, the processing capability is
given as the original loading figures multiplied by
max./ act, where act is the original (required)
loading and max. the limiting loading of the server
being the cause of the limitation; all loading to other
servers shall be diminished in this manner.
The assumption of poisonion arrival to all servers
(including repeated time slice request), which is a
prerequisite for the queueing considerations of this
document, is in the cases a and c not allowed if the
queuing time is high or the varians of the queuing
time is high. In stead the queuing time at the "bottleneck
server position" may be calculated as the time for
serving a fixed number (design) of queued requests
plus the arriving request itself (the varians of the
queuing time being the service time varians times number
of queued requests plus one).There is then (in this
rough model) no waiting at other server positions.
In case b, the situation is more complex and may be
based on a calculation with Buzens Algoritme: (refer
IEEE, April 80, Computer, Queuing models of Computer
Systems) assuming poisonion arrival to all servers
and taking into account the routing probabilities P…0f…m…0e…
introduced at the beginning of this section and the
service times. The relative load at each serving position
may be found as a function of the multiprocessing level.
Case a and/or case c may occur in addition to case
b and shall then be treated in the same way as discussed
above.
It is interesting to notice that with a limitation
in multiprocessing level case c may happen without
case a coming into play: case b puts a limit to the
queuing but the level of multiprocessing is so high
that the load limit has been reached.
The multiprocessing limitation of CAMPS system due
to the PU is depending on the number of internal queue
elements and buffers, number of CPU interrupts and
the number of external I/O interrupts.
It is a basic assumption that the design will assign
sufficient queue elements and buffer capacity; it is
the aim of this document to provide directive information
concerning possible limitations.
This section 4 and especially section 4.6 shall be
concerned with this problem via the queuing calculations.
Several hundred CPU interrupts are available.
External I/O interrupts are only forwarded one at a
time from the I/O Channel system, the limitations then
being a question of buffer capacity in LTU's and queue
elements and buffer capacity and in the PU; in case
of TDX-system, requests are forwarded immediately and
thereby converted into internal PU-memory queueing,
i.e. its a matter of buffer and queue elements capacity,
although limitations in TDX bandwith assignment may
result in queueing in the LTUX's. Refer to sections
4.3 and 4.4 for further discussion of TDX and I/O channel
System mechanisms.
In the following subsections, the steps shall be as
follows:
S̲t̲e̲p̲ ̲1̲: Based on the loading figures of section 3,
it shall be considered for each service position
whether it may trigger any of the cases a,
b or c. Response time formulas shall be developed
during this exercise.
S̲t̲e̲p̲ ̲2̲ It shall be considered whether a more complex
loading calculation is to be performed: This
shall only be the case if case b happens and
the associated throughput limitations are acceptable;
if not acceptable, design changes shall be
considered.
S̲t̲e̲p̲ ̲3̲ The resulting response times shall be found
(section 5.2) by adding up the contributions
of all service positions (including the effect
of multiple visits).
4.2 P̲U̲ ̲S̲Y̲S̲T̲E̲M̲
4.2.1 I̲n̲t̲r̲o̲d̲u̲c̲t̲i̲o̲n̲
The CPU time usage estimated in section 3 is the b̲a̲s̲i̲c̲
̲t̲i̲m̲e̲ consumption d̲i̲s̲r̲e̲g̲a̲r̲d̲i̲n̲g̲ ̲q̲u̲e̲u̲e̲i̲n̲g̲ ̲e̲f̲f̲e̲c̲t̲s̲, C̲P̲U̲
̲C̲A̲C̲H̲E̲ ̲i̲m̲p̲r̲o̲v̲e̲m̲e̲n̲t̲s̲ (time for investigating the CACHE
included, however), and t̲i̲m̲e̲ ̲s̲l̲i̲c̲i̲n̲g̲ ̲e̲f̲f̲e̲c̲t̲s̲. The following
subsections shall consider those factors.
Refer to section 1.2.1.3 for queuing concept.
4.2.2 T̲i̲m̲e̲ ̲S̲l̲i̲c̲i̲n̲g̲
The PU consists of three CPUs working concurrently
with the time slice principle: Whenever a process has
had its t̲i̲m̲e̲ ̲s̲l̲i̲c̲e̲ ̲(defined at system generation) it
has to leave the PU and will be queued for further
processing; it may also leave the CPU before the time
slice is finished and be directed to another service
position (different from the PU) as dependent on the
program execution.
Each repeated request of a process for a time slice
will "see" the same environment. Whenever a time slice
has been processed, a new time slice request will statistically
be queued according to priority; the time each process
request spends in the PU system is thus proportional
to its average time slice consumption per request plus
the statistical waiting effects per request as depending
on the CPU loading, the multiserver environment and
the average time slice of other processes. The total
process time may be found by adding up the contributions
from all time slice requests: If the average time slice
is assumed the same for all processes and is sufficiently
small compared to the total CPU time consumption or
the process time happens to be a multiples of the time
slice, the time slice mechanism may thus be ignored
in doing the calculations, except for an o̲v̲e̲r̲h̲e̲a̲d̲ ̲f̲a̲c̲t̲o̲r̲
due to t̲i̲m̲e̲ ̲s̲l̲i̲c̲e̲ ̲c̲h̲a̲n̲g̲e̲s̲ of about 5%: Time slice Process
Factor PF…0f…ts…0e… = 1.05. Whenever the loading or the service
time is used in the following ( …0f…SCPU…0e… and t…0f…SCPU…0e… respectively)
5% is assumed added to the figures of section 3. Refer
to section 1.2.1.3 for further discussion.
If the CPU time needed is less than the time slice,
the queuing effect should still be based on the average
time slice of other processes; the contribution to
the overall process time is then, however, most likely
negligible or unimportant, since small.
It is seen that the major advantage of time slicing
is that processes needing much CPU time do not specifically
influence the queuing of other processes: T̲h̲e̲ ̲q̲u̲e̲u̲i̲n̲g̲
̲c̲a̲l̲c̲u̲l̲a̲t̲i̲o̲n̲s̲ ̲a̲r̲e̲ ̲i̲n̲d̲e̲p̲e̲n̲d̲e̲n̲t̲ ̲o̲f̲ ̲p̲r̲o̲c̲e̲s̲s̲ ̲e̲n̲v̲i̲r̲o̲n̲m̲e̲n̲t̲
̲a̲p̲a̲r̲t̲ ̲f̲r̲o̲m̲ ̲t̲h̲e̲ ̲p̲r̲o̲b̲a̲b̲i̲l̲i̲t̲y̲ ̲o̲f̲ ̲C̲P̲U̲ ̲b̲e̲i̲n̲g̲ ̲b̲u̲s̲y̲,̲ ̲=̲ ̲l̲o̲a̲d̲,̲
̲w̲h̲i̲c̲h̲ ̲i̲s̲ ̲t̲h̲e̲ ̲s̲u̲m̲ ̲o̲f̲ ̲a̲l̲l̲ ̲C̲P̲U̲ ̲n̲e̲e̲d̲s̲ ̲i̲n̲d̲e̲p̲e̲n̲d̲e̲n̲t̲ ̲o̲f̲ ̲t̲h̲e̲
̲s̲l̲i̲c̲i̲n̲g̲.̲
4.2.3 M̲u̲l̲t̲i̲s̲e̲r̲v̲e̲r̲ ̲a̲n̲d̲ ̲S̲i̲n̲g̲l̲e̲ ̲S̲e̲r̲v̲e̲r̲ ̲Q̲u̲e̲u̲i̲n̲g̲
It is discussed in section 1.2.1.3 how the queuing
for the PU in case of a non-concurrent process, i.e.
a process which does not allow concurrent processing
in CPU's, shall be a series of two queues: A single
server CPU queue, the CPU loaded only with the process
in question, followed by a multiserver queue for three
CPU's with an average load equal to one third of the
total PU load. The load of the single server shall
include the effect of queuing to the multiserver Processes
which accept concurrent processing only see the multiserver
queue.
The waiting time for a s̲i̲n̲g̲l̲e̲ ̲s̲e̲r̲v̲e̲r̲, assuming exponential
(poisonion) arrival, a service time t…0f…s…0e… with a standard
deviation s, and any queue serving discipline where
the selection of next item does not depend on the service
time but may include priority queuing, is given by
t…0f…s…0e… (1+( …0f…s…0e…/t…0f…s…0e…)…0e…2…0f…)
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
W…0f…1…0e…(ts, …0f…1…0e…, ) =
2(1 - …0f…1…0e…)
for processes of the h̲i̲g̲h̲e̲s̲t̲ ̲p̲r̲i̲o̲r̲i̲t̲y̲, where …0f…1…0e… is
the load of the highest priority processes: = …0f…1…0e…
in case of preemption and = …0f…1…0e… + …0f…2…0e… in case of non
preemption.
In case of 2 priority levels the l̲o̲w̲e̲r̲ ̲p̲r̲i̲o̲r̲i̲t̲y̲ requests
shall wait the following time depending on the priority
discipline which may be n̲o̲n̲-̲p̲r̲e̲e̲m̲p̲t̲i̲v̲e̲ ̲o̲r̲ ̲p̲r̲e̲e̲m̲p̲t̲i̲v̲e̲:̲
t…0f…s…0e… (1+( …0f…s…0e…/t…0f…s…0e…)…0e…2…0f…)
W…0f…2…0e…(t…0f…s…0e…, …0f…1…0e…, …0f…s…0e…) ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
=
2(1 - …0f…1…0e…)(1 - )
where = …0f…1…0e… + …0f…2…0e…. …0f…2…0e… is the load of the 2nd priority.
The corresponding queuing (or response) times are given
as
t…0f…Q…0e… = t…0f…s…0e… + W(t…0f…s…0e…, …0f…1…0e…)
for the h̲i̲g̲h̲e̲s̲t̲ ̲p̲r̲i̲o̲r̲i̲t̲y̲.
In case of 2 priority levels the queuing time for the
case of n̲o̲n̲-̲p̲r̲e̲e̲m̲p̲t̲i̲o̲n̲ is
t…0f…Q…0e… = t…0f…s…0e… + W(t…0f…s…0e…, …0f…2…0e…, ),
and for the case of p̲r̲e̲e̲m̲p̲t̲i̲o̲n̲
t…0f…Q…0e… = t…0f…s…0e…/(1 - …0f…1…0e…) + W(t…0f…s…0e…, …0f…2…0e…, ).
Waiting times and queuing times for multiserver queuing
are found from the single server formulas by the following
changes (the order is important):
S̲t̲e̲p̲ ̲1̲ Multiply the W̲a̲i̲t̲i̲n̲g̲ ̲t̲i̲m̲e̲ with the factor B/(
x N), where B is the probability that all
servers are busy when the request arrives and
N is the number of servers (essentially is
replaced by B/N which at high loads is identical
to the load of one CPU).
S̲t̲e̲p̲ ̲2̲ Replace the loads and …0f…1…0e… with the load of
one server, i.e. with the fraction of the load
corresponding to the number of servers N, the
load being evenly distributed.
S̲t̲e̲p̲ ̲3̲ Replace in queuing formulas the waiting time
for the single server with the waiting time
calculated in step 1 and 2.
Above formulas are taken from I. Martin, Design of
Real Time Computer Systems, Chapter 26, where a formula
for the probability B is also presented.
Since no formulas are available for other cases the
factor B shall be calculated on the worst case assumption
of exponential processing. For the PU with 3 servers
(N = 3) we have
B…0f…PU…0e… = 4.5 …0e…3…0f……0f…CPU…0e…/(1 + 2 …0f…CPU…0e… + 1.5 …0e…2…0f……0f…CPU…0e…)
The variance …0e…2…0f……0f…s…0e… to be used for calculating queuing
time shall be taken as corresponding to the distribution
of service time between t…0f…s…0e… = 0 and t…0f…s…0e… = 2 x average
service time (rectangular distribution), the variance
is thus
…0e…2…0f……0f…CPU…0e… = (2xT…0f…CPU…0e…)…0e…2…0f…/12 = T…0e…2…0f……0f…CPU…0e…/3.
The variance which corresponds to the queuing time,
not the service time as above, may be found from the
load factor …0f…CPU…0e… and the knowledge of …0f…CPU…0e… making
use of the calculations in I. Martin, Design of Real
Time Computer Systems, Chapter 26, fig. 26.12 and fig.
26.24. The load factor shall always correspond to the
appropriate priority.
The varians of the service time for the case of non-concurrent
processing shall be the varians of the queuing for
the multiserver assembly, the resulting queuing varians
for the non-concurrent processing then derived as the
single server queuing corresponding to the load of
the non-concurrent function (total service time usage
in seconds per seconds). Refer section 4.6.1 for details.
At small loads the queuing time varians is equal to
the service time varians for multiserver queues (up
to a load of about 0.5).
The service time and loads to be used in above formulas
shall include the effects of TIME SLICING and PROCESSOR
BUS QUEUING:
t…0f…s…0e… = T…0f…CPU…0e… and = …0f…CPU…0e… = …0f…SCPU…0e… x INC; refer sections
4.2.2 and 4.2.5.
4.2.4 P̲r̲i̲o̲r̲i̲t̲y̲ ̲Q̲u̲e̲u̲i̲n̲g̲
As a consequence of the time slice principle the non-preemptive
priority selection is n̲o̲t̲ implemented (it would be
overruled by the time slicing).
The CPU priority discipline, if used, is preemptive,
(including preemption on the time slice being processed
when the higher priority request arrives, although
this is of minor importance).
4.2.5 C̲P̲U̲ ̲P̲r̲o̲c̲e̲s̲s̲i̲n̲g̲ ̲T̲i̲m̲e̲:̲ ̲C̲A̲C̲H̲E̲ ̲V̲e̲r̲s̲u̲s̲ ̲P̲r̲o̲c̲e̲s̲s̲o̲r̲ ̲B̲u̲s̲
The CPU-CACHE of each CPU in a PU is exploited as follows:
- Whenever a CPU initiates a READ microinstruction
it is first investigated whether the data of the
corresponding main memory address is already in
CACHE . Since all addresses within the area of
one PAGE (1K) are available the further investigation
amounts to checking whether the LOGICAL PAGE is
correct, data are not inhibited, and whether a
process in USER MODE attempts access to data stored
in SYSTEM MODE.
If data are available they are read from CACHE.
If not, a PROCESSOR BUS access is performed, and
data are read via the MAP (conversion from logical
to physical address), retrieved from the main memory
and written to CACHE d̲u̲r̲i̲n̲g̲ the bus cycle. No internal
CPU activity is assumed taking place during a READ.
- Whenever a CPU initiates a WRITE microinstruction
a PROCESSOR BUS access is performed and data are
transferred via the MAP (conversion from logical
to physical address) to the main memory.
- Whenever a main memory location is updated and
the same location is written to a CACHE, the CACHE
location is deleted. This effect is assumed to
be covered by the assumed HIT RATE.
- Whenever the logical to physical address translation
is changed, as a result of a process change, the
CACHE contents of the corresponding CPU's are deleted.
This effect is assumed to be covered by the assumed
HIT RATE.
Three CPU's are competing in access to the Processor
Bus, the arbitration logic for granting access being
based on a Round Robin scheme, i.e. FIFO and no priority
queuing of maximum 3 requests at a time. Refer fig.
4.2.5-1.
The access time for READ's and WRITE's via the processor
bus shall include the effect of main memory REFRESH
and CHANNEL BUS access taking place in parallel. As
a w̲o̲r̲s̲t c̲a̲s̲e̲ it is assumed that one of these are delaying
the execution of the Processor Bus access.
The time needed for an average macroinstruction may
be calculated as follows:
t…0f…INSTR…0e… = t…0f…INT…0e… + t…0f…BUS,INSTR…0e…
t…0f…INT…0e… time of internal CPU operations during
which n̲o̲ Processor Bus activity related
to this CPU takes place.
t…0f…BUS,INSTR…0e… time for READ or WRITE via Processor Bus.
t…0f…INT…0e… includes the CACHE access time but
not activities in the CPU during the
Processor Bus access. There is no queuing
for CPUs, however, on return from the
Processor Bus.
The ratio t…0f…BUS…0e…/t…0f…INSTR…0e… is for a CACHE
HIT RATE = 0 almost a constant for
the most used instruction types (95%).
The average execution time for a macroinstruction
t…0f…INSTR…0e… is, however, rather sensitive
to the actual mix of instructions used.
t…0f…BUS,INSTR…0e… =
M…0f…RW…0e… x (1-H) x t…0f…WR…0e… + M…0f…RW…0e… x H x (1-P…0f…HIT…0e…) x t…0f…RM…0e…
t…0f…WR…0e… time for writing data to main memory.
t…0f…RM…0e… time for making the data or instruction retrieval
via the Processor Bus .
M…0f…RW…0e… number of CPU WRITE's and READS per macroinstruction.
P…0f…HIT…0e… probability of finding instruction or data
in CACHE. This is the overall hit rate including
instructions which will never experience a
hit.
H ratio between number of READ's and number of
READ's plus WRITE's.
The following values shall apply:
t…0f…WR…0e… = 625ns, t…0f…RM…0e… = 875ns, and the ratio H is approximately
0.8 (the exact value is not critical since t…0f…WR…0e… and
t…0f…RM…0e… are of the same order).
Knowing the ratio t…0f…BUS,INSTR…0e…/t…0f…INSTR…0e… and the value of
t…0f…INSTR…0e… for P…0f…HIT…0e… = 0, this will enable the calculation
of M…0f…RW…0e….
The CPU loadings found in section 3 of this document
and the service times are based on P…0f…HIT…0e… = 0, CACHE
enabled, and an average service time t…0f…INSTR…0e… = 2 s
which includes the effect of time slice changing (5%
added to loads and service times).
With t…0f…BUS,INSTR…0e…/t…0f…INSTR…0e… = 0.50 we find M…0f…RW…0e… = 1.21.
The time t…0f…INSTR…0e… may now be calculated for other values
of P…0f…HIT…0e…. For this purpose the reduction in t…0f…INSTR…0e… may
be found as the reduction to t…0f…BUS,INSTR…0e… using the above
formula, b̲u̲t̲ ̲w̲i̲t̲h̲ ̲t̲'̲R̲M̲ ̲r̲e̲p̲l̲a̲c̲e̲d̲ ̲b̲y̲
t̲'̲R̲M̲ ̲=̲ ̲6̲0̲0̲ ̲n̲s̲; this is due to the fact that the saving
obtained by the dropping of the bus access for reading
is counteracted by the fact that internal operations
took place during the bus access.
The CPU execution time including the effect of Processor
Bus queuing is given as:
T…0f…CPU…0e… = t…0f…SCPU…0e… x INC + W…0f…BUS…0e…
where
t…0f…SCPU…0e… is the CPU time calculated in section 3
of this document, CACHE enabled but NO
HITS, plus the time slice effect (5% increase
to loads and service times)
INC is the improvement in instruction time
due to CACHE HITS, INC = t…0f…INSTR…0e…/t…0f…INSTR…0e…(P…0f…HIT…0e…
= 0)
W…0f…BUS…0e… is the waiting time for Processor Bus access,
i.e. the Processor Bus Queuing time
t…0f…Q,BUS…0e… = W…0f…BUS…0e… + t…0f…BUS…0e…
We may then reformulate
T…0f…CPU…0e… = t…0f…SCPU…0e… INC + (t…0f…BUS…0e…/t…0f…SCPU…0e…)((t…0f…QBUS…0e…/t…0f…BUS…0e…)-1) t…0f…SCPU…0e…=
t…0f…SCPU…0e… x PF…0f…CACHE,BUS…0e…
t…0f…BUS…0e… is here related to the transaction bus time consumption;
we may reformulate this to a single instruction, i.e.
t…0f…BUS…0e…/t…0f…SCPU…0e… = t…0f…BUS,INSTR…0e…/(t…0f…INSTR…0e… (P…0f…HIT…0e… = 0)
We shall assume P…0f…HIT…0e… = 0.5 for the calculations of
this document; consequently
I̲N̲C̲ = 1 - t…0f…INSTR…0e…/t…0f…INSTR…0e… (P…0f…HIT…0e… = 0) = 1- t…0f…INSTR…0e…
=
= 1 - M…0f…RW…0e… x H x P…0f…HIT…0e… x t'…0f…RM…0e…/2.0 s = 0̲.̲8̲5̲
t̲…8f…B̲U̲S̲…8e…/̲t̲…8f…S̲C̲P̲U̲…8e… = (t…0f…BUS,INSTR…0e…/t…0f…INSTR…0e…) …0f…P…0f…HIT…0e… = 0…0e…
- t…0f…INSTR…0e… = 0̲.̲3̲5̲
The relative queuing time t…0f…QBUS…0e…/t…0f…BUS…0e… is a function
of the Processor Bus loading
…0f…BUS…0e… = 3 x …0f…SCPU…0e… x (t…0f…BUS…0e…/t…0f…SCPU…0e…)
This function is presented on page 452, chapter 28,
I. Martin, Design of Real Time Computer Systems: It
is here assumed that the service time is exponential;
this is of course not the case but will anyway be accepted
in a worst case estimate.
A T̲H̲R̲O̲U̲G̲H̲P̲U̲T̲ ̲L̲I̲M̲I̲T̲A̲T̲I̲O̲N̲ problem will arise when the
Processor Bus load approaches 100 per cent, thereby
limiting the amount of processing in a manner which
is faily i̲n̲d̲e̲p̲e̲n̲d̲e̲n̲t̲ of the number of CPUs.
When taking into account the statistical arrival of
requests from CPUs for the Processor Bus, it turns
out that the number of CPUs does play a role and in
a manner to decrease the throughput limit: There is
a certain probability that no Processor Bus request
is issued at any time, this probability is increasing
with higher CACHE hit rate, since more time is spent
in the CPU, and it is decreasing with an increasing
number of CPUs. Consequently in a fraction of time
corresponding to this probability, this Processor Bus
will not be used and the throughput limit in terms
of average Processor Bus transfers is proportionally
decreased; fortunately this influence of higher hit
rates is counteracted by the decreasing need for bus
access, refer above formula for Processor Bus loading.
We find
…0f…SCPU…0e… = …0f…BUS…0e…/3/(t…0f…BUS…0e…/t…0f…SCPU…0e…)
where the limit for …0f…BUS…0e… will be found in the following
calculations and t…0f…BUS…0e…/t…0f…SCPU…0e… is given above.
A theory for calculating the throughput limit has been
developed for the case of exponential arrival of request,
refer Buzens algorithm for Central Server Model; the
corresponding formulas are listed in table 4.2.5-1.
For the above listed values of the parameters involved
we find
P…0f…HIT…0e… = 0: …0f…BUS,MAX…0e… = 0.92, …0f…SCPU,MAX…0e… = 0.61
P…0f…HIT…0e… = 0.5: …0f…BUS,MAX…0e… = 0.79, …0f…SCPU,MAX…0e… = 0.75
FIG. 4.2.5-1 PROCESSOR BUS ACCESS
Refer to fig. 4.2.5-1, where the time spent in the
PU and on the Processor Bus now shall apply for a̲ ̲s̲i̲n̲g̲l̲e̲
̲a̲v̲e̲r̲a̲g̲e̲ ̲b̲u̲s̲ o̲p̲e̲r̲a̲t̲i̲o̲n̲. Consequently we define the following
terms:
S = average time per bus operation on bus
Z = average time per bus operation in PU
We find
S = (M…0f…RW…0e…(1-H) t…0f…WR…0e… + M…0f…RW…0e… x H (1-P…0f…HIT…0e…) t…0f…RM…0e…)/N
Z = ((t…0f…INSTR…0e…(P…0f…HIT…0e… = 0) - M…0f…RW…0e… x H (1-P…0f…HIT)…0e… x t'RM)/N)
- S
The number of bus operations per instruction is
N = M…0f…RW…0e… (1-H) + M…0f…RW…0e… x H (1-P…0f…HIT…0e…)
Throughput in terms of
bus opertions per sec. ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲0̲ ̲ ̲ ̲ ̲ ̲ ̲1̲
̲ ̲ ̲ ̲ ̲
with 3 CPUs: ̲ ̲0̲ ̲ ̲ ̲ ̲ ̲ ̲-̲ ̲ ̲ ̲ ̲ ̲ ̲1̲
̲ ̲ ̲ ̲ ̲
X(3) = (3/Z) x (h(2,1)/h(3,1) ̲ ̲1̲ ̲ ̲ ̲ ̲ ̲ ̲1̲ ̲ ̲ ̲ ̲
̲h̲(̲1̲,̲1̲)̲ ̲
̲ ̲2̲ ̲ ̲ ̲ ̲ ̲ ̲1̲ ̲ ̲ ̲ ̲ ̲h̲(̲2̲,̲1̲)̲
̲
̲ ̲3̲ ̲ ̲ ̲ ̲ ̲ ̲1̲ ̲ ̲ ̲ ̲ ̲h̲(̲3̲,̲1̲)̲
̲
where
h(m,1) = h(m,0) + (m,S/Z) h (m-1,1)
…0f…BUS…0e… = X(3) x S
TABLE 4.2.5-1 Processor Bus Throughput Calculation
4.2.6 Q̲u̲e̲u̲e̲ ̲T̲i̲m̲e̲ ̲a̲n̲d̲ ̲L̲e̲n̲g̲t̲h̲
PU queuing calculations are based on the load derived
in section 3 with addition of 5% due to time slice
processing.
Based on this load, the factor PF…0f…CACHE,CPU…0e… is derived
as detailed in section 4.2.5, the service time T…0f…CPU…0e…
thus derived is the basis for the following calculations.
Further calculations executed on basis of the set of
formulas of section 4.2.3.
The average number of requests waiting or being served,
i.e. queued, may be found from the queuing time divided
by the request interarrival time (= t…0f…a…0e…); this corresponds
to the replacing of the service time t…0f…SCPU…0e… in the queuing
formulas by …0f…SCPU…0e… (=t…0f…SCPU…0e…/t…0f…a…0e…). For multiserver-queuing
the result thus obtained shall furthermore be multiplied
by the number of servers.
4.2.7 D̲i̲s̲c̲u̲s̲s̲i̲o̲n̲
It shall be calculated how many request which may be
queued in the PU system in order to estimate whether
multiprocessing or queue limitations (refer section
4.1) might occur. The level shall be multiprocessor
queuing and queuing for nonconcurrent processing of
CAMPS system Functions and Procedures.
The busy minute values of 3.6.1 shall be used and the
assumptions
P…0f…HIT…0e… = 0.5
( …0f…CPU…0e…/T…0f…CPU…0e…)…0e…2…0f… = 1/3
No priority processing.
The number of requests queued, i.e. waiting or processing,
is found for the multiserver resembly to be 0.9, whereas
it is 0.7 for the worst case of non-concurrent queuing.
We may conclude that limitations in multiprocessing
or queue lengths may be ignored in response time and
throughput calculations for the PU at this level of
processing.
4.3 T̲D̲X̲ ̲S̲y̲s̲t̲e̲m̲ ̲M̲e̲c̲h̲a̲n̲i̲s̲m̲s̲ ̲&̲ ̲Q̲u̲e̲u̲i̲n̲g̲
4.3.1 T̲D̲X̲ ̲T̲r̲a̲n̲s̲f̲e̲r̲ ̲D̲e̲l̲a̲y̲
The TDX system is transferring contents of character
buffers in PU memory to the LTUX's from where the buffer
contents is further transferred to the terminals: VDU's,
printers, OCR, and Low Speed External Channels. Similarly
the TDX System transfers buffer contents from the LTUXs
to the PU-memory.
Characters to and from a specific channel of a LTUX
are transferred via a logical channel of the TDX. The
transfer is according to an algoritm which is offering
a fixed baudrate or bandwith to each logical channel
independent of the traffic: Each channel is scanned
in 0.15625 ms during which 128 bits may be transferred.
During 1.28 seconds the TDX then makes 8192 channel
scans. The maximum possible baudrate offered to one
channel only is thus 8192 x 128/1.28 = 819200 b/sec.
and the smallest is 128/1.28 = 100 b/sec. which may
be offered to 8192 channels.
The algoritm furthermore works as follows:
All channels at each baudrate level are scanned once
and this scanning is then repeated the number of times
this level is higher than the next lower level assigned
before this lower level is scanned once for each channel.
Having done one scan of each channel at any level assigned
the algoritme returns to the highest possible level
assigned to repeat the initial scan. Refer to fig.
4.3.1-1 for a CAMPS algoritme with
1 TDX Channel to Standby PU: 51200 b/s
48 TDX Channels to VDUs and Printers: 48 x 6400 b/s
24 TDX Channels to Low Speed Ext.: 24 x 400 b/s
1 TDX Channel to OCR: 12800 b/s
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲
380800 b/s
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲
BANDWIDTH
100 b/s
3 times
400 b/s 1 scan of each
24 ch.
15 times
1 chan of each 48 ch.
6400 b/s
12800 b/s 1 scan of each 2 ch.
51200 b/s
4 scan of 1 ch.
819200 b/s 3936 scans needed for channel
traffic
1.28
ms
FIG. 4.3.1-1…01…TDX SCAN ALGORITME CAMPS
4.3.2 T̲D̲X̲ ̲T̲r̲a̲n̲s̲f̲e̲r̲ ̲D̲e̲l̲a̲y̲ ̲a̲n̲d̲ ̲T̲h̲r̲o̲u̲g̲h̲p̲u̲t̲
The bandwidth assigned does not reflect the throughput
requirements, which are lower, but reflects the desire
for a small transfer delay.
The following delays shall be considered important:
- Scan delay, i.e. the time passed untill a particular
channel is scanned again. From fig. 4.3-1 the maximum
delays are found for
S̲t̲a̲n̲d̲b̲y̲ ̲P̲U̲ ̲C̲h̲a̲n̲n̲e̲l̲:̲ 1 "Scan" of all other channels
= 1 + 48 + 24 Scans or 1̲1̲.̲5̲ ̲m̲s̲.̲
O̲C̲R̲ ̲C̲H̲A̲N̲N̲E̲L̲:̲ As for Standby PU Channel with the
OCR Scan replaced by 4 PU channel Scans = 4 + 48
+ 24 Scans or 1̲2̲ ̲m̲s̲.̲
V̲D̲U̲ ̲a̲n̲d̲ ̲P̲R̲I̲N̲T̲E̲R̲ ̲C̲h̲a̲n̲n̲e̲l̲:̲ As for OCR Channel with
1 VDU and PRINTER channel Scan replaced by 2 OCR
Channel plus 8 Standby PU Channel Scans = 47 +
2 + 8 + 24 Scans or 1̲3̲ ̲m̲s̲.
L̲o̲w̲ ̲S̲p̲e̲e̲d̲ ̲C̲h̲a̲n̲n̲e̲l̲:̲ 16 x (48 + 2 + 8) + 23 Scans
or 1̲4̲8̲ ̲m̲s̲ (all other channels has to be scanned
completely).
- TDX Transfer Delay: Each bit is delayed an amount
equal to the reciproc value of the baud rate.
- LTUX to Terminal Delay: As above for TDX Transfer
delay.
- Information queuing delay for PRINTER and EXT.CHANNELS:
It is a basic assumption of the requirements that
the given capacity shall prevent the load to exceed
= 0.7. Refer to section 3.6.2-3 for a presentation
of the PRINTER and EXTERNAL CHANNEL load.
Concerning VDU output the user will select the outgoing
transaction in each case and queuing effects may thus
be ignored. It is assumed that proper buffer management
in PU and LTUX prevents delays which are comparable
to the ones listed above except for such delays which
are incorporated in the application service time (section
3). Refer to section 3.6.2-3 for a presentation of
the VDU load.
VDU input is interactive and proper buffer management
in LTUX and PU will transfer the information for the
CPU's with a delay, the important components of which
is accounted for above except for any CPU time accounted
for in the application processing (section 3). Refer
to section 3.6.2-3 for the VDU load.
Table 4.3.2-1 presents the TDX introduced delays of
importance for the response time calculations in section
5.1.
I̲N̲P̲U̲T̲ ̲T̲O̲ ̲C̲H̲A̲N̲N̲E̲L̲ V̲D̲U̲ L̲O̲W̲ ̲S̲P̲E̲E̲D̲
(ms) (ms)
X characters to LTUX:
transfer 8.3X 100X
X characters to PU:
Scan delay max. 13 148
transfer 1.6X 25X
O̲u̲t̲p̲u̲t̲ ̲t̲o̲ ̲c̲h̲a̲n̲n̲e̲l̲ V̲D̲U̲/̲P̲r̲i̲n̲t̲e̲r̲s L̲o̲w̲ ̲S̲p̲e̲e̲d̲
X characters from PU:
SCAN delay max 13 148
transfer 1.6X 25X
X characters from LTUX:
transfer 8.3X 100X
TABLE 4.3.2-1…01…TDX Delays
The t̲h̲r̲o̲u̲g̲h̲p̲u̲t̲ is actually limited by the TDX-PU interface
to about 500.000 b/sec.
The busy second character transfer requirement not
including the Standby PU Channel is about 6000 ch/sec.
(refer section 3.6.3). Assuming a comfortable maximum
of 10 checkpoints/sec of 512 bytes the total needs
are about 11000 ch/sec. or 110000 b/s.
With proper buffer and queue element assignment and
management in LTUXs and at the TDX-PU interface there
seems to be no limitations reached in multiprocessing
and queuing lengths. Also response time should not
be a problem: refer to section 5.2 for further discussion.
4.4 I̲/̲O̲ ̲C̲H̲A̲N̲N̲E̲L̲ ̲M̲e̲c̲h̲a̲n̲i̲s̲m̲s̲ ̲a̲n̲d̲ ̲Q̲u̲e̲u̲i̲n̲g̲
4.4.1 I̲/̲O̲ ̲C̲H̲A̲N̲N̲E̲L̲ ̲T̲r̲a̲n̲s̲f̲e̲r̲ ̲M̲e̲c̲h̲a̲n̲i̲s̲m̲s̲
In order to estimate the I/O CHANNEL load and associated
queuing effects the average service time for DISC CONTROLLER
and LTU transfers shall be estimated.
First of all it is recognised that the I/O CHANNEL
is a single server system: Only one transfer may take
place at a time. The interrupt with the highest priority
only is forwarded to the first CPU available on input
and no other input or output transfer may take place
before the corresponding device is served. The service
time shall count from the moment the interrupt in input
is recognised by a CPU and this CPU is granted access
to the Processor Bus, similarly on output, the service
time is from grant of Processor Bus access.
Two different types of transfers shall be considered:
Block transfers and single word transfers, block transfers
being (maybe repeated) DMA transfers of 64 word blocks
to and from the PU-RAM via the PU-CHANNEL bus, and
single word transfers being transfers via PU-Processor
Bus and the MAP.
B̲l̲o̲c̲k̲ ̲T̲r̲a̲n̲s̲f̲e̲r̲s̲
The CPU informs the MAP of information source (destination)
and address.
The MAP then informs the MIA of where in PU-RAM to
send (or fetch) the information and about source (destination)
and addresss. Finally the CIA is informed of where
to get (send) the information.
CIA and MIA form the two ends of the DATA CHANNEL.
In the following table is given an estimate of the
total transfer time of what is believed to be an average
sized transfer.
I̲/̲O̲ ̲C̲H̲A̲N̲N̲E̲L̲ ̲S̲E̲R̲V̲I̲C̲E̲ ̲T̲I̲M̲E̲
Transfer set up time 100 s
T̲r̲a̲n̲s̲f̲e̲r̲ ̲t̲i̲m̲e̲ ̲f̲o̲r̲ ̲e̲a̲c̲h̲ ̲6̲4̲ ̲w̲o̲r̲d̲ ̲B̲l̲o̲c̲k̲
CIA: Transfer from DISC CONTR.RAM to I/O Bus 32
Data Channel (CIA to MIA) transfer 64
MIA to PU-RAM(PU-CHANNEL Bus
assuming parallel access from Processor Bus) 64
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲
160 s
Transfer of 2 sectors = 8 x 64 words: 100 + 8 x 160
=
̲1̲3̲8̲0̲ ̲ ̲s̲
S̲i̲n̲g̲l̲e̲ ̲W̲o̲r̲d̲ ̲T̲r̲a̲n̲s̲f̲e̲r̲s̲
Single word transfers may be used to send instruction
pointers to a disc controller for execution of the
next instruction which already has been sent in a block
transfer.
Since single word transfers may be executed during
a block transfer and only will result in very short
halt (less than 50 s).
4.4.2 I̲/̲O̲ ̲C̲H̲A̲N̲N̲E̲L̲ ̲T̲R̲A̲N̲S̲F̲E̲R̲ ̲D̲E̲L̲A̲Y̲S̲ ̲A̲N̲D̲ ̲T̲H̲R̲O̲U̲G̲H̲P̲U̲T̲
From section 4.4.1 the following result is available:
A̲n̲ ̲a̲v̲e̲r̲a̲g̲e̲ ̲t̲r̲a̲n̲s̲f̲e̲r̲ from or to a LTU or DISC CONTROLLER
s̲h̲a̲l̲l̲ ̲n̲o̲t̲ ̲e̲x̲c̲e̲e̲d̲ ̲1̲.̲5̲ ̲m̲s̲.̲
This is only true if queuing effects do not come into
play: On input a number of LTU's and the DISC CONTROLLER
may be waiting for transfer and at the same time up
to three CPU's may be waiting for output transfers.
I̲n̲p̲u̲t̲/̲O̲u̲t̲p̲u̲t̲
Messages to/from External Channels: The busy second
rate of 1230 ch/sec (refer section 3.6.4) will under
the assumption of the transfer of 512 ch. per transfer
result in 2.4 transfers per sec. Even with a factor
of 10 more transfers (smaller buffers), the contribution
is small: 25 transfers/sec.
I̲n̲p̲u̲t̲
The transfer of READ DATA from DISC will result in
no more than 25 transfers per second in busy minute
(refer section 3.6.1).
O̲u̲t̲p̲u̲t̲
The transfer of WRITE instructions (2 transfers per
write) and DATA (2 transfers per write) will result
in no more than 4 times 10 transfers per second for
busy minute (refer section 3.6.1)
The transfer of DISC READ instructions shall result
in no more than 25 transfers per second.
In total about 115 transfers per second are required
(and shall be executed if the CPU's are not too busy,
which they are not as shown elsewhere in this document).
The corresponding load is less than 115 x 1.5 x 10…0e…-3…0f…
= 0.17 and queuing effects may be neglected.
In this argument the transfer of the DISC instruction
set is assumed to take as much transfer time as the
data transfer; this is not the case: In total about
1.5 ms may be assumed for instruction plus data.
Throughput problems may be neglected on basis of the
same arguments as above. With proper assignment and
management of buffers and queue elements no multiprocessing,
queue length or response time problems are found in
connection with the I/O Channel.
4.5 D̲I̲S̲C̲ ̲S̲Y̲S̲T̲E̲M̲ ̲M̲E̲C̲H̲A̲N̲I̲S̲M̲ ̲A̲N̲D̲ ̲Q̲U̲E̲U̲I̲N̲G̲
The management of disc access is discussed in section
1.2.1.4: The queueing of READ and WRITE operations
and the load of the two mirrorred discs.
In this section we shall concentrate on the calculation
of disc access time (section 4.5.1) and the presentation
of queuing formulas plus estimation of queuing effects
(section 4.5.2).
4.5.1 D̲i̲s̲c̲ ̲A̲c̲c̲e̲s̲s̲ ̲M̲e̲c̲h̲a̲n̲i̲s̲m̲s̲
Fig. 4.5.1-1 presents the track configuration for the
movable head SMD used in CAMPS. One head may be positioned
at a time and data transferred to or from the disc.
The total disc access time is composed as follows
t…0f…DISC…0e… t…0f…HDL…0e… + t…0f…CHAN…0e… + t…0f…SEEK…0e… + t…0f…TRANS…0e…
where
t…0f…HDL…0e… Disk Handler Transfer Time 6ms
t…0f…CHAN…0e… The transfer time of instruction plus data
on I/O channel.
t…0f…SEEK…0e… The time for moving disc head to the proper
track.
t…0f…TRANS…0e… The time spent waiting for disc rotation plus
the time for data transfer to disc.
t…0f…CHAN…0e… is given in section 4.4.1:
Assuming that transfer of instruction set
with execution command plus data is equivalent
to a 2 sector (2 x 512 Bytes) transfer
in average we find
t…0f…CHAN…0e… - 1.5 ms.
t…0f…SEEK…0e… is the moving of the disc head, before
the actual transfer of data between disc
and controller can take place assuming
data and instruction is already transferred
to disc controller; the seek time is further
discussed below.
t…0f…TRANS…0e… = t…0f…ROT…0e… + t…0f…CONTR…0e…, where
t…0f…ROT…0e… rotational delay of disc. For the discs
used we may assume t…0f…ROT…0e… = 8.3 ms and a
rectangular distribution of t…0f…ROT…0e…, i.e.
( …0f…ROT…0e…/t…0f…ROT…0e…)…0e…2…0f… = 1/3;
( …0f…ROT…0e…)…0e…2…0f… = 23 ms…0e…2…0f…
t…0f…CONTR…0e… time for transfer from/to disc to/from controller.
This time is practically given by the transfer
rate from DISC CONTROLLER RAM to DISC: 625KW/Sec..
Assuming an average 2 sector transfer we find
t…0f…CONTR…0e… 1 ms. The time for transfer of SEEK
instructions is negligible.
D̲i̲s̲c̲ ̲C̲o̲n̲t̲r̲o̲l̲l̲e̲r̲ ̲R̲A̲M̲ ̲A̲c̲c̲e̲s̲s̲ ̲M̲a̲n̲a̲g̲e̲m̲e̲n̲t̲
The controller cannot manage the receipt of instructions
and data from transmission of data to the I/O Channel
together with the receipt of data from or transmission
of data to the disc. Since the time t…0f…CONTR…0e… is of the
same order as the transfer time on the I/O Channel
(refer section 4.4) we may, however, assume this constraint
to be negligible.
D̲i̲s̲c̲ ̲S̲e̲e̲k̲ ̲T̲i̲m̲e̲
For calculation of seek time it is assumed that the
d̲a̲t̲a̲ are uniformly distributed, i.e. the probability
of the data being located on a certain track is the
probability of the head having to move from that track
to any other track and equal to 1/N where N is the
number of tracks per head.
From J. Martin, Design of Real Time Computer System,
Chapter 28, page 441 the mean number of tracks to be
traversed and the variance are found as
X = (N…0e…2…0f… - 1)/3N N/3
…0f…x…0e……0e…2…0f… = (N…0e…4…0f… + N…0e…2…0f… - 2) / 18N…0e…2…0f… N…0e…2…0f…/18
Fig. 4.5.1-2 presents the SEEK TIME as a function of
tracks moved and the CAMPS linear approximation to
the seek time: I̲t̲ ̲i̲s̲ ̲i̲m̲p̲o̲r̲t̲a̲n̲t̲ ̲t̲o̲ ̲n̲o̲t̲i̲c̲e̲ ̲t̲h̲a̲t̲ ̲t̲h̲e̲ ̲C̲A̲M̲P̲S̲
̲d̲a̲t̲a̲ ̲m̲a̲y̲ ̲b̲e̲ ̲c̲o̲n̲s̲t̲r̲a̲i̲n̲e̲d̲ ̲t̲o̲ ̲t̲h̲e̲ ̲f̲i̲r̲s̲t̲ ̲2̲0̲0̲ ̲t̲r̲a̲c̲k̲s̲ ̲p̲e̲r̲
̲h̲e̲a̲d̲:̲ the 5 heads will provide one access area of 5
x 200 x 20106 = 20.1 Mbytes. Consequently
t…0f…SEEK…0e… (X) = 10 + 0.12 x X (ms)
…0f…SEEK…0e… = 0.12 x X…0e…2…0f…
For N = 200 we find
t…0f…SEEK…0e… = 20 ms
( …0f…SEEK…0e…/t…0f…SEEK…0e…)…0e…2…0f… = 0.08
…0e…2…0f… SEEK = 32 ms…0e…2…0f…
D̲i̲s̲c̲ ̲A̲c̲c̲e̲s̲s̲ ̲F̲a̲u̲l̲t̲ ̲R̲e̲c̲o̲v̲e̲r̲y̲ ̲M̲e̲c̲h̲a̲n̲i̲s̲m̲s̲
The following Fault Recovery mechanisms are designed
for a single disc:
- If a bad sector is found during write an alternative
secter is searched for moving the data.
- If a bad sector is read from a disc an alternative
secor with the moved contents will be searched.
This scheme is improved/changed by the presence of
mirrorred discs:
- If a bad sector is found during a READ, and there
is no replacement the corresponding sector is searched
on the dual disc and inserted in the "bad" sector
(it was probably not a "hard" error) or in a replacement.
- The second disc WRITE is initialised as soon as
the first one fails and before a replacement is
searched.
During a sector modification a power failure would
lead to loss of data if WRITE's were performed
in parallel; consequently the second write is delayed.
This precaution does not have an impact on the
throughput since the second disc may be used for
other requests while doing the first WRITE, but
it does have the effect of making the access time
twice as long for a WRITE (not considering queuing
effects).
HEAD NO TRACK
0
1
SERVO
2
3
4
CYLINDER
TRACKS PER HEAD = 808
TRACKS PER CYLINDER = NUMBER OF HEADS = 5
BYTES PER TRACK = 20106
BYTES PER HEAD = 16245648
BYTES TOTAL = 20106 x 808 x 5 = 81228240
FIG. 4.5.1-1…01…DISC CONFIGURATION…01…SMD 9762
SEEK TIME
ms
60
50
40
30
t…0f…SEEK…0e… = 10 + 0.12 x tracks
20
10
CAMPS DATA
200 400 600 800
tracks
FIG. 4.5.1-2
4.5.2 D̲I̲S̲C̲ ̲A̲C̲C̲E̲S̲S̲ ̲D̲E̲L̲A̲Y̲ ̲&̲ ̲T̲H̲R̲O̲U̲G̲H̲P̲U̲T̲
The queuing based on the disc access time t…0f…DISC…0e… (refer
section 4.5.1) may now be formulated:
DISC READ's will see one multiserverqueue, which expresses
the fact that any of the two mirrorred which is first
available may be used. The queuing formula is given
in section 4.2.3. In case of priority the non-preemptive
queuing shall apply.
The service time is t…0f…s…0e… = t…0f…DISC…0e… and the load …0f…s…0e… =
…0f…DISC…0e… = ( (NRE/2)(1-P…0f…HIT,CACHE…0e…) + NWR) x t…0f…DISC…0e…
where
NRE total number of READ's per sec
NWR total number of WRITE's per sec
P…0f…HIT, DISC…0e… Disc Cache Hit Probability
The queuing for READ's at highest priority is
t…0f…QREAD…0e… = t…0f…DISC…0e… + (1-P…0f…HIT,DISC…0e…) x W…0f…1…0e…(t…0f…DISC…0e…,…0f…DISC1…0e…) x
(B…0f…DISC1…0e…/2)…0f…/ …0f…DISC1…0e… + P…0f…HIT, DISC…0e… x
t…0f…CACHE,DISC…0e…
where
B…0f…DISC1…0e… probability of 2 servers being busy at
the load …0f…DISC1…0e… for highest priority.
t…0f…CACHE, DISC…0e… time for retrieving data from disc
CACHE, i.e. the CONTROLLER RAM. According
to section 4.4.1 it is about 1.5
ms. The CACHE service time is so
short that queuing may be neglected.
DISC WRITE's will see the same queue as above until
the first WRITE request is executed; whereas the first
WRITE has to wait until one of two disks are free,
the second write is
prevented access if one and only one disc is busy (when
the first WRITE is executed) and furthermore it has
to wait for the first write to be finished. The result
is:
t…0f…QWRITE…0e… = 2t…0f…DISC…0e… + W…0f…1…0e…(t…0f…DISC1, DISC1, DISC…0e…) x
(B…0f…DISC1…0e…/2)/ …0f…DISC1…0e… +
W…0f…1…0e…(t…0f…DISC, DISC1, DISC…0e…)(P…0f…DISC1…0e…/2)/…0f…DISC1…0e…
where P…0f…DISC1…0e… is the probability of one of 2 servers
being busy at the load …0f…1…0e… = …0f…DISC1…0e… of the highest
priority.
The factor P…0f…DISC1…0e… and the factor B…0f…DISC1…0e… shall be calculated
on the worst case assumption of exponential processing:
B…0f…DISC1…0e… = 2 …0e…2…0f……0f…DISC1…0e… / (1 + …0f…DISC1…0e…)
P…0f…DISC1…0e… = 2 …0f…DISC1…0e… (1 - …0f…DISC1…0e…) / (1 + …0f…DISC1…0e…)
The waiting for the second write approaches half the
service time t…0f…DISC1…0e… at high load.
The varians of the service time is found to be:
( …0f…DISC…0e…)…0e…2…0f… = …0e…2…0f……0f…SEEK…0e… + …0e…2…0f……0f…ROT…0e… = 55ms…0e…2…0f…
and the service time:
t…0f…DISC…0e… = t…0f…HDL…0e… + t…0f…CHAN…0e… + t…0f…SEEK…0e… + t…0f…ROT…0e… + t…0f…CONTR…0e…
= 3̲6̲.̲8̲m̲s̲
using previous results of section 4.5.1.
( …0f…s…0e…/t…0f…s…0e…)…0e…2…0f… = ( …0f…DISC…0e…/t…0f…DISC…0e…)…0e…2…0f… = 0.06
which shall be used for the waiting time formulas.
The varians for the queuing time is found for READ's
and WRITE's separately. For WRITE's it is the sum of
varians for two queues with the same service time t…0f…DISC…0e….
The varians for a multiserver assembly may be found
as explained in section 4.2.3.
Throughput for the server is expressed by the load
…0f…DISC…0e….
Finally, we shall consider the case of the high load
used in section 4.4:
25 READ's and 10 WRITE's in a busy minute. P…0f…HIT,CACHE…0e…
= 0 is assumed.
We find …0f…DISC…0e… = 0.69
and
t…0f…QWRITE…0e… = 2.70 x t…0f…DISC…0e… = 83ms
t…0f…QREAD…0e… = 1.48 x t…0f…DISC…0e… = 46ms
The average number of requests waiting in the PU, in
the CONTROLLER, or being transferred to the DISC is
given as t…0f…q…0e…/t…0f…a…0e… where t…0f…a…0e… is the request arrival time
t…0f…aREAD…0e… = 1/(NRE (1-P…0f…HIT,CACHE…0e…)/2)
t…0f…aWRITE…0e… = 1/NWR
We then derive the values:
Number of WRITE's in system = 0.8
Number of READ's in system = 0.6
No priority queuing is assumed in above calculations.
Limitations in terms of multiprocessing and queue lengths
shall thus not be expected from the DISCs (refer section
4.1).
4.6 Q̲U̲E̲U̲I̲N̲G̲ ̲O̲F̲ ̲F̲U̲N̲C̲T̲I̲O̲N̲A̲L̲ ̲R̲E̲Q̲U̲E̲S̲T̲S̲
Queuing phenomena at different levels of the processing
hierarchy shall be investigated.
4.6.1 Q̲U̲E̲U̲I̲N̲G̲ ̲B̲E̲L̲O̲W̲ ̲L̲E̲V̲E̲L̲ ̲O̲F̲ ̲A̲P̲P̲L̲I̲C̲A̲T̲I̲O̲N̲ ̲P̲R̲O̲C̲E̲S̲S̲ ̲A̲N̲D̲ ̲C̲O̲R̲O̲U̲T̲I̲N̲E̲
Q̲u̲e̲u̲i̲n̲g̲ ̲f̲o̲r̲ ̲N̲o̲n̲-̲c̲o̲n̲c̲u̲r̲r̲e̲n̲t̲ ̲S̲y̲s̲t̲e̲m̲ ̲F̲u̲n̲c̲t̲i̲o̲n̲s̲
This is a case of queuing for the PU only. Table 3.6.1-1
lists the load of the major non-concurrent System Functions
which on request will result in additional queuing
on top of the queuing for the PU (3 multiserving assembly).
A non-concurrent function may only be performed in
one CPU at any time.
Some of the functions are served by coroutines in the
same process and their loads shall then be added when
calculating the queuing for any of them.
With reference to the discussion in section 1.2.1.3
and the basic formulas of section 4, the basis is established
for the calculations of table 4.6-1: The queuing factor
for PU processing, corresponding to concurrent processing,
and the queuing factor for 2 cases of non-concurrent
processing.
For a̲l̲l̲ CPU processing calculations, the queuing for
PU shall include the effect of queuing for the non-concurrent
System Functions: Some requests of processing, for
which requirements have been stated, do not involve
use of these System Functions to the extent of an average
request, whereas others require more non-concurrent
System Function processing; however, considering the
difference between an overall queuing factor of 1.06
and one of 1.26 (refer table 4.6.1-1) in the light
of the estimation accuracy of CPU time consumption,
which may be in the order of 20 per cent, it is found
appropriate to introduce for the ease of calculations
an o̲v̲e̲r̲a̲l̲l̲ ̲q̲u̲e̲u̲i̲n̲g̲ ̲f̲a̲c̲t̲o̲r̲ ̲a̲t̲ ̲t̲h̲e̲ ̲l̲e̲v̲e̲l̲ ̲o̲f̲ ̲c̲a̲l̲l̲s̲ ̲f̲o̲r̲
̲P̲U̲-̲p̲r̲o̲c̲e̲s̲s̲i̲n̲g̲ ̲i̲n̲v̲o̲l̲v̲i̲n̲g̲ ̲C̲A̲M̲P̲S̲ ̲S̲y̲s̲t̲e̲m̲ ̲F̲u̲n̲c̲t̲i̲o̲n̲s̲.
This queuing factor is found by weigthing the queuing
factors to the relative total load of 3 groups of functions:
Non-concurrent functions having a load higher than
0.2 (table 3.6.1-1) in one CPU are assigned a queue
factor corresponding to a load of 0.3, others with
a load below that are assigned a queue factor corresponding
to the load 0.2 in one CPU, and concurrent processing
functions
consuming the rest of the total time calculated in
one CPU are assigned the queue factor of the multiserving
PU. With reference to the tables 3.6.1-1 and 4.6.1-1
the following O̲V̲E̲R̲A̲L̲L̲ ̲P̲U̲-̲Q̲U̲E̲U̲I̲N̲G̲ ̲F̲A̲C̲T̲O̲R̲ ̲Q…0f…TPU…0e… is derived
for B̲U̲S̲Y̲ ̲H̲O̲U̲R̲.
Q…0f…TPU…0e… = (1/1.48) (0.57 x 1.26 + 0.68 x 1.18 + 0.23 x
1.06)
= 1.19
With a queuing factor of this order the varians is
still the same as for the service time, i.e. 1/R =
1/3.
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲
̲I̲T̲E̲M̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲L̲O̲A̲D̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲Q̲U̲E̲U̲E̲ ̲F̲A̲C̲T̲O̲R̲
̲
Queuing for PU:3 Per CPU: 0.43 Q…0f…PU…0e… = 1.06
multiserving CPU's
Queuing for NON- 0.18 1.18
CONCURRENT SYSTEM
FUNCTION:
Load = 0.20
As above but 0.28 1.26
Load = 0.30
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲ ̲ ̲
S̲Y̲S̲T̲E̲M̲ ̲F̲U̲N̲C̲T̲I̲O̲N̲,̲ ̲N̲O̲N̲-̲C̲O̲N̲C̲U̲R̲R̲E̲N̲T̲:
ITEM loads are section 3 loads
QUEUE FACTORs are relative to section 3 service times
…0f…CPU…0e… = …0f…SCPU…0e… x INC = (load section 3) x INC x PF…0f…ts…0e…
=
0.87 x (load section 3)
LOAD = …0f…CPU…0e… x Q…0f…PU…0e…
QUEUE FACTOR = Q…0f…PU…0e… x (single server queuing with parameter
LOAD)
TABLE 4.6.1-1 QUEUING CALCULATIONS for CPU based on
BUSY HOUR loading of table 3.6.1-1. Refer section 4
for basic formulas. P…0f…CACHE,HIT…0e… = 0.5.
C̲o̲r̲o̲u̲t̲i̲n̲e̲s̲ ̲i̲n̲ ̲A̲p̲p̲l̲i̲c̲a̲t̲i̲o̲n̲ ̲P̲r̲o̲c̲e̲s̲s̲e̲s̲
Requests for coroutines in an application process will
first queue according to the total d̲i̲r̲e̲c̲t̲ CPU load
of all coroutines of the same process (assuming they
are requested independantly). The direct CPU load shall
be the absolute load in one CPU.
The total direct (absolute) CPU load is 8 per cent
according to table 3.6.1-1. Considering that this load
is split on a number of functions, where none is dominating
and which in many cases are executed by a number of
processes, it is seen that queuing for non-relevant
coroutines may be ignored.
Investigation of the tables in section 3 reveals that
this argument shall also apply during busy min. traffic.
Queuing for relevant single or set of duplicate coroutines
shall not be ignored, however; since the processing
of one coroutine request is not finished before all
related system calls have been e̲x̲e̲c̲u̲t̲e̲d̲ the queuing
may be considerable. Refer to section 4.6.2 for queuing
at the application level and to the results of section
5.2.
One remedy against excessive queuing might be the introduction
of additional coroutines as incarnations.
D̲i̲s̲c̲u̲s̲s̲i̲o̲n̲
We shall shortly discuss the assumption of poisonian
arrival of request for CPU and disc processing.
The poisonian arrival of requests for CPU time slice
or disc access shall apply to both the traffic arrival
variations and the variation in processing of each
unit of traffic, i.e. incoming message, message for
preparation, etc.
Since the number of CPU time slice or disc access requests
per traffic unit has a rather high average, we may
conclude, also when as a worst case the variation of
this number is poisonian (refer section 4.6.2), that
the arrival of requests is not poisonian but rather
a poisonian spread of constant arrival periods.
T̲h̲u̲s̲ ̲t̲h̲e̲ ̲a̲s̲s̲u̲m̲p̲t̲i̲o̲n̲ ̲o̲f̲ ̲p̲o̲i̲s̲o̲n̲i̲a̲n̲ ̲a̲r̲r̲i̲v̲a̲l̲ ̲o̲f̲ ̲r̲e̲q̲u̲e̲s̲t̲s̲
̲i̲s̲ ̲a̲ ̲w̲o̲r̲s̲t̲ ̲c̲a̲s̲e̲ ̲a̲s̲s̲u̲m̲p̲t̲i̲o̲n̲ ̲i̲n̲ ̲q̲u̲e̲u̲i̲n̲g̲ ̲c̲a̲l̲c̲u̲l̲a̲t̲i̲o̲n̲s̲.
For further discussion on this subject: refer section
4.6.3.
V̲a̲r̲i̲a̲n̲s̲ ̲C̲a̲l̲c̲u̲l̲a̲t̲i̲o̲n̲s̲
The varians of the response (= queuing) time at the
level of coroutines and processes is a result of PU
instruction time and disc access time variations (as
treated in previous subsections of section 4) and shall
depend on the number of visits to the PU and the discs.
Varians contributions from TDX and I/O channel system
may be ignored.
Assume a varians contribution ( …0f…i…0e……0e…2…0f…) at each visit to
a service position i; after N…0f…i…0e… visits the varians is
N…0f…i…0e… x ( …0f…i…0e…)…0e…2…0f…. The final varians is found as:
…0e…2…0f… = …0f…i…0e… N…0f…i…0e… ( …0f…i…0e…)…0e…2…0f… = …0f…i…0e… N…0f…i…0e…( …0f…i…0e…/t…0f…i…0e…)…0e…2…0f… (t…0f…i…0e…)…0e…2…0f…
where t…0f…i…0e… is the queuing time of position i.
Visits to disc for READ's and WRITE's are treated separately.
N…0f…i…0e… for the PU is found (conservative estimate) by dividing
the total PU response time with the size of a time
slice.
Using the fact that t…0f…i…0e… = T…0f…i…0e…/N…0f…i…0e…, where the total response
time at this level is T = …0f…i…0e… T…0f…i…0e…, the formula for
…0e…2…0f… may be further developed.
…0e…2…0f… = …0f…i…0e… ( …0f…i…0e…/t…0f…i…0e…)…0e…2 x ((T…0f…i…0e…)…0e…2…0f…/N…0f…i…0e…)
We shall introduce the VARIANCE FACTOR.
VF…0f…i…0e… = ( …0f…i…0e…/t…0f…i…0e…)…0e…2…0f… x 1/N…0f…i…0e…
Hence we may write:
1/R = ( /T)…0e…2…0f… = …0f…i…0e… VF…0f…i…0e… (T…0f…i…0e…/T)…0e…2…0f…
The application of 1/R in calculating the final response
time shall be discussed in section 4.6.2.
4.6.2 Q̲U̲E̲U̲I̲N̲G̲ ̲A̲T̲ ̲T̲H̲E̲ ̲L̲E̲V̲E̲L̲ ̲O̲F̲ ̲A̲P̲P̲L̲I̲C̲A̲T̲I̲O̲N̲
An application will often consist of a string of functional
calls, each function corresponding to one of the functions
in section 3. Each of the functional calls will be
served by a process or a coroutine in a process. The
final response time is found by adding the queue times
for visits to the processes (or coroutines) involved.
In the response time calculations for processes or
coroutines (single server or multiserver depending
on the number of incarnations of coroutines and processes)
the varians relative to the response time is found,
i.e. 1/R according to subsection 4.6.1.
Also the final 1/R for the application must be known
for estimation of the final response time probability
distribution. This is the subject of this subsection.
V̲a̲r̲i̲a̲n̲c̲e̲ ̲C̲a̲l̲c̲u̲l̲a̲t̲i̲o̲n̲s̲
The varians calculations in section 4.6.1 concentrated
on the contributions due to variations in the PU and
disc queuing time.
There is, however, another source for response time
variations, which in general is much more influential:
Variations in required processing, i.e. number of request
to PU and discs, per repeated request for the same
application.
It is seen that not only processing time variations
of the application request in question are of interest;
also variations in the number queued requests of all
other simultaneous request for the same application
will influence the response time.
Since most processing is related to messages, we shall
here discuss the probability distribution of the message
processing needs as a function of the service time;
queuing time variations are discussed later. Table
4.6.2-1 presents important characteristics of a message.
In order to show the estimation of the variations of
processing needs, the case of incoming message analysis
has been investigated and is presented here:
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
I̲T̲E̲M̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲A̲V̲E̲R̲A̲G̲E̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲M̲A̲X̲ ̲ ̲ ̲ ̲
MSG. LENGTH …0e…*)…0f… 1500 12,000
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
PLA's 7 250
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
RI's 5 200
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
TABLE 4.6.2-1 Message Processing Characteristics
…0e…*)…0f… The msg. length is negativ exponentially distributed.
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
I̲T̲E̲M̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲S̲E̲R̲V̲I̲C̲E̲ ̲T̲I̲M̲E̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
Msg. Analysis,
Average Msg. 701ms
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
Msg. Analysis,
Maximum Size 1985ms
Msg. …0e…*)…0f…
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
TABLE 4.6.2-2 Variations in Msg. Analysis Service
Time
(queuing for nonconcurrent processing
not
included)
…0e…*)…0f… Refer table 3.4-8: 0.1 AIG replaced by 1 AIG
, 1 MSG.FCTS READ and 1 WRITE replaced by 8 READ's
and 8 WRITE's.
Refer table 3.4-9: 0.1 AIG and 5 PLA's replaced
by 3 AIG's and 150 PLA's, 1 MSG.FCTS READ
and 1 WRITE replaced by 8 READ's and 8 WRITE's.
Contributions from both relayed and non-relayed messages
have been considered and weighted according to the
number of messages in the two cases. Refer table 4.6.2-2.
In the following considerations we will use the fact
that the service time probability distribution may
be approximated by a GAMMA function with the parameter
R where 1/R = ( /t)…0e…2…0f……0f…s…0e… is the varians. The approximation
is reasonable for service times not too much higher
or lower than the average service time.
From table 4.6.2-2 it is found that the ratio between
average service time and maximum service time is 2.8.
Comparing the rectangular distribution with (1/R) =
0.33 and a maximum variation of 2 times the service
time which corresponds to the probability 0.94 of the
corresponding GAMMA function approximation, we find
for a maximum variation of 2.8 at the same probability
the GAMMA function corresponding to exponential distribution
(1/R = 1).
Although we have considered the message analysis distribution
above, we shall still in each case of response time
calculations estimate the varians separately.
As discussed in I. Martin, Design of Real Time Computer
System, chapter 26, page 387, both waiting times and
service times may be approximated reasonably well by
a GAMMA function, and the sum of these functions, the
queuing time, is another GAMMA function with the parameter
Rq.
1/Rq = (1/(1- ))…0e…2…0f… ((1-( /6)(4- )(1-1/R)) (1+1/R)
- (1-( /2)(1-1/R)) …0e…2…0f…)
X̲ ̲P̲e̲r̲ ̲C̲e̲n̲t̲ ̲F̲a̲c̲t̲o̲r̲
As already discussed above, any sum of response time
contributions may be approximated by a GAMMA function
with a varians equal to the sum of all varians contributions,
properly weigthed according to the corresponding response
time.
Introducing the varians (1/R)…0f…p…0e… for a visit to a
function p, the total number of visits being N…0f…p…0e… for
the application in question, and
VF…0f…p…0e… = (1/R)…0f…p…0e… (1/N…0f…p…0e…)
we find as in section 4.6.1
1/R = …0f…p…0e… VF…0f…p…0e… (T…0f…p…0e…/T)…0e…2…0f…
for the varians of the resulting response time
T = …0f…p…0e…N…0f…p…0e…T…0f…p…0e…
The probability of the response time being less than
a time t with probability x,t = (X per cent factor),
T may be found from the GAMMA function with the parameter
R.
4.6.3 M̲a̲x̲i̲m̲u̲m̲ ̲Q̲u̲e̲u̲i̲n̲g̲ ̲T̲i̲m̲e̲s̲
In two cases, delivery of incoming messages and supervisory
command execution, response time requirements have
been stated for the absolute worst case: The 100 per
cent response time requirements which shall apply to
the response time never to be exceeded.
Obviously such requirements cannot be fulfilled within
a processing environment which includes the case of
an infinitely large traffic as a statistic probability.
Consequently, constraints shall be applied according
to the physical reality.
As mentioned in the "Discussion" of section 4.6.1,
the processing request (for CPU time slices and disc
access) may be considered arriving as a superposition
of two sources: A poisonian arrival of traffic units
for processing which give rise to a number of requests,
this number having an approximated poisonian variation
with a maximum deviation from the average value of
2.8 for the worst case application (refer section 4.6.2).
We shall take the busy minute traffic arrival rate
as the maximum rate for arrival of functional requests
or traffic units (the busy second character flow must
last for more than 30 seconds to produce the same traffic
and is thus obviously not the limit to be used).
In a busy minute the incoming traffic rate is 3 times
the busy hour rate and the outgoing traffic rate is
2 times the busy hour rate. Using the factor 3 as a
general worst case and using the fact that the traffic
has a poisonian arrival (GAMMA function for parameter
R = 1) the probability of a traffic rate higher than
the required maximum is 5 per cent.
In section 4.6.2 we found a probability of 6 per cent
of exceeding the worst case maximum when assuming a
GAMMA function processing time distribution (also poisonian,
i.e. R = 1) per traffic unit.
Considering the traffic arrival to be independant of
the processing time variations the probability of both
limits to be reached at the same time is 0.06 x 0.05
= 0.003.
Having found the GAMMA function approximation (the
R-value) for the response time in question we may then
c̲a̲l̲c̲u̲l̲a̲t̲e̲ ̲t̲h̲e̲ ̲m̲a̲x̲i̲m̲u̲m̲ ̲r̲e̲s̲p̲o̲n̲s̲e̲ ̲t̲i̲m̲e̲ ̲a̲s̲ ̲t̲h̲e̲ ̲9̲9̲.̲7̲ ̲p̲e̲r̲
̲c̲e̲n̲t̲ ̲v̲a̲l̲u̲e̲, refer section 4.6.2, the x per cent factor.
4.7 C̲O̲N̲C̲L̲U̲S̲I̲V̲E̲ ̲M̲O̲D̲E̲L̲ ̲C̲O̲N̲S̲I̲D̲E̲R̲A̲T̲I̲O̲N̲S̲
With reference to the discussion in section 4.1, and
the corresponding considerations at the end of each
of the following sections, it may now be concluded
that response time calculations may be found by adding
the contributions from each server position, these
contributions being calculated on basis of poisonian
arrival of request. This result is due to the very
short or not existing queues at the service positions.
5. P̲E̲R̲F̲O̲R̲M̲A̲N̲C̲E̲ ̲C̲A̲L̲C̲U̲L̲A̲T̲I̲O̲N̲S̲
Based on the result of section 3 (load requirements)
and the set of queuing formulas presented in section
4 each of the response time requirements listed in
section 2 shall be analysed (section 5.1).
Section 5.2 will concentrate on the throughput. Special
consideration is given to the effects of functional
queuing.
Sizing considerations are presented in section 5.3:
DISC STORAGE and PU - memory layout.
5.1 R̲E̲S̲P̲O̲N̲S̲E̲ ̲T̲I̲M̲E̲S̲
5.1.1 R̲e̲s̲p̲o̲n̲s̲e̲ ̲T̲i̲m̲e̲s̲ ̲w̲i̲t̲h̲o̲u̲t̲ ̲P̲r̲i̲o̲r̲i̲t̲y̲ ̲Q̲u̲e̲u̲i̲n̲g̲
Response times shall be calculated at each server separately
taking into account multiple visits to each server.
The basic set of formulas and system parameters are
given in section 4, whereas the resource needs and
corresponding loads to the system are presented in
section 3.
Response time calculations shall be based on the B̲U̲S̲Y̲
̲H̲O̲U̲R̲ traffic.
Table 5.1-1 summarises the calculation tools, and the
related assumptions, to be used in the response time
calculations. They apply to the level of application
processing for processes and coroutines, whichever
applies. Priority queuing is not considered in this
subsection.
The are 50% CPU CACHE HITS and no DISC CACHE HITS assumed.
There is no queuing due to I/O CHANNEL or TDX system.
Terminal queuing is n̲o̲t̲ included in response time requirements.
The varians of the TDX transfer times is assumed to
be ignorable due to the fixed bandwidth per channel.
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM QUEUE FACTOR RELATIVE
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲V̲A̲R̲I̲A̲N̲S̲ ̲=̲ ̲1̲/̲R̲
PU 1.19 0.33
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
DISC READ 1.10 0.06
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
DISC WRITE 2.24 0.06
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
TABLE 5.1-1: Basic Queuing Factors and low level
Relative Varians figures for response
time calculations.
Queue factors produce the full response
time for CPU and DISC service with
a service time equal to the resource
consumption of section 3 at the level
of an application process or coroutine.
The disc service time above correspond
to o̲n̲e̲ disc access per READ or WRITE
request.
P…0f…HIT…0e… = 0.5 for CPU CACHE
P…0f…HIT…0e… = 0 for DISC CACHE
NO PRIORITY queuing
R̲e̲s̲p̲o̲n̲s̲e̲ ̲T̲i̲m̲e̲ ̲T̲a̲b̲l̲e̲s̲
The response time requirements listed in section 2
are treated in a standardised set of tables.
There are generally two kinds of tables, functional
response time and application time calculation tables.
The functional response time tables are built as follows
(refer table 5.1.1-4-1):
Each function, which is one step in an applicational
string, has in principle its own table. The function
shall correspond to one of the functions in section
3, and a reference to the appropriate table is inserted.
The resource needs are listed: CPU service time, number
of disc reads and writes, and service time for TDX
and channel I/O's. The disc set 2 is an option which
is of n̲o̲ relevance for these calculations.
The CPU service time shall be the one listed in section
3, since queuing factors shall include the effects
of time slicing, CPU CACHE and Processor Bus queuing.
The first lower line displays the service time needs
per resource, disc accesses converted to time.
Queuing factors in the following line shall multiply
the service times, the result being written on the
line below together with a summation: T is the a̲v̲e̲r̲a̲g̲e̲
̲s̲e̲r̲v̲i̲c̲e̲ ̲t̲i̲m̲e̲ for the function.
The next line, below the "T" line, contains the varians
contributions for each resource, the sum of which is
the parameter 1/R for the resulting GAMMA function
approximation to the service time probability distribution.
1/R represents the resulting varians due to low level
(CPU instruction time and disc access time variations)
multiple visits to the PU plus the varians due to changes
in processing needs for the function (message size
and contents, etc.) as reflected in number of access
requests to PU and DISCs. The latter contribution is
usually by far overriding. Refer section 4.6 for details.
The last line displays the a̲v̲e̲r̲a̲g̲e̲ ̲r̲e̲s̲p̲o̲n̲s̲e̲ ̲t̲i̲m̲e̲ found
by applying the single server queuing factor corresponding
to the load of the function (fraction of time) and
the varians 1/R. The resulting varians (1/R)…0f…Q…0e… is also
indicated, and the number of times the function is
used in an applicational string.
The load of the function is calculated in a separate
service time table: Same format as the functional response
time table, but the "T" is replaced by the load (refer
table 5.1.1-2).
In cases where an application only has one (or few)
functions, the last line may also display the required
response time compared to the calculated response time
(the X per cent factor found on basis of the 1/R value).
Refer table 5.1.2-5.
For applications where the processing is a string of
functional requests (each of these with separate queuing)
the associated tables are carrying numbers which display
the group association.
The final table in such a group is always the application
response time calculation table (refer table 5.1.1-4-4).
This table lists the functional response time and varianses.
The resulting applicational a̲v̲e̲r̲a̲g̲e̲ ̲r̲e̲s̲p̲o̲n̲s̲e̲ ̲t̲i̲m̲e̲ (there
is no queuing at this level) and varians are found
by summation (in case of the varians with application
of proper weighting factors, refer section 4.6). They
are displayed on the first lower line together with
the X per cent factor (Refer section 4.6).
By applying the X per cent factor to the a̲v̲e̲r̲a̲g̲e̲ ̲r̲e̲s̲p̲o̲n̲s̲e̲
̲t̲i̲m̲e̲, the X per cent response time is found, which
on the last line is compared to the required response
time.
This table also provides space for comments.
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM CPU DISC SET1 DISC SET2 TDX CHANNEL
S R W R W
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T̲O̲T̲A̲L̲ ̲A̲C̲C̲O̲U̲N̲T̲/̲H̲O̲U̲R̲:
INC.MSG. ANALYSIS
incl. comments &
VDU pages
1 coroutine
Ref. Table 3.4-8 147 1306 523
3.4-9 32 462 44
3.4-10 3 17 17
3.4-11 30 165 165
TDX Transfers
for checkpoints
not included
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
TOTAL ACC. SEC/SEC. 0.060 0.020 0.006 BASIC LOAD
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS 1.19 1.10 2.24
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
LOAD = 0.10 0.07 0.02 0.01
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R = 1.0
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… = (1/R)…0f…Q…0e… N =
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
TABLE 5.1.1-2
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM CPU DISC SET1 DISC SET2 TDX CHANNEL
S R W R W
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T̲O̲T̲A̲L̲ ̲A̲C̲C̲O̲U̲N̲T̲/̲H̲O̲U̲R̲:
DISTRIBUTION
1 coroutine
Ref. Table 3.4-12 202 3200 320
3.4-13 49 770 77
3.4-14 4 45 15
3.3-14 50 700 70
3.3-15 7 90
3.3-16 5 60
3.3-17 9 120
3.3-18 12 165
TDX Transfers
for checkpoints
not included
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
TOTAL ACC. SEC/SEC. 0.094 0.052 0.005 BASIC LOAD
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS 1.19 1.10 2.24
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
LOAD = 0.18 0.11 0.06 0.01
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R = 0
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… = (1/R)…0f…Q…0e… N =
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
TABLE 5.1.1-3
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM CPU DISC SET1 DISC SET2 TDX CHANNEL
ms R W R W
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
I̲N̲C̲ ̲M̲S̲G̲ ̲I̲N̲P̲U̲T̲:
Counting from arrival
of last data block in
PU (Queuing for corou-
tine thus not included)
Ref. Table 3.4-5: 160 2
20ms direct CPU, TDX
& CHANNEL transfers,
MSG.CREATE…0e…*…0f…, and
3 MSG.FCTS.WRITE n̲o̲t̲
included.
…0e…*…0f… incl. off-loading
The CCIS MSG.INPUT
selected here represents
the general case (except
for encrypted msgs.)
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms 160 74
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS 1.19 2.24
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 361 190 166
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R = 0.1
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… = 361 ms (1/R)…0f…Q…0e… = 0.1 N = 1
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
TABLE 5.1.1-4-1
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM CPU DISC SET1 DISC SET2 TDX CHANNEL
ms R W R W
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
M̲S̲G̲.̲ ̲A̲N̲A̲L̲Y̲S̲I̲S̲:
Assume worst case of
complete analysis after
reception of last data
block.
Ref. table 3.4-8 282 2.5 1
TDX transfer not
included.
Multiply with weigthing
factor corresponding to
fraction of msg =
475/515
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms 260 84 34
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… (1/R)…0f…Q…0e… = N
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
TABLE 5.1.1-4-2-1
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM CPU DISC SET1 DISC SET2 TDX CHANNEL
ms R W R W
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
M̲S̲G̲.̲ ̲A̲N̲A̲L̲Y̲S̲I̲S̲:
Assume worst case of
complete analysis after
reception of last data
block.
Ref. table 3.4-9 792 10.5 1
TDX transfer not
included.
Multiply with weigthing
factor corresponding to
fraction of msg =
40/515
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms 62 30 2
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… (1/R)…0f…Q…0e… = N
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
TABLE 5.1.1-4-2-2
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM CPU DISC SET1 DISC SET2 TDX CHANNEL
ms R W R W
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
M̲S̲G̲.̲ ̲A̲N̲A̲L̲Y̲S̲I̲S̲:
Refer table 5.1.1-4-2-1: 260 84 34
5.1.1-4-2-2: 62 30 2
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms 322 114 36 BASIC LOAD
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS 1.19 1.10 2.24
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 589 383 125 81
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R = 1.0
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… …0e…*)…0f… = 654 (1/R)…0f…Q…0e… = 1.2 N = 1
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
…0e…*)…0f… Refer table 5.1.1-2
for single server load
TABLE 5.1.1-4-2-3
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM CPU DISC SET1 DISC SET2 TDX CHANNEL
ms R W R W ms ms
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
M̲S̲G̲.̲ ̲D̲I̲S̲T̲R̲I̲B̲U̲T̲I̲O̲N̲:
Refer table 3.4-13: 630 10 1
TDX transfers not
included
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms 630 370 32 BASIC LOAD
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS 1.19 1.10 2.24
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 1249 749 407 83
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R = 0.1
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… …0e…*)…0f… = 1389 (1/R)…0f…Q…0e… = 0.1 N = 1
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
…0e…*)…0f… Refer table 5.1.1-3
for single server load
TABLE 5.1.1-4-3
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM T…0f…Q…0e… (1/R)…0f…Q…0e… N
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
I̲N̲C̲.̲ ̲M̲S̲G̲.̲ ̲D̲E̲L̲I̲V̲E̲R̲Y̲:
Refer table 5.1.1-4-1 356 0.1
5.1.1-4-2-3 654 1.2
5.1.1-4-3 1389 0.1
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… = 2399; 1/R = 0.14; 99% FACTOR = 2.0
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…REQ…0e… = 5.0 sec (99%) vs 4.8 sec.
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
C̲O̲M̲M̲E̲N̲T̲S̲:
The requirement is obviously fulfilled. Improvements may be obtained by processing
msg. analysis and distribution as 1st priority processes. Refer section 5.1.2.
TABLE 5.1.1-4-4
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM T…0f…Q…0e… (1/R)…0f…Q…0e… N
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
I̲N̲C̲.̲ ̲M̲S̲G̲.̲ ̲D̲E̲L̲I̲V̲E̲R̲Y̲:
Refer table 5.1.1-4-4
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… = 2399; 1/R = 0.14; 99.7% FACTOR = 3.0
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…REQ…0e… = 10.0 sec (99.7%) vs 7.3 sec.
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
C̲O̲M̲M̲E̲N̲T̲S̲:
According to section 4.6.3 the maximum response time (without preemption)
is fulfilled. Since the time for preemption of print is in the order of CMD
LINE ENTRY (Table 5.1.2-5) the maximum (99.7%) requirement of 15 sec. in case
of preemption is safely fulfilled.
TABLE 5.1.1-4-5
5.1.2 R̲e̲s̲p̲o̲n̲s̲e̲ ̲T̲i̲m̲e̲s̲ ̲w̲i̲t̲h̲ ̲T̲w̲o̲ ̲L̲e̲v̲e̲l̲ ̲P̲r̲i̲o̲r̲i̲t̲y̲ ̲Q̲u̲e̲u̲i̲n̲g̲
This subsection presents the calculation of all response
times, maximum (100%) response times being equivalent
to 99.7% response times (refer section 4.6.3), for
which a requirement has been stated.
The assumptions are the same as in subsection 5.1.1
except that 1st priority queuing has been assumed for
Msg. Analysis and Distribution in order to achieve
a better value for msg. delivery time; correspondingly
all other response times are slightly increased, and
these calculations may then be taken as worst case
values.
P̲R̲I̲O̲R̲I̲T̲Y̲ ̲1̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲P̲R̲I̲O̲R̲I̲T̲Y̲ ̲2̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲
I̲T̲E̲M̲ ̲ ̲ ̲ ̲ ̲ ̲Q̲U̲E̲U̲E̲ ̲F̲A̲C̲T̲O̲R̲ ̲ ̲ ̲ ̲1̲/̲R̲ ̲ ̲ ̲ ̲ ̲Q̲U̲E̲U̲E̲ ̲F̲A̲C̲T̲O̲R̲ ̲ ̲ ̲ ̲1̲/̲R̲
̲
PU 1.02 0.33 1.25 0.33
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲
DISC READ 1.07 0.06 1.11 0.06
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲
DISC WRITE 2.15 0.06 2.25 0.06
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
̲ ̲ ̲ ̲
TABLE 5.1.2-1 Basic Queuing Factor and Low Level
Relative Varians Figures for Response
Time Calculations
Queue factors produce the full response time for CPU
and DISC service with a service time equal to the resource
consumption of section 3 below the level of application
processes or coroutines. The disc service time above
correspond to o̲n̲e̲ disc access per READ or WRITE request.
P…0f…HIT…0e… = 0.5 for CPU CACHE
P…0f…HIT…0e… = 0 for DISC CACHE
1st and 2nd PRIORITY QUEUING: 1st PRIORITY processing
for MSG ANALYSIS & DISTRIBUTION with LOADS as in tables
5.1.1-2 and 5.1.1-3 (BASIC LOADS).
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM CPU DISC SET1 DISC SET2 TDX CHANNEL
ms R W R W ms ms
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
I̲N̲C̲.̲ ̲M̲S̲G̲.̲ ̲I̲N̲P̲U̲T̲:
As table 5.1.1-4-1:
but queue factors
changed to 2nd PRIORITY.
These figures apply for
the worst case message
size as well.
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms 160 74
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS 1.25 2.25
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 367 200 167
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R = 0.1
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… = 340 (1/R)…0f…Q…0e… = 0.1 N = 1
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
TABLE 5.1.2-2-1
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM CPU DISC SET1 DISC SET2 TDX CHANNEL
ms R W R W ms ms
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
M̲S̲G̲.̲ ̲A̲N̲A̲L̲Y̲S̲I̲S̲:
As table 5.1.1-4-2-3:
but queue factors
changed to 1st PRIORITY.
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms 322 114 36
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS 1.02 1.07 2.15
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 627 328 222 77
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R = 1.0
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… …0e…*)…0f… = 690 (1/R)…0f…Q…0e… = 1.2 N = 1
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
…0e…*)…0f… Ref. table 5.1.1-2
for SINGLE SERVER LOAD:
LOAD changed according to
first priority queue factor
TABLE 5.1.2-2-2
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM CPU DISC SET1 DISC SET2 TDX CHANNEL
ms R W R W ms ms
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
M̲S̲G̲.̲ ̲D̲I̲S̲T̲R̲I̲B̲U̲T̲I̲O̲N̲:
As table 5.1.1-4-3:
but queue factors
changed to 1st PRIORITY.
These figures apply
for the w̲o̲r̲s̲t̲ ̲c̲a̲s̲e̲
distribution.
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms 630 370 37
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS 1.02 1.07 2.15
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 1117 642 396 79
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R = 0.1
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… …0e…*)…0f… = 1227 (1/R)…0f…Q…0e… = 0.1 N = 1
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
…0e…*)…0f… Ref. table 5.1.1-3
for SINGLE SERVER LOAD:
LOAD changed according to
first priority queue factor
TABLE 5.1.2-2-3
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM T…0f…Q…0e… (1/R)…0f…Q…0e… N
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
I̲N̲C̲.̲ ̲M̲S̲G̲.̲ ̲D̲E̲L̲I̲V̲E̲R̲Y̲:
Refer table 5.1.2-2-1 367 0.1 1
5.1.2-2-2 690 1.0 1
5.1.2-2-3 1227 0.1 1
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… = 2284; 1/R = 0.11; 99% FACTOR = 2.0
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…REQ…0e… = 5.0 sec (99%) vs 4.6 sec.
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
C̲O̲M̲M̲E̲N̲T̲S̲:
Considering that Msg Distribution is accounted for maximum needs (3SIC's with
3 SDL's) we may state that the requirement is safely fulfilled. Also the inclusion
of relayed msg. with local distribution may be argued. Furthermore, table
accesses are accounted for one access per key, which may be relaxed.
TABLE 5.1.2-2-4a
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM T…0f…Q…0e… (1/R)…0f…Q…0e… N
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
I̲N̲C̲.̲ ̲M̲S̲G̲.̲ ̲D̲E̲L̲I̲V̲E̲R̲Y̲:
Refer table 5.1.2-2-4b
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… = 2284; 1/R = 0.13; 99.7% FACTOR = 3.0
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…REQ…0e… = 10.0 sec (99.7%) vs 6.9 sec.
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
C̲O̲M̲M̲E̲N̲T̲S̲:
According to section 4.6.3 the maximum response time (without preemption)
is fulfilled. Since time for preemption of print is in the order of CMD LINE
ENTRY (table 5.1.2-5) the maximum (99.7%) requirement of 15 sec. in case of
preemption is safely fulfilled.
TABLE 5.1.2-2-4b
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM CPU DISC SET1 DISC SET2 TDX CHANNEL
ms R W R W ms ms
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
2nd PRIORITY
C̲M̲D̲ ̲L̲I̲N̲E̲ ̲E̲N̲T̲R̲Y̲:
INVALID ENTRY RESPONSE
Entry Key reception 20 92
(8 characters)
Trans. of ARM sequence 20 211
(20 characters)
Reception of CMD 20 508
(50 characters)
Validation 25
Transfer of answer 20 23
(1st character)
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms 705 834
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS 1.25 1.0
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 938 131 834
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R …0e…*)…0f… = 0.0005 0.0005 0.0
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…REQ…0e… = 1.0 sec (90%) vs. 0.99 sec.
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
…0e…*)…0f… 90% FACTOR = 1.03
Low Level Varians only
TABLE 5.1.2-5
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM CPU DISC SET1 DISC SET2 TDX CHANNEL
ms R W R W ms ms
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
2nd PRIORITY
M̲S̲G̲.̲ ̲P̲R̲E̲P̲A̲R̲A̲T̲I̲O̲N̲:
Entry Key reception,
ARM sequence transfer,
Reception of CMD:
Refer table 5.1.2-5 63 811
Refer table 3.3-1 1810 18.2 10
No queuing for func-
tion, since one
coroutine per terminal
Transfer of "OK" 20 211
(20 characters)
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms 1893 670 37 1022
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS 1.25 1.11 2.25 1.0
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 4213 2366 743 83 1022
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R …0e…*)…0f… = 0.06 1.0 0.0
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…REQ…0e… = 10.0 sec (90%) vs. 8.8 sec.
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
…0e…*)…0f… 90% FACTOR = 2.1
TABLE 5.1.2-6
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM CPU DISC SET1 DISC SET2 TDX CHANNEL
ms R W R W ms ms
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
2nd PRIORITY
S̲U̲P̲E̲R̲V̲I̲S̲O̲R̲Y̲ ̲C̲M̲D̲
E̲X̲E̲C̲U̲T̲I̲O̲N̲:
Entry Key reception,
ARM sequence transfer,
Reception of CMD:
Refer table 5.1.2-5 63 811
2 disc table reads
plus 1 disc table write
= CPU time for 3 disc
table reads (table 3.2-1)
plus 2 reads and 1 write
(table 3.2-2) 175 2 1
Transfer of "OK" 20 211
(20 characters)
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms 258 74 37 1022
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS 1.25 1.11 2.25 1.0
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 1510 323 82 83 1022
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R …0e…*)…0f… = 0.13 1.0 0.0
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…REQ…0e… = 5 sec (99%) vs. 3.2 sec.
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
…0e…*)…0f… No queuing for function
99% factor = 2.1
TABLE 5.1.2-7a
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM CPU DISC SET1 DISC SET2 TDX CHANNEL
ms R W R W ms ms
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
2nd PRIORITY
S̲U̲P̲E̲R̲V̲I̲S̲O̲R̲Y̲ ̲C̲M̲D̲
E̲X̲E̲C̲U̲T̲I̲O̲N̲:
Refer table 5.1.2-7a
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 1510
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R …0e…*)…0f… = 0.13
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…REQ…0e… = 10 sec (99.7%) vs. 4.5 sec.
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
…0e…*)…0f… No queuing for function
99.7% factor = 3.0 corresponds
to max. response time
(refer section 4.6.3)
TABLE 5.1.2-7b
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM CPU DISC SET1 DISC SET2 TDX CHANNEL
ms R W R W ms ms
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
2nd PRIORITY
R̲E̲T̲R̲I̲E̲V̲A̲L̲ ̲R̲E̲Q̲U̲E̲S̲T̲:
CMD line entry and vali-
dation response:
Refer table 5.1.2-5 83 834
On- or off-line valida-
tion and response from
SAR 20
Transfer of response 20 211
(20 characters)
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms 123 1045
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS 1.25 1045
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 1199 154 1045
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R …0e…*)…0f… = 0.0004 0.0004 0.0
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…REQ…0e… = 5.0 sec (90%) vs. 1.2 sec.
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
…0e…*)…0f… 90% FACTOR = 1.03
Low Level Varians only
TABLE 5.1.2-8
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM CPU DISC SET1 DISC SET2 TDX CHANNEL
ms R W R W ms ms
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T̲O̲T̲A̲L̲ ̲A̲C̲C̲O̲U̲N̲T̲/̲H̲O̲U̲R̲:
2nd PRIORITY
SAR COROUTINE FOR
RETRIEVAL
Refer table 3.5-10, but 58 1080
excluding 4 MSG. FCTS.
READ's and the FILE FCTS.
(presentation belongs to
TEP)
Refer table 3.5-11, 178 2480 40
excluding 3 MSG.FCTS,
READ's and the FILE
FCTS (presentation
belongs to TEP)
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
(TOTAL ACC.SEC/SEC)10…0e…3…0f… 65 30 0.3
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS 1.25 1.11 2.25
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
LOAD = 0.12 0.081 0.040 0.0009
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… (1/R)…0f…Q…0e… = N =
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
TABLE 5.1.2-9
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM CPU DISC SET1 DISC SET2 TDX CHANNEL
ms R W R W ms ms
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
2̲N̲D̲ ̲P̲R̲I̲O̲R̲I̲T̲Y̲:
S̲A̲R̲ ̲D̲T̲G̲ ̲R̲E̲T̲R̲I̲E̲V̲A̲L̲
Refer table 2.5..7-A
and the following
text 1689 27
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms 1689 994
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS 1.25 1.11
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 3214 2111 1103
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R = 1.0
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… …0e…*)…0f… = 3610 (1/R)…0f…Q…0e… = 1.0 N = 1
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
…0e…*)…0f… Refer table 5.1.2-9
for SINGLE SERVER LOAD
TABLE 5.1.2-10-1
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM CPU DISC SET1 DISC SET2 TDX CHANNEL
ms R W R W ms ms
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
2̲N̲D̲ ̲P̲R̲I̲O̲R̲I̲T̲Y̲:
R̲E̲Q̲U̲E̲S̲T̲ ̲R̲E̲T̲R̲I̲E̲V̲A̲L̲ ̲O̲F̲
S̲I̲N̲G̲L̲E̲ ̲I̲T̲E̲M̲ ̲+̲ ̲R̲E̲C̲E̲P̲T̲I̲O̲N̲:
Refer table 5.1.2-8 123 1045
1 disc access and 70 1
presentation of first
character
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms 193 37 1045
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS 1.25 1.11 100
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 282 241 41
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R = 0.02 …0e…*)…0f… = 0.02 0.00
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… = 282 (1/R)…0f…Q…0e… = 0.02 N = 1
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
…0e…*)…0f… Low Level Varians only
TABLE 5.1.2-10-2
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM T…0f…Q…0e… (1/R)…0f…Q…0e… N
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
2̲N̲D̲ ̲P̲R̲I̲O̲R̲I̲T̲Y̲:
R̲E̲Q̲U̲E̲S̲T̲ ̲S̲I̲N̲G̲L̲E̲ ̲I̲T̲E̲M̲
D̲T̲G̲ ̲R̲E̲T̲R̲I̲E̲V̲A̲L̲ ̲+̲
R̲E̲C̲E̲P̲T̲I̲O̲N̲:
Refer table 5.1.2-10-1 3610 1.0 1
5.1.2-10-2 282 0.02 1
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… = 3892; 1/R = 0.9; 90% FACTOR = 2.35
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…REQ…0e… = 10.0 sec (90%) vs 9.1 sec.
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
C̲O̲M̲M̲E̲N̲T̲S̲:
The requirement for OFF-LINE RETRIEVAL is as above plus 4 min. excluding time
for volume mounting. Refer table 5.1.2-10-4.
TABLE 5.1.2-10-3
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM CPU DISC SET1 DISC SET2 TDX CHANNEL
ms R W R W ms ms
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
2̲N̲D̲ ̲P̲R̲I̲O̲R̲I̲T̲Y̲:
A̲D̲D̲I̲T̲I̲O̲N̲A̲L̲ ̲L̲O̲A̲D̲
F̲O̲R̲ ̲D̲T̲G̲ ̲O̲F̲F̲-̲L̲I̲N̲E̲
R̲E̲T̲R̲I̲E̲V̲A̲L̲:
Refer table 2.5.7A 947 17
and following
discussion
No queuing for off-
line disc.
ACCESS TIME = 40ms
Off-line retrieval is
a separate SAR coroutine
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms 947 680
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS 1.25 1.0
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 1995 1183 812
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R =
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… = 1995
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
TABLE 5.1.2-10-4
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM CPU DISC SET1 DISC SET2 TDX CHANNEL
ms R W R W ms ms
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
2̲N̲D̲ ̲P̲R̲I̲O̲R̲I̲T̲Y̲:
S̲A̲R̲ ̲C̲A̲T̲A̲L̲O̲G̲ ̲R̲E̲T̲R̲I̲E̲V̲A̲L̲,
1̲ ̲H̲O̲U̲R̲ ̲T̲O̲C̲ ̲W̲I̲N̲D̲O̲W̲: 4418 61 1
Refer table 3.5.11
Exclude 3 MSG.FCTS
READ's and FILE FCTS
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms 4418 2245 37
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS 1.25 1.11 2.25
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 8096 5522 2491 83
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R = 1.0
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… …0e…*)…0f… = 9095 (1/R)…0f…Q…0e… = 1.0 N = 1
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
…0e…*)…0f… Refer table 5.12-9
for SINGLE SERVER LOAD
TABLE 5.1.2-11-1
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM T…0f…Q…0e… (1/R)…0f…Q…0e… N
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
2̲N̲D̲ ̲P̲R̲I̲O̲R̲I̲T̲Y̲:
R̲E̲Q̲U̲E̲S̲T̲ ̲C̲A̲T̲A̲L̲O̲G̲
R̲E̲T̲R̲I̲E̲V̲A̲L̲ ̲+̲ ̲R̲E̲C̲E̲P̲T̲I̲O̲N̲:
Refer table 5.1.2-10-2 282 0.02 1
5.1.2-11-1 9095 1.0 1
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… = 9377; 1/R = 0.95; 90% FACTOR = 2.35
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…REQ…0e… = 90 sec (90%) vs 22 sec.
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
C̲O̲M̲M̲E̲N̲T̲S̲:
The requirement for OFF-LINE RETRIEVAL is as above plus 4 min. excluding time
for volume mounting. Refer table 5.1.2-11-3.
TABLE 5.1.2-11-2
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ITEM CPU DISC SET1 DISC SET2 TDX CHANNEL
ms R W R W ms ms
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
2̲N̲D̲ ̲P̲R̲I̲O̲R̲I̲T̲Y̲:
A̲D̲D̲I̲T̲I̲O̲N̲A̲L̲ ̲L̲O̲A̲D̲ ̲f̲o̲r̲
T̲O̲C̲ ̲o̲r̲ ̲T̲O̲C̲ ̲W̲I̲N̲D̲O̲W̲ ̲O̲F̲F̲-̲
L̲I̲N̲E̲ ̲R̲E̲T̲R̲I̲E̲V̲A̲L̲:
Refer table 3.5.7A 305 5
and following
discussion
No queuing for off-line
disc. ACCESS TIME =
40 ms
Off-line retrieval is
a separate SAR
coroutine
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms 305 230
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS 1.25 1.00
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 611 381 230
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R =
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… = 611
̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
TABLE 5.1.2-11-3
5.2 T̲H̲R̲O̲U̲G̲H̲P̲U̲T̲
Section 1.2.2 contains a discussion of the general
throughput limitations in case of traffic expansions:
The 30 per cent expansion which must be accepted without
changing the S/W structure and possibilities beyond
this limit.
In this section the throughput in case of the busy
hour and especially the minute traffic, i.e. the maximum
transaction rate, shall be investigated: It is known
that the system accepts the traffic load in total disregarding
queuing effects, and it has been proven in section
5.1 that the response time requirements are met; however,
not all processing of the system has a specific requirement,
especially not for busy minute traffic, and it is furthermore
not sure that the response time criteria are compatible
with the demands for throughput.
For these calculations non-priority processing (worst
case) has been assumed. For each major S/W module of
the system the service time consumption (including
queuing for service positions = low level queuing,
refer section 4.6.1) per sec. has been calculated in
busy hour and busy minute. The consumption per process
or coroutine is then calculated and the queuing factor
is found as depending on the load (= time consumption
per sec.) and the varians (R-value, refer section 4.6
for details on queuing at the level of applications).
The final result is the effective load (queuing time
load) per process or coroutine in the system environment
during busy hour and busy minute traffic loads. Refer
table 5.2-1.
The service time load per process or coroutine expresses
the throughput ability of the module in the system
environment: with a load less than one excess capability
is present.
The ratio between the service time load and the queue
time load expresses tha multiplication factor to be
applied to the service time in order to derive the
response ( = queue) time of the module.
It is seen that the service time load (including TDX
transfer and transfer to printer) for the printer is
9.26/12 = 0.77 for busy min. It has been assumed that
the number of transactions is the same as for busy
hour (where the load is 0.76, the difference being
due to the higher load of the processing environment).
As discussed in section 3.6.2 a 20 per cent increase
of this load is still possible without exceeding the
limit of 70 per cent load of the printers themselves,
and with this increase the service time load for the
print process (actually the transfer delay due to the
character print rate is by far the larger contribution)
will approach 100 per cent (77 x 1.2 = 92 per cent);
it is seen that with the specified character print
rate (or any higher rate) the 70 per cent load limit
of the requirements will never be exceeded.
It is observed that the msg. analysis and especially
the MDP modules are quite heavily loaded: Further traffic
increase will be stopped by these modules, i.e. queuing
of traffic for display or printout without the capacity
for processing due to the terminal speed is prevented.
The message input modules still have quite some capacity
to execute extreme burst of traffic, i.e. to store
the incoming traffic. As seen from section 3.6.3 and
3.6.4, by comparing busy minute figures with the channel
capacities, even full speed transfers corresponding
to the channel capacities may be accepted for all channels.
Input modules should however be given a high priority
in order to avoid any possible loss of information.
As already mentioned, TDX transfer delays are included
in table 5.2-1 whereas I/O channel transfer delays
are negligable.
BUSY HOUR BUSY MIN BUSY
HOUR/BUSY MIN
SERVICE TIME SERVICE TIME QUEUE
TIME PER PROCESS
PROCESSES OR OR COROUTINE,
SEC/SEC
I̲T̲E̲M̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲S̲E̲C̲/̲S̲E̲C̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲S̲E̲C̲/̲S̲E̲C̲ ̲ ̲ ̲ ̲ ̲ ̲C̲O̲R̲O̲U̲T̲I̲N̲E̲S̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲R̲ ̲
̲ ̲ ̲ ̲Q̲U̲E̲U̲E̲ ̲T̲I̲M̲E̲ ̲ ̲ ̲ ̲ ̲
VDU: PREP, EDIT, 1) 0.62/17.73 2.16/19.43 28 2 0.63/0.69
REL., RECEPTION
(INCL. RETR. REC.)
PRINTER: RECEPTION 1) 0.58/9.13 0.73/9.26 12 1 3.17/3.35
ROUTING DET. 0.04 0.21 1 1 0.04/0.27
Tx TO TARE 0.01 0.04 1 1 0.01/0.04
Tx TO P-T-P 0.02 0.13 1 0.02/0.15
Tx TO CCIS & SCARS 0.01 0.08 2 1 0.01/0.04
OCR INPUT 0.007 0.01 1 1 0.007/0.01
PTR INPUT 0.005 0.03 1 1 0.005/0.03
INPUT TARE 0.13 0.70 5 1 0.02/0.14
INPUT P-T-P 0.02 0.09 MIN 1 1 0.02/0.10
INPUT CCIS & SCARS 0.09 0.36 2 1 0.05/0.22
OCR INP. VALIDAT. 0.01 0.05 1 1 0.01/0.05
MSG. ANALYSIS 0.11 0.68 1 1 0.12/2.13
MDP 0.17 0.91 1 0.1 0.19/5.97
MDCO 0.04 0.08 1 1 0.04/0.09
MSG SERVICE 0.03 0.06 1 1 0.03/0.06
SAR 0.09 0.18 1 0.1 0.09/0.20
LOG 0.17 0.41 1 0.1 0.19/0.57
STATUS COLL. 0.17 0.29 1 0.1 0.19/0.36
STATISTIC COLL. 0.02 0.03 1 0.1 0.02/0.03
1) without/with TDX transfer to device
2) no queuing
TABLE 5.2-1 QUEUING TIME LOADS FOR BUSY HOUR AND BUSY MIN.