DataMuseum.dk

Presents historical artifacts from the history of:

CR80 Wang WCS documentation floppies

This is an automatic "excavation" of a thematic subset of
artifacts from Datamuseum.dk's BitArchive.

See our Wiki for more about CR80 Wang WCS documentation floppies

Excavated with: AutoArchaeologist - Free & Open Source Software.


top - download

⟦ccd1d16d7⟧ Wang Wps File

    Length: 116043 (0x1c54b)
    Types: Wang Wps File
    Notes: CPS/REP/001               
    Names: »0828A «

Derivation

└─⟦0cd3644ba⟧ Bits:30006012 8" Wang WCS floppy, CR 0051A
    └─ ⟦this⟧ »0828A « 

WangText

…00……00……00……00……00…D…0a……00……00…D…0b…D…00…D C…08…C…0f…C
C…07…B…0a…B…0d…B…01…B B…07…A…0a…A…0d…A…00…A
A @…0c…@…05…?…0c…? >…0d…>…05…=…0d…=
<…0b…<…02…;…09…;…00…;…01…;…06…:…0d…:…05…9…08…9…0e…9…02…9 8…0c…8…00…8…06……86…1                                             …02…           …02…   …02…     
               

…02…CPS/REP/001

…02…FAH/820107…02……02…#
CAMPS PERFORMANCE REPORT
…02……02…CAMPS








3.6      R̲E̲S̲U̲L̲T̲I̲N̲G̲ ̲L̲O̲A̲D̲I̲N̲G̲ ̲R̲E̲Q̲U̲I̲R̲E̲M̲E̲N̲T̲S̲

         Loading requirements may be finally broken dawn into
         CPU time, TDX system access, I/O Channel access, and
         DISC access requirements. The requirements may be further
         divided amongst different processes, coroutines, and
         procedures. The loading requirements are presented
         in section 3.6.1 as based on the Data Collection Sheets
         of the sections 3.3 - 3.5.

         The TDX system access requirements may also be expressed
         in terms of the character transfer. Section 3.6.2 presents
         the total load on the following types of terminals:
         VDU's and printers for user and supervisory functions.

         Section 3.6.2 also presents the I/O Channel character
         transfer load.

         Sections 3.6.1 and 3.6.2 will include busy hour as
         well as busy minute figure, whereas section 3.6.3 and
         3.6.4 will concentrate on the busy second requirements.



3.6.1    L̲o̲a̲d̲i̲n̲g̲ ̲R̲e̲s̲u̲l̲t̲i̲n̲g̲ ̲f̲r̲o̲m̲ ̲D̲a̲t̲a̲ ̲C̲o̲l̲l̲e̲c̲t̲i̲o̲n̲,̲ ̲C̲P̲U̲'̲s̲ ̲a̲n̲d̲ ̲D̲I̲S̲C̲s̲

         This subsection presents the total load requirements
         for CPU's and DISC's. Queuing considerations resulting
         from these figures are found in the sections 4 and
         5.



         ITEM                           BUSY HOUR/3600
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

         DIRECT CPU                     0.08
         QMON *)                        0.006
         MMON *)                        0.13
         MMS **)                        0.19
         XFER *)                        0.25
         CPT *)                         0.02
         FMS **)                        0.02
         FMST **)                       0.03
         TMP *)                         0.10
         TMS *)                         0.20
         LTU HANDLER *)                 0.003
         TDX HANDLER *)                 0.08
         DCM (DISC CACHE MANAG.)**)     0.08
         DISC HANDLER                   0.15
         OTHERS                         0.15
          ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

         CPU TOTAL                      1.48
          ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲


         CPU TOTAL BUSY MIN/60 = 2.20
          ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲


      TABLE 3.6.1-1…01…CPU Time Consumption in seconds
         per seconds of time available…01…in one CPU

   *), **): Non-concurrent…01…**) Same process, coroutines



          ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
         ̲ ̲ ̲ ̲ ̲ ̲

         NUMBER OF ACCESS     BUSY MIN.     BUSY HOUR
          ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
         ̲ ̲ ̲ ̲ ̲ ̲


         DISC READ            22.8          15.7


         DISC WRITE           8.85          4.76

          ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
         ̲ ̲ ̲ ̲ ̲ ̲


            Number of disc accesses per second


          ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
         ̲ ̲ ̲ ̲ ̲ ̲

                              BUSY MIN      BUSY HOUR
                               ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

         DISC LOAD            74.6%         46.4%

          ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
         ̲ ̲ ̲ ̲ ̲ ̲


TABLE 3.6.1-2…01…Disc load assuming: NO CACHE HITS and CAPABILITY =…01…27.2 ACCESS/SEC*), where READ's are equally…01…distributed
 on mirrorred discs.


                  *) refer section 4.5.2


3.6.2    T̲e̲r̲m̲i̲n̲a̲l̲ ̲L̲o̲a̲d̲i̲n̲g̲ ̲R̲e̲q̲u̲i̲r̲e̲m̲e̲n̲t̲s̲

         This subsection presents the TDX-system load and the
         I/O channel load due to terminals: Refer the tables
         3.6.2.

         Since the TDX-system and I/O channel systems are conditioned
         to accept the full load corresponding to the total
         terminal capacity (refer sections 4.3 and 4.4) we shall
         in section 3.6 be concerned with the load per terminal
         relative to the required capacity. This comparison
         is done in subsections 3.6.3 and 3.6.4. It is seen
         that even in busy minute the maximum terminal load
         of 70 per cent of capacity specified for busy hour
         is not exceeded; consequently the figures implied by
         the traffic flow will be used (since not violating
         the required capacity).

         VDU and PRINTER output is treated en block in section
         3.6.3, reflecting the fact that printer output of messages
         may in some cases be guided to a VDU, or vica versa,
         in case of overload. Here we shall consider the load
         of the printers and VDU's separately: It is seen that
         the load of each user printer is about 70 ch/sec and
         thus below the specified limit for busy hour of 70
         per cent of capacity which is 84 ch/sec. The load of
         the VDU's and other Printers (they have the same capacity)
         is also below the limit for busy hour.

         Similarly, the OCR and PTR's are not overloaded.

         The load of the OCR, which has a capacity of 240 ch./sec.,
         is well below the limit of 0.7 x 240 = 168 ch./sec.
         in busy hour.

         It is a basic assumption that the loads are equally
         distributed on the terminals.



                           BUSY MIN               BUSY
                                                  HOUR
                            ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
                           ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

         ITEM              TRSFER/SEC   BYTE/SEC  TRSFER/SEC  BYTE/SEC
  ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲


 CHECKPOINTS, TDX          5.79         92.7      4.54        72.7

 USER VDU's (28)           3.07         72.8      3.05        65.2

 MSO + MDCO VDU's          0.24         37.1      0.24        37.1

 OCR (1)                   0.03         12.8      0.01        6.4

 PTR                       0.08          4.3      0.04        2.1

 PTR, DEDICATED (1)        0.04         20.5      0.01        6.8

 EXT CHAN., TRC            0.26         132       0.10        52.2
                   (24)
 EXIT CHAN., P-T-P         0.15         78.5      0.05        26.3


  ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

 TOTAL                     9.66         451       8.04        269

  ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲



              TABLE 3.6.2-1…01…TDX READ


                           BUSY MIN               BUSY
                                                  HOUR
                            ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
                           ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

         ITEM              TRSFER/SEC   BYTE/SEC  TRSFER/SEC  BYTE/SEC
  ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

 CHECK POINTS, TDX         5.79         1668      4.54        1254

 USER VDU's (28)           4.75         1627      4.72        1619

 MSO + MDCO VDU's          0.26         101       0.26        101

 USER PRINTERS (12)        1.65         844       1.65        844

 LOG PRINTER (1)           0.16         80        0.16        80

 STATISTIC PRINTER (1)     0.16         80        0.16        80

 REPORT PRINTER (1)        0.01         4.2       0.01        4.2

 P-T-P,DEDICATED (1)       0.04         20.5      0.01        6.8

 EXT.CHAN., TRC            0.08         40.2      0.03        16.2
                 (24)
 EXT.CHAN.,P-T-P           0.44         223       0.15        76.7


  ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

 TOTAL                     13.3         4688      11.7        4082

  ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲



             TABLE 3.6.2-2…01…TDX WRITE


                           BUSY MIN               BUSY
                                                  HOUR
                            ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
                           ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

         ITEM              TRSFER/SEC   BYTE/SEC  TRSFER/SEC  BYTE/SEC
  ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

 NICS TARE                 0.73         371       0.24        124

 CCIS                      0.16         80.8      0.05        27.5

 SCARS                     0.14         71.0      0.05        24.5

 CCIS + SCARS
 (VDU PAGES)               0.38         192       0.13        64.0


 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

 TOTAL                     1.41         716       0.47        240

  ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲



 …01…TABLE 3.6.2-3…01…I/O CHANNEL READ


                           BUSY MIN               BUSY
                                                  HOUR
                            ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
                           ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

         ITEM              TRSFER/SEC   BYTE/SEC  TRSFER/SEC  BYTE/SEC
  ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲


 NICS TARE                 0.24         122       0.10        48.5

 CCIS                      0.18         94        0.06        32.6

 SCARS                     0.10         51.3      0.03        17.6

 CCIS + SCARS
 (VDU PAGES) *)            0.13         64.0      0.04        21.3

  ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

 TOTAL                     0.65         331       0.23        120

  ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲


 *)ACKNOWLEDGEMENTS AT RECEPTION


         TABLE 3.6.2-4…01…I/O CHANNEL WRITE


3.6.3    A̲d̲d̲i̲t̲i̲o̲n̲a̲l̲ ̲T̲D̲X̲ ̲L̲o̲a̲d̲i̲n̲g̲ ̲R̲e̲q̲u̲i̲r̲e̲m̲e̲n̲t̲s̲

         The busy second load requirements have been introduced
         which, together with the busy minute load, shall be
         compared to the transfer capacity dictated by the requirements
         specification. Refer the tables 3.6.3.

         The busy second rates are all below the capacity.

         It is seen that the requirements for busy second transfer
         rate is exceeded by the busy minute transfer rate in
         case of external channels. The excess is not serious,
         however: in the calculations of this report it is shown
         that the processing capacity is available for handling
         this traffic; the possible queuing is acceptable to
         the system (also with a 30% traffic expansion).





                           BUSY MIN        BUSY SEC.          CAPACITY
      ITEM
                           BYTE/SEC        BYTE/SEC           BYTE/SEC
                                                              
                                                              
  ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲


 VDU's (32) +
 OCR(1) + PTR(1)           148             225*)              4080

 EXT CHAN (24)             211             160                240






  ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲



 *) 1615-ALL EXT. CHAN.




              TABLE 3.6.3-1…01…TDX READ



                             BUSY MIN      BUSY SEC.          CAPACITY
      ITEM
                             BYTE/SEC      BYTE/SEC           BYTE/SEC
                                                              
                                                              
  ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲


 R̲E̲C̲E̲P̲T̲I̲O̲N̲:

 VDU's (28) + PRINTERS (12)     2471       4200               4800

 T̲O̲T̲A̲L̲

 VDU's (32) + PRINTERS (16)     2730       5750*)             5760

 EXT. CHANNELS (24)              263        160               
                                                              240


  ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ 

 *) 7140 - ALL EXT. CHAN.



             TABLE 3.6.3-2…01…TDX WRITE


3.6.4    A̲d̲d̲i̲t̲i̲o̲n̲a̲l̲ ̲I̲/̲O̲ ̲C̲h̲a̲n̲n̲e̲l̲ ̲L̲o̲a̲d̲i̲n̲g̲ ̲R̲e̲q̲u̲i̲r̲e̲m̲e̲n̲t̲s̲

         The busy second load requirements have been introduced
         which, together with the busy minute load, shall be
         compared to the transfer capacity dictated by the requirement
         specification. Refer the tables 3.6-4.

         The busy second rates are all below the capacity.

         The busy minute transfer rate is seen to exceed the
         busy second transfer rate only for CCIS & SCARS channels
         in case of I/O CHANNEL READs, and then only slightly
         and well below the capacity.




                           BUSY MIN        BUSY SEC.          CAPACITY
      ITEM
                           BYTE/SEC        BYTE/SEC           BYTE/SEC
                                                              
                                                              
  ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲


 NICS TARE (6 CHAN.)       371             750                1440

 CCIS (1 CHAN.)            81 + (192*)     240                
                                                              960

 SCARS (1 CHAN.)           71 + (192*)     240                
                                                              960


  ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

 TOTAL                     715             1230

  ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲


 *) VDU PAGES, INCOMING, ADDED IN TOTAL.



          TABLE 3.6.4-1…01…I/O CHANNEL READ



                           BUSY MIN        BUSY SEC.          CAPACITY
      ITEM
                           BYTE/SEC        BYTE/SEC           BYTE/SEC
                                                              
                                                              
  ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲


 NICS TARE (6 CHAN.)       122             750                1440

 CCIS *) (1 CHAN.)         94+(64)         240                960

 SCARS *) (1 CHAN.)        51+(64)         240                960


  ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

 TOTAL                     331             1230

  ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲


 *) VDU PAGES, INCOMING, ADDED IN TOTAL.


         TABLE 3.6.4-2.…01…I/O CHANNEL WRITE


            4̲ ̲ ̲M̲O̲D̲E̲L̲ ̲S̲E̲L̲E̲C̲T̲I̲O̲N̲ ̲C̲O̲N̲S̲I̲D̲E̲R̲A̲T̲I̲O̲N̲S̲



4.1      M̲O̲D̲E̲L̲ ̲L̲A̲Y̲O̲U̲T̲ ̲A̲N̲D̲ ̲M̲E̲C̲H̲A̲N̲I̲S̲M̲S̲

         The performance model presented in section 1.2 was
         based on the following assumptions: Poisonian arrival
         at each service position, no throughput or response
         time limitations, load at service positions being based
         in general on a linear addition of all busy hour or
         busy minute contributions with no limitation in form
         of number of processes allowed in the system.

         In this section a more general model shall be introduced,
         the purpose being to show the applicability of the
         model selected and presented in section 1.2.































             FIG. 4-1…01…CAMPS Processing System


         The CAMPS PROCESSING SYSTEM is sketched in figure 4-1
         and shall be interpreted as follows:

         Traffic is queued (if necessary) in front of the PU,
         possibly according to priority. Having been served
         by the PU, a process is forwarded to DISC, TDX, or
         the CHANNEL system for service; it may also be directly
         requeued for PU service.

         Process requests returning from service are queued
         in the internal system queue for PU service and may
         not be preempted by higher priority external customers
         if the multiprocessing level has been reached; if not,
         requests are just processed in order of priority.

         Considering the PU to be working on the time slice
         principle, the probabilities for direction to the different
         servers after PU service are simply calculated as:

                   n…0f…m…0e…                   cpu                
           P…0f…m…0e… =   ̲ ̲ ̲ ̲ ̲, where n…0f…1…0e…  =   ̲ ̲ ̲ ̲ ̲  with         
                                                             
                   n…0f…1…0e…                    t                 
                                                                   


          cpu as the CPU loading and   t the time slice, n…0f…2…0e…
         the combined number of reads and writes to disc with
         average service time, n…0f…3…0e… and n…0f…4…0e… the number of writes
         and reads for TDX and Channel System respectively.

         The following mechanisms may limit the processing capability
         of the system:

         a)  Queue length for a server exceeded thereby possibly
             leading to excessive response times.

         b)  The multiprocessing level has been reached, i.e.
             no more than N processes may be executed or requested
             at the same time in the system.

         c)  The loading of a server has reached 100 percent.

         It is in each case assumed that the limitation is monitored
         and that no more processes are allowed into the system.


         In the cases a and c, the processing capability is
         given as the original loading figures multiplied by
           max./  act, where   act is the original (required)
         loading and   max. the limiting loading of the server
         being the cause of the limitation; all loading to other
         servers shall be diminished in this manner.

         The assumption of poisonion arrival to all servers
         (including repeated time slice request), which is a
         prerequisite for the queueing considerations of this
         document, is in the cases a and c not allowed if the
         queuing time is high or the varians of the queuing
         time is high. In stead the queuing time at the "bottleneck
         server position" may be calculated as the time for
         serving a fixed number (design) of queued requests
         plus the arriving request itself (the varians of the
         queuing time being the service time varians times number
         of queued requests plus one).There is then (in this
         rough model) no waiting at other server positions.

         In case b, the situation is more complex and may be
         based on a calculation with Buzens Algoritme: (refer
         IEEE, April 80, Computer, Queuing models of Computer
         Systems) assuming poisonion arrival to all servers
         and taking into account the routing probabilities P…0f…m…0e…
         introduced at the beginning of this section and the
          service times. The relative load at each serving position
         may be found as a function of the multiprocessing level.

         Case a and/or case c may occur in addition to case
         b and shall then be treated in the same way as discussed
         above.

         It is interesting to notice that with a limitation
         in multiprocessing level case c may happen without
         case a coming into play: case b puts a limit to the
         queuing but the level of multiprocessing is so high
         that the load limit has been reached.

         The multiprocessing limitation of CAMPS system due
         to the PU is depending on the number of internal queue
         elements and buffers, number of CPU interrupts and
         the number of external I/O interrupts.



         It is a basic assumption that the design will assign
         sufficient queue elements and buffer capacity; it is
         the aim of this document to provide directive information
         concerning possible limitations.
         This section 4 and especially section 4.6 shall be
         concerned with this problem via the queuing calculations.
         Several hundred CPU interrupts are available.

         External I/O interrupts are only forwarded one at a
         time from the I/O Channel system, the limitations then
         being a question of buffer capacity in LTU's and queue
         elements and buffer capacity and in the PU; in case
         of TDX-system, requests are forwarded immediately and
         thereby converted into internal PU-memory queueing,
         i.e. its a matter of buffer and queue elements capacity,
         although limitations in TDX bandwith assignment may
         result in queueing in the LTUX's. Refer to sections
         4.3 and 4.4 for further discussion of TDX and I/O channel
         System mechanisms.

         In the following subsections, the steps shall be as
         follows:

         S̲t̲e̲p̲ ̲1̲: Based on the loading figures of section 3,
                 it shall be considered for each service position
                 whether it may trigger any of the cases a,
                 b or c. Response time formulas shall be developed
                 during this exercise.

         S̲t̲e̲p̲ ̲2̲  It shall be considered whether a more complex
                 loading calculation is to be performed: This
                 shall only be the case if case b happens and
                 the associated throughput limitations are acceptable;
                 if not acceptable, design changes shall be
                 considered.

         S̲t̲e̲p̲ ̲3̲  The resulting response times shall be found
                 (section 5.2) by adding up the contributions
                 of all service positions (including the effect
                 of multiple visits).


4.2      P̲U̲ ̲S̲Y̲S̲T̲E̲M̲



4.2.1    I̲n̲t̲r̲o̲d̲u̲c̲t̲i̲o̲n̲

         The CPU time usage estimated in section 3 is the b̲a̲s̲i̲c̲
         ̲t̲i̲m̲e̲ consumption d̲i̲s̲r̲e̲g̲a̲r̲d̲i̲n̲g̲ ̲q̲u̲e̲u̲e̲i̲n̲g̲ ̲e̲f̲f̲e̲c̲t̲s̲, C̲P̲U̲
         ̲C̲A̲C̲H̲E̲ ̲i̲m̲p̲r̲o̲v̲e̲m̲e̲n̲t̲s̲ (time for investigating the CACHE
         included, however), and t̲i̲m̲e̲ ̲s̲l̲i̲c̲i̲n̲g̲ ̲e̲f̲f̲e̲c̲t̲s̲. The following
         subsections shall consider those factors.

         Refer to section 1.2.1.3 for queuing concept.



4.2.2    T̲i̲m̲e̲ ̲S̲l̲i̲c̲i̲n̲g̲

         The PU consists of three CPUs working concurrently
         with the time slice principle: Whenever a process has
         had its t̲i̲m̲e̲ ̲s̲l̲i̲c̲e̲ ̲(defined at system generation) it
         has to leave the PU and will be queued for further
         processing; it may also leave the CPU before the time
         slice is finished and be directed to another service
         position (different from the PU) as dependent on the
         program execution.

         Each repeated request of a process for a time slice
         will "see" the same environment. Whenever a time slice
         has been processed, a new time slice request will statistically
         be queued according to priority; the time each process
         request spends in the PU system is thus proportional
         to its average time slice consumption per request plus
         the statistical waiting effects per request as depending
         on the CPU loading, the multiserver environment and
         the average time slice of other processes. The total
         process time may be found by adding up the contributions
         from all time slice requests: If the average time slice
         is assumed the same for all processes and is sufficiently
         small compared to the total CPU time consumption or
         the process time happens to be a multiples of the time
         slice, the time slice mechanism may thus be ignored
         in doing the calculations, except for an o̲v̲e̲r̲h̲e̲a̲d̲ ̲f̲a̲c̲t̲o̲r̲
         due to t̲i̲m̲e̲ ̲s̲l̲i̲c̲e̲ ̲c̲h̲a̲n̲g̲e̲s̲ of about 5%: Time slice Process
         Factor PF…0f…ts…0e… = 1.05. Whenever the loading or the service
         time is used in the following ( …0f…SCPU…0e… and t…0f…SCPU…0e… respectively)
         5% is assumed added to the figures of section 3. Refer
         to section 1.2.1.3 for further discussion.


         If the CPU time needed is less than the time slice,
         the queuing effect should still be based on the average
         time slice of other processes; the contribution to
         the overall process time is then, however, most likely
         negligible or unimportant, since small.

         It is seen that the major advantage of time slicing
         is that processes needing much CPU time do not specifically
         influence the queuing of other processes: T̲h̲e̲ ̲q̲u̲e̲u̲i̲n̲g̲
         ̲c̲a̲l̲c̲u̲l̲a̲t̲i̲o̲n̲s̲ ̲a̲r̲e̲ ̲i̲n̲d̲e̲p̲e̲n̲d̲e̲n̲t̲ ̲o̲f̲ ̲p̲r̲o̲c̲e̲s̲s̲ ̲e̲n̲v̲i̲r̲o̲n̲m̲e̲n̲t̲
         ̲a̲p̲a̲r̲t̲ ̲f̲r̲o̲m̲ ̲t̲h̲e̲ ̲p̲r̲o̲b̲a̲b̲i̲l̲i̲t̲y̲ ̲o̲f̲ ̲C̲P̲U̲ ̲b̲e̲i̲n̲g̲ ̲b̲u̲s̲y̲,̲ ̲=̲ ̲l̲o̲a̲d̲,̲
         ̲w̲h̲i̲c̲h̲ ̲i̲s̲ ̲t̲h̲e̲ ̲s̲u̲m̲ ̲o̲f̲ ̲a̲l̲l̲ ̲C̲P̲U̲ ̲n̲e̲e̲d̲s̲ ̲i̲n̲d̲e̲p̲e̲n̲d̲e̲n̲t̲ ̲o̲f̲ ̲t̲h̲e̲
         ̲s̲l̲i̲c̲i̲n̲g̲.̲



4.2.3    M̲u̲l̲t̲i̲s̲e̲r̲v̲e̲r̲ ̲a̲n̲d̲ ̲S̲i̲n̲g̲l̲e̲ ̲S̲e̲r̲v̲e̲r̲ ̲Q̲u̲e̲u̲i̲n̲g̲

         It is discussed in section 1.2.1.3 how the queuing
         for the PU in case of a non-concurrent process, i.e.
         a process which does not allow concurrent processing
         in CPU's, shall be a series of two queues: A single
         server CPU queue, the CPU loaded only with the process
         in question, followed by a multiserver queue for three
         CPU's with an average load equal to one third of the
         total PU load. The load of the single server shall
         include the effect of queuing to the multiserver Processes
         which accept concurrent processing only see the multiserver
         queue.

         The waiting time for a s̲i̲n̲g̲l̲e̲ ̲s̲e̲r̲v̲e̲r̲, assuming exponential
         (poisonion) arrival, a service time t…0f…s…0e… with a standard
         deviation  s, and any queue serving discipline where
         the selection of next item does not depend on the service
         time but may include priority queuing, is given by


                                t…0f…s…0e…  (1+( …0f…s…0e…/t…0f…s…0e…)…0e…2…0f…)              
                                 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲             
          W…0f…1…0e…(ts,  …0f…1…0e…,   ) =                                        
                                    2(1 -  …0f…1…0e…)                      

         for processes of the h̲i̲g̲h̲e̲s̲t̲ ̲p̲r̲i̲o̲r̲i̲t̲y̲, where   …0f…1…0e… is
         the load of the highest priority processes:   =  …0f…1…0e…
         in case of preemption and   =  …0f…1…0e… +   …0f…2…0e… in case of non
         preemption.


         In case of 2 priority levels the l̲o̲w̲e̲r̲ ̲p̲r̲i̲o̲r̲i̲t̲y̲ requests
         shall wait the following time depending on the priority
         discipline which may be n̲o̲n̲-̲p̲r̲e̲e̲m̲p̲t̲i̲v̲e̲ ̲o̲r̲ ̲p̲r̲e̲e̲m̲p̲t̲i̲v̲e̲:̲

                                     t…0f…s…0e…     (1+(  …0f…s…0e…/t…0f…s…0e…)…0e…2…0f…) 
         W…0f…2…0e…(t…0f…s…0e…,  …0f…1…0e…,  …0f…s…0e…)       ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ 
                                 =                                 
                                     2(1 -  …0f…1…0e…)(1 -   )          
                                                            

         where    =   …0f…1…0e… +   …0f…2…0e….   …0f…2…0e… is the load of the 2nd priority.

         The corresponding queuing (or response) times are given
         as

             t…0f…Q…0e… = t…0f…s…0e… + W(t…0f…s…0e…,   …0f…1…0e…)

         for the h̲i̲g̲h̲e̲s̲t̲ ̲p̲r̲i̲o̲r̲i̲t̲y̲.

         In case of 2 priority levels the queuing time for the
         case of n̲o̲n̲-̲p̲r̲e̲e̲m̲p̲t̲i̲o̲n̲ is 

             t…0f…Q…0e… = t…0f…s…0e… + W(t…0f…s…0e…,  …0f…2…0e…,   ),

         and for the case of p̲r̲e̲e̲m̲p̲t̲i̲o̲n̲

             t…0f…Q…0e… = t…0f…s…0e…/(1 -   …0f…1…0e…) + W(t…0f…s…0e…,  …0f…2…0e…,   ).

         Waiting times and queuing times for multiserver queuing
         are found from the single server formulas by the following
         changes (the order is important):

         S̲t̲e̲p̲ ̲1̲  Multiply the W̲a̲i̲t̲i̲n̲g̲ ̲t̲i̲m̲e̲ with the factor B/(
                  x N), where B is the probability that all
                 servers are busy when the request arrives and
                 N is the number of servers (essentially is
                 replaced by B/N which at high loads is identical
                 to the load of one CPU).

         S̲t̲e̲p̲ ̲2̲  Replace the loads   and  …0f…1…0e… with the load of
                 one server, i.e. with the fraction of the load
                 corresponding to the number of servers N, the
                 load being evenly distributed.

         S̲t̲e̲p̲ ̲3̲  Replace in queuing formulas the waiting time
                 for the single server with the waiting time
                 calculated in step 1 and 2.



         Above formulas are taken from I. Martin, Design of
         Real Time Computer Systems, Chapter 26, where a formula
         for the probability B is also presented.

         Since no formulas are available for other cases the
         factor B shall be calculated on the worst case assumption
         of exponential processing. For the PU with 3 servers
         (N = 3) we have

         B…0f…PU…0e… = 4.5   …0e…3…0f……0f…CPU…0e…/(1 + 2  …0f…CPU…0e… + 1.5   …0e…2…0f……0f…CPU…0e…)


         The variance …0e…2…0f……0f…s…0e… to be used for calculating queuing
         time shall be taken as corresponding to the distribution
         of service time between t…0f…s…0e… = 0 and t…0f…s…0e… = 2 x average
         service time (rectangular distribution), the variance
         is thus

           …0e…2…0f……0f…CPU…0e… = (2xT…0f…CPU…0e…)…0e…2…0f…/12 = T…0e…2…0f……0f…CPU…0e…/3.

         The variance which corresponds to the queuing time,
         not the service time as above, may be found from the
         load factor   …0f…CPU…0e… and the knowledge of   …0f…CPU…0e… making
         use of the calculations in I. Martin, Design of Real
         Time Computer Systems, Chapter 26, fig. 26.12 and fig.
         26.24. The load factor shall always correspond to the
         appropriate priority.

         The varians of the service time for the case of non-concurrent
         processing shall be the varians of the queuing for
         the multiserver assembly, the resulting queuing varians
         for the non-concurrent processing then derived as the
         single server queuing corresponding to the load of
         the non-concurrent function (total service time usage
         in seconds per seconds). Refer section 4.6.1 for details.
         At small loads the queuing time varians is equal to
         the service time varians for multiserver queues (up
         to a load of about 0.5).

         The service time and loads to be used in above formulas
         shall include the effects of TIME SLICING and PROCESSOR
         BUS QUEUING:
         t…0f…s…0e… = T…0f…CPU…0e… and   =   …0f…CPU…0e… =   …0f…SCPU…0e… x INC; refer sections
         4.2.2 and 4.2.5.


4.2.4    P̲r̲i̲o̲r̲i̲t̲y̲ ̲Q̲u̲e̲u̲i̲n̲g̲

         As a consequence of the time slice principle the non-preemptive
         priority selection is n̲o̲t̲ implemented (it would be
         overruled by the time slicing).

         The CPU priority discipline, if used, is preemptive,
         (including preemption on the time slice being processed
         when the higher priority request arrives, although
         this is of minor importance).



4.2.5    C̲P̲U̲ ̲P̲r̲o̲c̲e̲s̲s̲i̲n̲g̲ ̲T̲i̲m̲e̲:̲ ̲C̲A̲C̲H̲E̲ ̲V̲e̲r̲s̲u̲s̲ ̲P̲r̲o̲c̲e̲s̲s̲o̲r̲ ̲B̲u̲s̲

         The CPU-CACHE of each CPU in a PU is exploited as follows:

         -   Whenever a CPU initiates a READ microinstruction
             it is first investigated whether the data of the
             corresponding main memory address is already in
             CACHE . Since all addresses within the area of
             one PAGE (1K) are available the further investigation
             amounts to checking whether the LOGICAL PAGE is
             correct, data are not inhibited, and whether a
             process in USER MODE attempts access to data stored
             in SYSTEM MODE.

             If data are available they are read from CACHE.
             If not, a PROCESSOR BUS access is performed, and
             data are read via the MAP (conversion from logical
             to physical address), retrieved from the main memory
             and written to CACHE d̲u̲r̲i̲n̲g̲ the bus cycle. No internal
             CPU activity is assumed taking place during a READ.

         -   Whenever a CPU initiates a WRITE microinstruction
             a PROCESSOR BUS access is performed and data are
             transferred via the MAP (conversion from logical
             to physical address) to the main memory. 


         -   Whenever a main memory location is updated and
             the same location is written to a CACHE, the CACHE
             location is deleted. This effect is assumed to
             be covered by the assumed HIT RATE.

         -   Whenever the logical to physical address translation
             is changed, as a result of a process change, the
             CACHE contents of the corresponding CPU's are deleted.
             This effect is assumed to be covered by the assumed
             HIT RATE.

         Three CPU's are competing in access to the Processor
         Bus, the arbitration logic for granting access being
         based on a Round Robin scheme, i.e. FIFO and no priority
         queuing of maximum 3 requests at a time. Refer fig.
         4.2.5-1.

         The access time for READ's and WRITE's via the processor
         bus shall include the effect of main memory REFRESH
         and CHANNEL BUS access taking place in parallel. As
         a w̲o̲r̲s̲t c̲a̲s̲e̲ it is assumed that one of these are delaying
         the execution of the Processor Bus access.

         The time needed for an average macroinstruction may
         be calculated as follows:

         t…0f…INSTR…0e… = t…0f…INT…0e… + t…0f…BUS,INSTR…0e…

         t…0f…INT…0e…            time of internal CPU operations during
                         which n̲o̲ Processor Bus activity related
                         to this CPU takes place.

         t…0f…BUS,INSTR…0e…  time for READ or WRITE via Processor Bus.

         t…0f…INT…0e…            includes the CACHE access time but
                         not activities in the CPU during the
                         Processor Bus access. There is no queuing
                         for CPUs, however, on return from the
                         Processor Bus.

                         The ratio t…0f…BUS…0e…/t…0f…INSTR…0e… is for a CACHE
                         HIT RATE = 0 almost a constant for
                         the most used instruction types (95%).
                         The average execution time for a macroinstruction
                         t…0f…INSTR…0e… is, however, rather sensitive
                         to the actual mix of instructions used.



         t…0f…BUS,INSTR…0e… = 
         M…0f…RW…0e… x (1-H) x t…0f…WR…0e… + M…0f…RW…0e… x H x (1-P…0f…HIT…0e…) x t…0f…RM…0e…

         t…0f…WR…0e… time for writing data to main memory.

         t…0f…RM…0e… time for making the data or instruction retrieval
             via the Processor Bus .

         M…0f…RW…0e… number of CPU WRITE's and READS per macroinstruction.

         P…0f…HIT…0e…    probability of finding instruction or data
                 in CACHE. This is the overall hit rate including
                 instructions which will never experience a
                 hit.

         H       ratio between number of READ's and number of
                 READ's plus WRITE's.

         The following values shall apply:

         t…0f…WR…0e… = 625ns, t…0f…RM…0e… = 875ns, and the ratio H is approximately
         0.8 (the exact value is not critical since t…0f…WR…0e… and
         t…0f…RM…0e… are of the same order).

         Knowing the ratio t…0f…BUS,INSTR…0e…/t…0f…INSTR…0e… and the value of
         t…0f…INSTR…0e… for P…0f…HIT…0e… = 0, this will enable the calculation
         of M…0f…RW…0e….

         The CPU loadings found in section 3 of this document
         and the service times are based on P…0f…HIT…0e… = 0, CACHE
         enabled, and an average service time t…0f…INSTR…0e… = 2  s
         which includes the effect of time slice changing (5%
         added to loads and service times).

         With t…0f…BUS,INSTR…0e…/t…0f…INSTR…0e… = 0.50 we find M…0f…RW…0e… = 1.21.

         The time t…0f…INSTR…0e… may now be calculated for other values
         of P…0f…HIT…0e…. For this purpose the reduction in t…0f…INSTR…0e… may
         be found as the reduction to t…0f…BUS,INSTR…0e… using the above
         formula, b̲u̲t̲ ̲w̲i̲t̲h̲ ̲t̲'̲R̲M̲ ̲r̲e̲p̲l̲a̲c̲e̲d̲ ̲b̲y̲
         t̲'̲R̲M̲ ̲=̲ ̲6̲0̲0̲ ̲n̲s̲; this is due to the fact that the saving
         obtained by the dropping of the bus access for reading
         is counteracted by the fact that internal operations
         took place during the bus access.


         The CPU execution time including the effect of Processor
         Bus queuing is given as:

         T…0f…CPU…0e… = t…0f…SCPU…0e… x INC + W…0f…BUS…0e…

         where

         t…0f…SCPU…0e…       is the CPU time calculated in section 3
                     of this document, CACHE enabled but NO
                     HITS, plus the time slice effect (5% increase
                     to loads and service times) 

         INC         is the improvement in instruction time
                     due to CACHE HITS, INC = t…0f…INSTR…0e…/t…0f…INSTR…0e…(P…0f…HIT…0e…
                     = 0)

         W…0f…BUS…0e…        is the waiting time for Processor Bus access,
                     i.e. the Processor Bus Queuing time 
                     t…0f…Q,BUS…0e… = W…0f…BUS…0e… + t…0f…BUS…0e…

         We may then reformulate

          T…0f…CPU…0e… = t…0f…SCPU…0e…  INC + (t…0f…BUS…0e…/t…0f…SCPU…0e…)((t…0f…QBUS…0e…/t…0f…BUS…0e…)-1) t…0f…SCPU…0e…=

          t…0f…SCPU…0e… x PF…0f…CACHE,BUS…0e…

         t…0f…BUS…0e… is here related to the transaction bus time consumption;
         we may reformulate this to a single instruction, i.e.

         t…0f…BUS…0e…/t…0f…SCPU…0e… = t…0f…BUS,INSTR…0e…/(t…0f…INSTR…0e… (P…0f…HIT…0e… = 0) 

         We shall assume P…0f…HIT…0e… = 0.5 for the calculations of
         this document; consequently

         I̲N̲C̲     = 1 - t…0f…INSTR…0e…/t…0f…INSTR…0e… (P…0f…HIT…0e… = 0) = 1-  t…0f…INSTR…0e…
                 =

                 = 1 - M…0f…RW…0e… x H x P…0f…HIT…0e… x t'…0f…RM…0e…/2.0  s = 0̲.̲8̲5̲

         t̲…8f…B̲U̲S̲…8e…/̲t̲…8f…S̲C̲P̲U̲…8e…  =  (t…0f…BUS,INSTR…0e…/t…0f…INSTR…0e…) …0f…P…0f…HIT…0e… = 0…0e…
         -  t…0f…INSTR…0e… = 0̲.̲3̲5̲

         The relative queuing time t…0f…QBUS…0e…/t…0f…BUS…0e… is a function
         of the Processor Bus loading

           …0f…BUS…0e… = 3 x   …0f…SCPU…0e… x (t…0f…BUS…0e…/t…0f…SCPU…0e…)

         This function is presented on page 452, chapter 28,
         I. Martin, Design of Real Time Computer Systems: It
         is here assumed that the service time is exponential;
         this is of course not the case but will anyway be accepted
         in a worst case estimate.


         A T̲H̲R̲O̲U̲G̲H̲P̲U̲T̲ ̲L̲I̲M̲I̲T̲A̲T̲I̲O̲N̲ problem will arise when the
         Processor Bus load approaches 100 per cent, thereby
         limiting the amount of processing in a manner which
         is faily i̲n̲d̲e̲p̲e̲n̲d̲e̲n̲t̲ of the number of CPUs.

         When taking into account the statistical arrival of
         requests from CPUs for the Processor Bus, it turns
         out that the number of CPUs does play a role and in
         a manner to decrease the throughput limit: There is
         a certain probability that no Processor Bus request
         is issued at any time, this probability is increasing
         with higher CACHE hit rate, since more time is spent
         in the CPU, and it is decreasing with an increasing
         number of CPUs. Consequently in a fraction of time
         corresponding to this probability, this Processor Bus
         will not be used and the throughput limit in terms
         of average Processor Bus transfers is proportionally
         decreased; fortunately this influence of higher hit
         rates is counteracted by the decreasing need for bus
         access, refer above formula for Processor Bus loading.
         We find

           …0f…SCPU…0e… =   …0f…BUS…0e…/3/(t…0f…BUS…0e…/t…0f…SCPU…0e…)

         where the limit for  …0f…BUS…0e… will be found in the following
         calculations and t…0f…BUS…0e…/t…0f…SCPU…0e… is given above.

         A theory for calculating the throughput limit has been
         developed for the case of exponential arrival of request,
         refer Buzens algorithm for Central Server Model; the
         corresponding formulas are listed in table 4.2.5-1.
         For the above listed values of the parameters involved
         we find

         P…0f…HIT…0e… = 0:     …0f…BUS,MAX…0e… = 0.92,   …0f…SCPU,MAX…0e… = 0.61

         P…0f…HIT…0e… = 0.5:   …0f…BUS,MAX…0e… = 0.79,   …0f…SCPU,MAX…0e… = 0.75


















         FIG. 4.2.5-1        PROCESSOR BUS ACCESS


         Refer to fig. 4.2.5-1, where the time spent in the
         PU and on the Processor Bus now shall apply for a̲ ̲s̲i̲n̲g̲l̲e̲
         ̲a̲v̲e̲r̲a̲g̲e̲ ̲b̲u̲s̲ o̲p̲e̲r̲a̲t̲i̲o̲n̲. Consequently we define the following
         terms:

         S = average time per bus operation on bus 
         
         Z = average time per bus operation in PU

         We find

         S = (M…0f…RW…0e…(1-H) t…0f…WR…0e… + M…0f…RW…0e… x H (1-P…0f…HIT…0e…) t…0f…RM…0e…)/N

         Z = ((t…0f…INSTR…0e…(P…0f…HIT…0e… = 0) - M…0f…RW…0e… x H (1-P…0f…HIT)…0e… x t'RM)/N)
         - S

         The number of bus operations per instruction is 

         N = M…0f…RW…0e… (1-H) + M…0f…RW…0e… x H (1-P…0f…HIT…0e…)

         Throughput in terms of 
         bus opertions per sec.             ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲0̲ ̲ ̲ ̲ ̲ ̲ ̲1̲
         ̲ ̲ ̲ ̲ ̲
         with 3 CPUs:                       ̲ ̲0̲ ̲ ̲ ̲ ̲ ̲ ̲-̲ ̲ ̲ ̲ ̲ ̲ ̲1̲
         ̲ ̲ ̲ ̲ ̲
           X(3) = (3/Z) x (h(2,1)/h(3,1)      ̲ ̲1̲ ̲ ̲ ̲ ̲ ̲ ̲1̲ ̲ ̲ ̲ ̲
 ̲h̲(̲1̲,̲1̲)̲ ̲
                                            ̲ ̲2̲ ̲ ̲ ̲ ̲ ̲ ̲1̲ ̲ ̲ ̲ ̲ ̲h̲(̲2̲,̲1̲)̲
         ̲
                                            ̲ ̲3̲ ̲ ̲ ̲ ̲ ̲ ̲1̲ ̲ ̲ ̲ ̲ ̲h̲(̲3̲,̲1̲)̲
         ̲
         
         where

         h(m,1) = h(m,0) + (m,S/Z) h (m-1,1)

           …0f…BUS…0e… = X(3) x S

         TABLE 4.2.5-1       Processor Bus Throughput Calculation





4.2.6    Q̲u̲e̲u̲e̲ ̲T̲i̲m̲e̲ ̲a̲n̲d̲ ̲L̲e̲n̲g̲t̲h̲

         PU queuing calculations are based on the load derived
         in section 3 with addition of 5% due to time slice
         processing.

         Based on this load, the factor PF…0f…CACHE,CPU…0e… is derived
         as detailed in section 4.2.5, the service time T…0f…CPU…0e…
         thus derived is the basis for the following calculations.

         Further calculations executed on basis of the set of
         formulas of section 4.2.3.

         The average number of requests waiting or being served,
         i.e. queued, may be found from the queuing time divided
         by the request interarrival time (= t…0f…a…0e…); this corresponds
         to the replacing of the service time t…0f…SCPU…0e… in the queuing
         formulas by   …0f…SCPU…0e… (=t…0f…SCPU…0e…/t…0f…a…0e…). For multiserver-queuing
         the result thus obtained shall furthermore be multiplied
         by the number of servers.



4.2.7    D̲i̲s̲c̲u̲s̲s̲i̲o̲n̲

         It shall be calculated how many request which may be
         queued in the PU system in order to estimate whether
         multiprocessing or queue limitations (refer section
         4.1) might occur. The level shall be multiprocessor
         queuing and queuing for nonconcurrent processing of
         CAMPS system Functions and Procedures.

         The busy minute values of 3.6.1 shall be used and the
         assumptions

         P…0f…HIT…0e… = 0.5

         ( …0f…CPU…0e…/T…0f…CPU…0e…)…0e…2…0f… = 1/3

         No priority processing.

         The number of requests queued, i.e. waiting or processing,
         is found for the multiserver resembly to be 0.9, whereas
         it is 0.7 for the worst case of non-concurrent queuing.

         We may conclude that limitations in multiprocessing
         or queue lengths may be ignored in response time and
         throughput calculations for the PU at this level of
         processing.


4.3      T̲D̲X̲ ̲S̲y̲s̲t̲e̲m̲ ̲M̲e̲c̲h̲a̲n̲i̲s̲m̲s̲ ̲&̲ ̲Q̲u̲e̲u̲i̲n̲g̲



4.3.1    T̲D̲X̲ ̲T̲r̲a̲n̲s̲f̲e̲r̲ ̲D̲e̲l̲a̲y̲

         The TDX system is transferring contents of character
         buffers in PU memory to the LTUX's from where the buffer
         contents is further transferred to the terminals: VDU's,
         printers, OCR, and Low Speed External Channels. Similarly
         the TDX System transfers buffer contents from the LTUXs
         to the PU-memory.

         Characters to and from a specific channel of a LTUX
         are transferred via a logical channel of the TDX. The
         transfer is according to an algoritm which is offering
         a fixed baudrate or bandwith to each logical channel
         independent of the traffic: Each channel is scanned
         in 0.15625 ms during which 128 bits may be transferred.
         During 1.28 seconds the TDX then makes 8192 channel
         scans. The maximum possible baudrate offered to one
         channel only is thus 8192 x 128/1.28 = 819200 b/sec.
         and the smallest is 128/1.28 = 100 b/sec. which may
         be offered to 8192 channels.

         The algoritm furthermore works as follows:

         All channels at each baudrate level are scanned once
         and this scanning is then repeated the number of times
         this level is higher than the next lower level assigned
         before this lower level is scanned once for each channel.
         Having done one scan of each channel at any level assigned
         the algoritme returns to the highest possible level
         assigned to repeat the initial scan. Refer to fig.
         4.3.1-1 for a CAMPS algoritme with

         1 TDX Channel to Standby PU:           51200 b/s
         48 TDX Channels to VDUs and Printers:  48 x 6400 b/s
         24 TDX Channels to Low Speed Ext.:     24 x 400 b/s
         1 TDX Channel to OCR:                  12800 b/s
                                                 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
                                                ̲ ̲

                                                380800 b/s
                                                 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
                                                ̲


         BANDWIDTH


         100 b/s                                           
           3 times

         400 b/s                                1 scan of each
         24 ch.




                             15 times

                       1 chan of each 48 ch.


         6400 b/s

         12800 b/s     1 scan of each 2 ch.

         51200 b/s

         4 scan of 1 ch.

         819200 b/s               3936 scans needed for channel
         traffic


                                                        1.28
                     ms






          FIG. 4.3.1-1…01…TDX SCAN ALGORITME CAMPS


4.3.2    T̲D̲X̲ ̲T̲r̲a̲n̲s̲f̲e̲r̲ ̲D̲e̲l̲a̲y̲ ̲a̲n̲d̲ ̲T̲h̲r̲o̲u̲g̲h̲p̲u̲t̲

         The bandwidth assigned does not reflect the throughput
         requirements, which are lower, but reflects the desire
         for a small transfer delay.

         The following delays shall be considered important:

         -   Scan delay, i.e. the time passed untill a particular
             channel is scanned again. From fig. 4.3-1 the maximum
             delays are found for

             S̲t̲a̲n̲d̲b̲y̲ ̲P̲U̲ ̲C̲h̲a̲n̲n̲e̲l̲:̲ 1 "Scan" of all other channels
             = 1 + 48 + 24  Scans or 1̲1̲.̲5̲ ̲m̲s̲.̲

             O̲C̲R̲ ̲C̲H̲A̲N̲N̲E̲L̲:̲ As for Standby PU Channel with the
             OCR Scan replaced by 4 PU channel Scans = 4 + 48
             + 24 Scans or 1̲2̲ ̲m̲s̲.̲

             V̲D̲U̲ ̲a̲n̲d̲ ̲P̲R̲I̲N̲T̲E̲R̲ ̲C̲h̲a̲n̲n̲e̲l̲:̲ As for OCR Channel with
             1 VDU and PRINTER channel Scan replaced by 2 OCR
             Channel plus 8 Standby PU Channel Scans = 47 +
             2 + 8 + 24 Scans or 1̲3̲ ̲m̲s̲.

             L̲o̲w̲ ̲S̲p̲e̲e̲d̲ ̲C̲h̲a̲n̲n̲e̲l̲:̲ 16 x (48 + 2 + 8) + 23 Scans
             or 1̲4̲8̲ ̲m̲s̲  (all other channels has to be scanned
             completely).

         -   TDX Transfer Delay: Each bit is delayed an amount
             equal to the reciproc value of the baud rate.

         -   LTUX to Terminal Delay: As above for TDX Transfer
             delay.

         -   Information queuing delay for PRINTER and EXT.CHANNELS:
             It is a basic assumption of the requirements that
             the given capacity shall prevent the load to exceed
               = 0.7. Refer to section 3.6.2-3 for a presentation
             of the PRINTER and EXTERNAL CHANNEL load.



         Concerning VDU output the user will select the outgoing
         transaction in each case and queuing effects may thus
         be ignored. It is assumed that proper buffer management
         in PU and LTUX prevents delays which are comparable
         to the ones listed above except for such delays which
         are incorporated in the application service time (section
         3). Refer to section 3.6.2-3 for a presentation of
         the VDU load.

         VDU input is interactive and proper buffer management
         in LTUX and PU will transfer the information for the
         CPU's with a delay, the important components of which
         is accounted for above except for any CPU time accounted
         for in the application processing (section 3). Refer
         to section 3.6.2-3 for the VDU load.

         Table 4.3.2-1 presents the TDX introduced delays of
         importance for the response time calculations in section
         5.1.


         I̲N̲P̲U̲T̲ ̲T̲O̲ ̲C̲H̲A̲N̲N̲E̲L̲            V̲D̲U̲             L̲O̲W̲ ̲S̲P̲E̲E̲D̲
                                     (ms)            (ms)


         X characters to LTUX:

         transfer                    8.3X            100X


         X characters to PU:
         Scan delay max.             13              148
         transfer                    1.6X            25X


         O̲u̲t̲p̲u̲t̲ ̲t̲o̲ ̲c̲h̲a̲n̲n̲e̲l̲           V̲D̲U̲/̲P̲r̲i̲n̲t̲e̲r̲s    L̲o̲w̲ ̲S̲p̲e̲e̲d̲

         X characters from PU:

         SCAN delay max              13              148
         transfer                    1.6X            25X

         X characters from LTUX:
         transfer                    8.3X            100X







                 TABLE 4.3.2-1…01…TDX Delays


         The t̲h̲r̲o̲u̲g̲h̲p̲u̲t̲ is actually limited by the TDX-PU interface
         to about 500.000 b/sec.

         The busy second character transfer requirement not
         including the Standby PU Channel is about 6000 ch/sec.
         (refer section 3.6.3). Assuming a comfortable maximum
         of 10 checkpoints/sec of 512 bytes the total needs
         are about 11000 ch/sec. or 110000 b/s.

         With proper buffer and queue element assignment and
         management in LTUXs and at the TDX-PU interface there
         seems to be no limitations reached in multiprocessing
         and queuing lengths. Also response time should not
         be a problem: refer to section 5.2 for further discussion.



4.4      I̲/̲O̲ ̲C̲H̲A̲N̲N̲E̲L̲ ̲M̲e̲c̲h̲a̲n̲i̲s̲m̲s̲ ̲a̲n̲d̲ ̲Q̲u̲e̲u̲i̲n̲g̲



4.4.1    I̲/̲O̲ ̲C̲H̲A̲N̲N̲E̲L̲ ̲T̲r̲a̲n̲s̲f̲e̲r̲ ̲M̲e̲c̲h̲a̲n̲i̲s̲m̲s̲

         In order to estimate the I/O CHANNEL load and associated
         queuing effects the average service time for DISC CONTROLLER
         and LTU transfers shall be estimated.

         First of all it is recognised that the I/O CHANNEL
         is a single server system: Only one transfer may take
         place at a time. The interrupt with the highest priority
         only is forwarded to the first CPU available on input
         and no other input or output transfer may take place
         before the corresponding device is served. The service
         time shall count from the moment the interrupt in input
         is recognised by a CPU and this CPU is granted access
         to the Processor Bus, similarly on output, the service
         time is from grant of Processor Bus access.

         Two different types of transfers shall be considered:
         Block transfers and single word transfers, block transfers
         being (maybe repeated) DMA transfers of 64 word blocks
         to and from the PU-RAM via the PU-CHANNEL bus, and
         single word transfers being transfers via PU-Processor
         Bus and the MAP.



         B̲l̲o̲c̲k̲ ̲T̲r̲a̲n̲s̲f̲e̲r̲s̲

         The CPU informs the MAP of information source (destination)
         and address.

         The MAP then informs the MIA of where in PU-RAM to
         send (or fetch) the information and about source (destination)
         and addresss. Finally the CIA is informed of where
         to get (send) the information.

         CIA and MIA form the two ends of the DATA CHANNEL.

         In the following table is given an estimate of the
         total transfer time of what is believed to be an average
         sized transfer.

         I̲/̲O̲ ̲C̲H̲A̲N̲N̲E̲L̲ ̲S̲E̲R̲V̲I̲C̲E̲ ̲T̲I̲M̲E̲

         Transfer set up time        100   s

         T̲r̲a̲n̲s̲f̲e̲r̲ ̲t̲i̲m̲e̲ ̲f̲o̲r̲ ̲e̲a̲c̲h̲ ̲6̲4̲ ̲w̲o̲r̲d̲ ̲B̲l̲o̲c̲k̲

         CIA:    Transfer from DISC CONTR.RAM to I/O Bus      32
         Data Channel (CIA to MIA) transfer                   64
         MIA to PU-RAM(PU-CHANNEL Bus
         assuming parallel access from Processor Bus)         64
          ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
         ̲ ̲ ̲ ̲ ̲ ̲

                                                           
                                                      160  s

         Transfer of 2 sectors = 8 x 64 words: 100 + 8 x 160
         =
                                                           
                                                     ̲1̲3̲8̲0̲ ̲ ̲s̲


         S̲i̲n̲g̲l̲e̲ ̲W̲o̲r̲d̲ ̲T̲r̲a̲n̲s̲f̲e̲r̲s̲

         Single word transfers may be used to send instruction
         pointers to a disc controller for execution of the
         next instruction which already has been sent in a block
         transfer.

         Since single word transfers may be executed  during
         a block transfer and only will result in very short
         halt (less than 50  s).



4.4.2    I̲/̲O̲ ̲C̲H̲A̲N̲N̲E̲L̲ ̲T̲R̲A̲N̲S̲F̲E̲R̲ ̲D̲E̲L̲A̲Y̲S̲ ̲A̲N̲D̲ ̲T̲H̲R̲O̲U̲G̲H̲P̲U̲T̲

         From section 4.4.1 the following result is available:
         A̲n̲ ̲a̲v̲e̲r̲a̲g̲e̲ ̲t̲r̲a̲n̲s̲f̲e̲r̲ from or to a LTU or DISC CONTROLLER
         s̲h̲a̲l̲l̲ ̲n̲o̲t̲ ̲e̲x̲c̲e̲e̲d̲ ̲1̲.̲5̲ ̲m̲s̲.̲

         This is only true if queuing effects do not come into
         play: On input a number of LTU's and the DISC CONTROLLER
         may be waiting for transfer and at the same time up
         to three CPU's may be waiting for output transfers.

         I̲n̲p̲u̲t̲/̲O̲u̲t̲p̲u̲t̲

         Messages to/from External Channels: The busy second
         rate of 1230 ch/sec (refer section 3.6.4) will under
         the assumption of the transfer of 512 ch. per transfer
         result in 2.4 transfers per sec. Even with a factor
         of 10 more transfers (smaller buffers), the contribution
         is small: 25 transfers/sec.

         I̲n̲p̲u̲t̲

         The transfer of READ DATA from DISC will result in
         no more than 25 transfers per second in busy minute
         (refer section 3.6.1).

         O̲u̲t̲p̲u̲t̲

         The transfer of WRITE instructions (2 transfers per
         write) and DATA (2 transfers per write) will result
         in no more than 4 times 10 transfers per second for
         busy minute (refer section 3.6.1)



         The transfer of DISC READ instructions shall result
         in no more than 25 transfers per second.

         In total about 115 transfers per second are required
         (and shall be executed if the CPU's are not too busy,
         which they are not as shown elsewhere in this document).
         The corresponding load is less than 115 x 1.5 x 10…0e…-3…0f…
         = 0.17 and queuing effects may be neglected.

         In this argument the transfer of the DISC instruction
         set is assumed to take as much transfer time as the
         data transfer; this is not the case: In total about
         1.5 ms may be assumed for instruction plus data.

         Throughput problems may be neglected on basis of the
         same arguments as above. With proper assignment and
         management of buffers and queue elements no multiprocessing,
         queue length or response time problems are found in
         connection with the I/O Channel.



4.5      D̲I̲S̲C̲ ̲S̲Y̲S̲T̲E̲M̲ ̲M̲E̲C̲H̲A̲N̲I̲S̲M̲ ̲A̲N̲D̲ ̲Q̲U̲E̲U̲I̲N̲G̲

         The management of disc access is discussed in section
         1.2.1.4: The queueing of READ and WRITE operations
         and the load of the two mirrorred discs. 

         In this section we shall concentrate on the calculation
         of disc access time (section 4.5.1) and the presentation
         of queuing formulas plus estimation of queuing effects
         (section 4.5.2).



4.5.1    D̲i̲s̲c̲ ̲A̲c̲c̲e̲s̲s̲ ̲M̲e̲c̲h̲a̲n̲i̲s̲m̲s̲

         Fig. 4.5.1-1 presents the track configuration for the
         movable head SMD used in CAMPS. One head may be positioned
         at a time and data transferred to or from the disc.

         The total disc access time is composed as follows


         t…0f…DISC…0e…   t…0f…HDL…0e… + t…0f…CHAN…0e… + t…0f…SEEK…0e… + t…0f…TRANS…0e…

         where

         t…0f…HDL…0e…    Disk Handler Transfer Time  6ms

         t…0f…CHAN…0e…       The transfer time of instruction plus data
                     on I/O channel.

         t…0f…SEEK…0e…       The time for moving disc head to the proper
                     track.

         t…0f…TRANS…0e…  The time spent waiting for disc rotation plus
                 the time for data transfer to disc.

         t…0f…CHAN…0e…   is given in section 4.4.1: 
                     Assuming that transfer of instruction set
                     with execution command plus data is equivalent
                     to a 2 sector (2 x 512 Bytes) transfer
                     in average we find

                     t…0f…CHAN…0e…  -  1.5 ms.

         t…0f…SEEK…0e…       is the moving of the disc head, before
                     the actual transfer of data between disc
                     and controller can take place assuming
                     data and instruction is already transferred
                     to disc controller; the seek time is further
                     discussed below.

         t…0f…TRANS…0e… =    t…0f…ROT…0e… + t…0f…CONTR…0e…, where

         t…0f…ROT…0e…        rotational delay of disc. For the discs
                     used we may assume t…0f…ROT…0e… = 8.3 ms and a
                     rectangular distribution of t…0f…ROT…0e…, i.e.
                      (  …0f…ROT…0e…/t…0f…ROT…0e…)…0e…2…0f… = 1/3; 

                     (  …0f…ROT…0e…)…0e…2…0f… = 23 ms…0e…2…0f…

         t…0f…CONTR…0e…  time for transfer from/to disc to/from controller.
                 This time is practically given by the transfer
                 rate from DISC CONTROLLER RAM to DISC: 625KW/Sec..
                 Assuming an average 2 sector transfer we find
                 t…0f…CONTR…0e…   1 ms. The time for transfer of SEEK
                 instructions is negligible.


         D̲i̲s̲c̲ ̲C̲o̲n̲t̲r̲o̲l̲l̲e̲r̲ ̲R̲A̲M̲ ̲A̲c̲c̲e̲s̲s̲ ̲M̲a̲n̲a̲g̲e̲m̲e̲n̲t̲ 

         The controller cannot manage the receipt of instructions
         and data from transmission of data to the I/O Channel
         together with the receipt of data from or transmission
         of data to the disc. Since the time t…0f…CONTR…0e… is of the
         same order as the transfer time on the I/O Channel
         (refer section 4.4) we may, however, assume this constraint
         to be negligible.

         D̲i̲s̲c̲ ̲S̲e̲e̲k̲ ̲T̲i̲m̲e̲

         For calculation of seek time it is assumed that the
         d̲a̲t̲a̲ are uniformly distributed, i.e. the probability
         of the data being located on a certain track is the
         probability of the head having to move from that track
         to any other track and equal to 1/N where N is the
         number of tracks per head.

         From J. Martin, Design of Real Time Computer System,
         Chapter 28, page 441 the mean number of tracks to be
         traversed and the variance are found as

         X = (N…0e…2…0f… - 1)/3N  N/3

          …0f…x…0e……0e…2…0f… = (N…0e…4…0f… + N…0e…2…0f… - 2) / 18N…0e…2…0f…   N…0e…2…0f…/18

         Fig. 4.5.1-2 presents the SEEK TIME as a function of
         tracks moved and the CAMPS linear approximation to
         the seek time: I̲t̲ ̲i̲s̲ ̲i̲m̲p̲o̲r̲t̲a̲n̲t̲ ̲t̲o̲ ̲n̲o̲t̲i̲c̲e̲ ̲t̲h̲a̲t̲ ̲t̲h̲e̲ ̲C̲A̲M̲P̲S̲
         ̲d̲a̲t̲a̲ ̲m̲a̲y̲ ̲b̲e̲ ̲c̲o̲n̲s̲t̲r̲a̲i̲n̲e̲d̲ ̲t̲o̲ ̲t̲h̲e̲ ̲f̲i̲r̲s̲t̲ ̲2̲0̲0̲ ̲t̲r̲a̲c̲k̲s̲ ̲p̲e̲r̲
         ̲h̲e̲a̲d̲:̲ the 5 heads will provide one access area of 5
         x 200 x 20106 = 20.1 Mbytes. Consequently

         t…0f…SEEK…0e… (X) = 10 + 0.12 x X (ms)

           …0f…SEEK…0e… = 0.12 x    X…0e…2…0f…



         For N = 200 we find

         t…0f…SEEK…0e… = 20 ms

         (  …0f…SEEK…0e…/t…0f…SEEK…0e…)…0e…2…0f… = 0.08

           …0e…2…0f… SEEK = 32 ms…0e…2…0f…

         D̲i̲s̲c̲ ̲A̲c̲c̲e̲s̲s̲ ̲F̲a̲u̲l̲t̲ ̲R̲e̲c̲o̲v̲e̲r̲y̲ ̲M̲e̲c̲h̲a̲n̲i̲s̲m̲s̲

         The following Fault Recovery mechanisms are designed
         for a single disc:

         -   If a bad sector is found during write an alternative
             secter is searched for moving the data.

         -   If a bad sector is read from a disc an alternative
             secor with the moved contents will be searched.

         This scheme is improved/changed by the presence of
         mirrorred discs:

         -   If a bad sector is found during a READ, and there
             is no replacement the corresponding sector is searched
             on the dual disc and inserted in the "bad" sector
             (it was probably not a "hard" error) or in a replacement.

         -   The second disc WRITE is initialised as soon as
             the first one fails and before a replacement is
             searched.
             During a sector modification a power failure would
             lead to loss of data if WRITE's were performed
             in parallel; consequently the second write is delayed.
             This precaution does not have an impact on the
             throughput since the second disc may be used for
             other requests while doing the first WRITE, but
             it does have the effect of making the access time
             twice as long for a WRITE (not considering queuing
             effects).


             HEAD NO                   TRACK

                 0

                 1

             SERVO

                 2

                 3

                 4

                               CYLINDER

         TRACKS PER HEAD = 808

         TRACKS PER CYLINDER = NUMBER OF HEADS = 5

         BYTES PER TRACK = 20106

         BYTES PER HEAD = 16245648

         BYTES TOTAL = 20106 x 808 x 5 = 81228240




         FIG. 4.5.1-1…01…DISC CONFIGURATION…01…SMD 9762


SEEK TIME
ms




60




50




40




30
                     t…0f…SEEK…0e… = 10 + 0.12 x tracks



20




10


  CAMPS DATA

         200          400          600          800        
                                                          tracks








                       FIG. 4.5.1-2


4.5.2    D̲I̲S̲C̲ ̲A̲C̲C̲E̲S̲S̲ ̲D̲E̲L̲A̲Y̲ ̲&̲ ̲T̲H̲R̲O̲U̲G̲H̲P̲U̲T̲

         The queuing based on the disc access time t…0f…DISC…0e… (refer
         section 4.5.1) may now be formulated:

         DISC READ's will see one multiserverqueue, which expresses
         the fact that any of the two mirrorred which is first
         available may be used. The queuing formula is given
         in section 4.2.3. In case of priority the non-preemptive
         queuing shall apply.

         The service time is t…0f…s…0e… = t…0f…DISC…0e… and the load   …0f…s…0e… = 
         …0f…DISC…0e… = ( (NRE/2)(1-P…0f…HIT,CACHE…0e…) + NWR) x t…0f…DISC…0e…

         where

         NRE   total number of READ's per sec
         NWR   total number of WRITE's per sec

         P…0f…HIT, DISC…0e…  Disc Cache Hit Probability

         The queuing for READ's at highest priority is 

         t…0f…QREAD…0e… = t…0f…DISC…0e… + (1-P…0f…HIT,DISC…0e…) x W…0f…1…0e…(t…0f…DISC…0e…,…0f…DISC1…0e…) x
                    (B…0f…DISC1…0e…/2)…0f…/  …0f…DISC1…0e… + P…0f…HIT, DISC…0e… x 
                    t…0f…CACHE,DISC…0e…


         where

         B…0f…DISC1…0e…      probability of 2 servers being busy at
                     the load   …0f…DISC1…0e… for highest priority.

         t…0f…CACHE, DISC…0e…      time for retrieving data from disc
                           CACHE, i.e. the CONTROLLER RAM. According
                           to section 4.4.1 it is about 1.5
                           ms. The CACHE service time is so
                           short that queuing may be neglected.

         DISC WRITE's will see the same queue as above until
         the first WRITE request is executed; whereas the first
         WRITE has to wait until one of two disks are free,
         the second write is 


         prevented access if one and only one disc is busy (when
         the first WRITE is executed) and furthermore it has
         to wait for the first write to be finished. The result
         is:

         t…0f…QWRITE…0e… = 2t…0f…DISC…0e… + W…0f…1…0e…(t…0f…DISC1,   DISC1,   DISC…0e…) x

                     (B…0f…DISC1…0e…/2)/  …0f…DISC1…0e… +

                     W…0f…1…0e…(t…0f…DISC,  DISC1,  DISC…0e…)(P…0f…DISC1…0e…/2)/…0f…DISC1…0e…

         where P…0f…DISC1…0e… is the probability of one of 2 servers
         being busy at the load   …0f…1…0e… =   …0f…DISC1…0e… of the highest
         priority.

         The factor P…0f…DISC1…0e… and the factor B…0f…DISC1…0e… shall be calculated
         on the worst case assumption of exponential processing:

         B…0f…DISC1…0e… = 2   …0e…2…0f……0f…DISC1…0e… / (1 +   …0f…DISC1…0e…)

         P…0f…DISC1…0e… = 2   …0f…DISC1…0e… (1 -   …0f…DISC1…0e…) / (1 +   …0f…DISC1…0e…)

         The waiting for the second write approaches half the
         service time t…0f…DISC1…0e… at high load.

         The varians of the service time is found to be:

         (   …0f…DISC…0e…)…0e…2…0f… =   …0e…2…0f……0f…SEEK…0e… +   …0e…2…0f……0f…ROT…0e… = 55ms…0e…2…0f…

         and the service time:

         t…0f…DISC…0e… = t…0f…HDL…0e… + t…0f…CHAN…0e… + t…0f…SEEK…0e… + t…0f…ROT…0e… + t…0f…CONTR…0e… 
         = 3̲6̲.̲8̲m̲s̲

         using previous results of section 4.5.1.

         (   …0f…s…0e…/t…0f…s…0e…)…0e…2…0f… = (   …0f…DISC…0e…/t…0f…DISC…0e…)…0e…2…0f… = 0.06

         which shall be used for the waiting time formulas.

         The varians for the queuing time is found for READ's
         and WRITE's separately. For WRITE's it is the sum of
         varians for two queues with the same service time t…0f…DISC…0e….
         The varians for a multiserver assembly may be found
         as explained in section 4.2.3.

         Throughput for the server is expressed by the load
           …0f…DISC…0e….



         Finally, we shall consider the case of the high load
         used in section 4.4:

         25 READ's and 10 WRITE's in a busy minute. P…0f…HIT,CACHE…0e…
         = 0 is assumed.

         We find   …0f…DISC…0e… = 0.69

         and

         t…0f…QWRITE…0e… = 2.70 x t…0f…DISC…0e… = 83ms

         t…0f…QREAD…0e…  = 1.48 x t…0f…DISC…0e… = 46ms

         The average number of requests waiting in the PU, in
         the CONTROLLER, or being transferred to the DISC is
         given as t…0f…q…0e…/t…0f…a…0e… where t…0f…a…0e… is the request arrival time

         t…0f…aREAD…0e…  = 1/(NRE (1-P…0f…HIT,CACHE…0e…)/2)

         t…0f…aWRITE…0e… = 1/NWR

         We then derive the values:

         Number of WRITE's in system  =  0.8

         Number of READ's in system   =  0.6

         No priority queuing is assumed in above calculations.

         Limitations in terms of multiprocessing and queue lengths
         shall thus not be expected from the DISCs (refer section
         4.1).



4.6      Q̲U̲E̲U̲I̲N̲G̲ ̲O̲F̲ ̲F̲U̲N̲C̲T̲I̲O̲N̲A̲L̲ ̲R̲E̲Q̲U̲E̲S̲T̲S̲



         Queuing phenomena at different levels of the processing
         hierarchy shall be investigated.





4.6.1    Q̲U̲E̲U̲I̲N̲G̲ ̲B̲E̲L̲O̲W̲ ̲L̲E̲V̲E̲L̲ ̲O̲F̲ ̲A̲P̲P̲L̲I̲C̲A̲T̲I̲O̲N̲ ̲P̲R̲O̲C̲E̲S̲S̲ ̲A̲N̲D̲ ̲C̲O̲R̲O̲U̲T̲I̲N̲E̲
         Q̲u̲e̲u̲i̲n̲g̲ ̲f̲o̲r̲ ̲N̲o̲n̲-̲c̲o̲n̲c̲u̲r̲r̲e̲n̲t̲ ̲S̲y̲s̲t̲e̲m̲ ̲F̲u̲n̲c̲t̲i̲o̲n̲s̲

         This is a case of queuing for the PU only. Table 3.6.1-1
         lists the load of the major non-concurrent System Functions
         which on request will result in additional queuing
         on top of the queuing for the PU (3 multiserving assembly).
         A non-concurrent function may only be performed in
         one CPU at any time.

         Some of the functions are served by coroutines in the
         same process and their loads shall then be added when
         calculating the queuing for any of them.

         With reference to the discussion in section 1.2.1.3
         and the basic formulas of section 4, the basis is established
         for the calculations of table 4.6-1: The queuing factor
         for PU processing, corresponding to concurrent processing,
         and the queuing factor for 2 cases of non-concurrent
         processing.

         For a̲l̲l̲ CPU processing calculations, the queuing for
         PU shall include the effect of queuing for the non-concurrent
         System Functions: Some requests of processing, for
         which requirements have been stated, do not involve
         use of these System Functions to the extent of an average
         request, whereas others require more non-concurrent
         System Function processing; however, considering the
         difference between an overall queuing factor of 1.06
         and one of 1.26 (refer table 4.6.1-1) in the light
         of the estimation accuracy of CPU time consumption,
         which may be in the order of 20 per cent, it is found
         appropriate to introduce for the ease of calculations
         an o̲v̲e̲r̲a̲l̲l̲ ̲q̲u̲e̲u̲i̲n̲g̲ ̲f̲a̲c̲t̲o̲r̲ ̲a̲t̲ ̲t̲h̲e̲ ̲l̲e̲v̲e̲l̲ ̲o̲f̲ ̲c̲a̲l̲l̲s̲ ̲f̲o̲r̲
         ̲P̲U̲-̲p̲r̲o̲c̲e̲s̲s̲i̲n̲g̲ ̲i̲n̲v̲o̲l̲v̲i̲n̲g̲ ̲C̲A̲M̲P̲S̲ ̲S̲y̲s̲t̲e̲m̲ ̲F̲u̲n̲c̲t̲i̲o̲n̲s̲.

         This queuing factor is found by weigthing the queuing
         factors to the relative total load of 3 groups of functions:
         Non-concurrent functions having a load higher than
         0.2 (table 3.6.1-1) in one CPU are assigned a queue
         factor corresponding to a load of 0.3, others with
         a load below that are assigned a queue factor corresponding
         to the load 0.2 in one CPU, and concurrent processing
         functions 


         consuming the rest of the total time calculated in
         one CPU are assigned the queue factor of the multiserving
         PU. With reference to the tables 3.6.1-1 and 4.6.1-1
         the following O̲V̲E̲R̲A̲L̲L̲ ̲P̲U̲-̲Q̲U̲E̲U̲I̲N̲G̲ ̲F̲A̲C̲T̲O̲R̲ ̲Q…0f…TPU…0e… is derived
         for B̲U̲S̲Y̲ ̲H̲O̲U̲R̲.

         Q…0f…TPU…0e… = (1/1.48) (0.57 x 1.26 + 0.68 x 1.18 + 0.23 x
         1.06)
                = 1.19

         With a queuing factor of this order the varians is
         still the same as for the service time, i.e. 1/R =
         1/3.



          ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
         ̲ ̲ ̲ ̲ ̲ ̲

          ̲I̲T̲E̲M̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲L̲O̲A̲D̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲Q̲U̲E̲U̲E̲ ̲F̲A̲C̲T̲O̲R̲
         ̲

         Queuing for PU:3       Per CPU: 0.43       Q…0f…PU…0e… = 1.06
         multiserving CPU's

         Queuing for NON-           0.18                1.18
         CONCURRENT SYSTEM
         FUNCTION: 
         Load = 0.20

         As above but               0.28                1.26
         Load = 0.30

          ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
         ̲ ̲ ̲ ̲ ̲ ̲



         S̲Y̲S̲T̲E̲M̲ ̲F̲U̲N̲C̲T̲I̲O̲N̲,̲ ̲N̲O̲N̲-̲C̲O̲N̲C̲U̲R̲R̲E̲N̲T̲:

         ITEM loads are section 3 loads
         QUEUE FACTORs are relative to section 3 service times
            …0f…CPU…0e… =   …0f…SCPU…0e… x INC = (load section 3) x INC x PF…0f…ts…0e…
         =

         0.87 x (load section 3)

         LOAD =   …0f…CPU…0e… x Q…0f…PU…0e…

         QUEUE FACTOR = Q…0f…PU…0e… x (single server queuing with parameter
         LOAD)

         TABLE 4.6.1-1  QUEUING CALCULATIONS for CPU based on
         BUSY HOUR loading of table 3.6.1-1. Refer section 4
         for basic formulas. P…0f…CACHE,HIT…0e… = 0.5.


         C̲o̲r̲o̲u̲t̲i̲n̲e̲s̲ ̲i̲n̲ ̲A̲p̲p̲l̲i̲c̲a̲t̲i̲o̲n̲ ̲P̲r̲o̲c̲e̲s̲s̲e̲s̲

         Requests for coroutines in an application process will
         first queue according to the total d̲i̲r̲e̲c̲t̲ CPU load
         of all coroutines of the same process (assuming they
         are requested independantly). The direct CPU load shall
         be the absolute load in one CPU.

         The total direct (absolute) CPU load is 8 per cent
         according to table 3.6.1-1. Considering that this load
         is split on a number of functions, where none is dominating
         and which in many cases are executed by a number of
         processes, it is seen that queuing for non-relevant
         coroutines may be ignored.

         Investigation of the tables in section 3 reveals that
         this argument shall also apply during busy min. traffic.

         Queuing for relevant single or set of duplicate coroutines
         shall not be ignored, however; since the processing
         of one coroutine request is not finished before all
         related system calls have been e̲x̲e̲c̲u̲t̲e̲d̲ the queuing
         may be considerable. Refer to section 4.6.2 for queuing
         at the application level and to the results of section
         5.2.

         One remedy against excessive queuing might be the introduction
         of additional coroutines as incarnations.

         D̲i̲s̲c̲u̲s̲s̲i̲o̲n̲

         We shall shortly discuss the assumption of poisonian
         arrival of request for CPU and disc processing.

         The poisonian arrival of requests for CPU time slice
         or disc access shall apply to both the traffic arrival
         variations and the variation in processing of each
         unit of traffic, i.e. incoming message, message for
         preparation, etc.

         Since the number of CPU time slice or disc access requests
         per traffic unit has a rather high average, we may
         conclude, also when as a worst case the variation of
         this number is poisonian (refer section 4.6.2), that
         the arrival of requests is not poisonian but rather
         a poisonian spread of constant arrival periods.

         T̲h̲u̲s̲ ̲t̲h̲e̲ ̲a̲s̲s̲u̲m̲p̲t̲i̲o̲n̲ ̲o̲f̲ ̲p̲o̲i̲s̲o̲n̲i̲a̲n̲ ̲a̲r̲r̲i̲v̲a̲l̲ ̲o̲f̲ ̲r̲e̲q̲u̲e̲s̲t̲s̲
         ̲i̲s̲ ̲a̲ ̲w̲o̲r̲s̲t̲ ̲c̲a̲s̲e̲ ̲a̲s̲s̲u̲m̲p̲t̲i̲o̲n̲ ̲i̲n̲ ̲q̲u̲e̲u̲i̲n̲g̲ ̲c̲a̲l̲c̲u̲l̲a̲t̲i̲o̲n̲s̲.

         For further discussion on this subject: refer section
         4.6.3.


         V̲a̲r̲i̲a̲n̲s̲ ̲C̲a̲l̲c̲u̲l̲a̲t̲i̲o̲n̲s̲

         The varians of the response (= queuing) time at the
         level of coroutines and processes is a result of PU
         instruction time and disc access time variations (as
         treated in previous subsections of section 4) and shall
         depend on the number of visits to the PU and the discs.
         Varians contributions from TDX and I/O channel system
         may be ignored.

         Assume a varians contribution ( …0f…i…0e……0e…2…0f…) at each visit to
         a service position i; after N…0f…i…0e… visits the varians is
         N…0f…i…0e… x ( …0f…i…0e…)…0e…2…0f…. The final varians is found as:

      …0e…2…0f… =   …0f…i…0e… N…0f…i…0e… (  …0f…i…0e…)…0e…2…0f… =   …0f…i…0e… N…0f…i…0e…(   …0f…i…0e…/t…0f…i…0e…)…0e…2…0f… (t…0f…i…0e…)…0e…2…0f…

         where t…0f…i…0e… is the queuing time of position i.

         Visits to disc for READ's and WRITE's are treated separately.
         N…0f…i…0e… for the PU is found (conservative estimate) by dividing
         the total PU response time with the size of a time
         slice.

         Using the fact that t…0f…i…0e… = T…0f…i…0e…/N…0f…i…0e…, where the total response
         time at this level is T =   …0f…i…0e… T…0f…i…0e…, the formula for 
         …0e…2…0f… may be further developed.

           …0e…2…0f… =   …0f…i…0e… (  …0f…i…0e…/t…0f…i…0e…)…0e…2 x ((T…0f…i…0e…)…0e…2…0f…/N…0f…i…0e…)

         We shall introduce the VARIANCE FACTOR.

         VF…0f…i…0e… = (  …0f…i…0e…/t…0f…i…0e…)…0e…2…0f… x 1/N…0f…i…0e…

         Hence we may write:

         1/R = (  /T)…0e…2…0f… =   …0f…i…0e… VF…0f…i…0e… (T…0f…i…0e…/T)…0e…2…0f…

         The application of 1/R in calculating the final response
         time shall be discussed in section 4.6.2.



4.6.2    Q̲U̲E̲U̲I̲N̲G̲ ̲A̲T̲ ̲T̲H̲E̲ ̲L̲E̲V̲E̲L̲ ̲O̲F̲ ̲A̲P̲P̲L̲I̲C̲A̲T̲I̲O̲N̲

         An application will often consist of a string of functional
         calls, each function corresponding to one of the functions
         in section 3. Each of the functional calls will be
         served by a process or a coroutine in a process. The
         final response time is found by adding the queue times
         for visits to the processes (or coroutines) involved.


         In the response time calculations for processes or
         coroutines (single server or multiserver depending
         on the number of incarnations of coroutines and processes)
         the varians relative to the response time is found,
         i.e. 1/R according to subsection 4.6.1.

         Also the final 1/R for the application must be known
         for estimation of the final response time probability
         distribution. This is the subject of this subsection.

         V̲a̲r̲i̲a̲n̲c̲e̲ ̲C̲a̲l̲c̲u̲l̲a̲t̲i̲o̲n̲s̲

         The varians calculations in section 4.6.1 concentrated
         on the contributions due to variations in the PU and
         disc queuing time.

         There is, however, another source for response time
         variations, which in general is much more influential:
         Variations in required processing, i.e. number of request
         to PU and discs, per repeated request for the same
         application.

         It is seen that not only processing time variations
         of the application request in question are of interest;
         also variations in the number queued requests of all
         other simultaneous request for the same application
         will influence the response time.

         Since most processing is related to messages, we shall
         here discuss the probability distribution of the message
         processing needs as a function of the service time;
         queuing time variations are discussed later. Table
         4.6.2-1 presents important characteristics of a message.

         In order to show the estimation of the variations of
         processing needs, the case of incoming message analysis
         has been investigated and is presented here:


          ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
         I̲T̲E̲M̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲A̲V̲E̲R̲A̲G̲E̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲M̲A̲X̲ ̲ ̲ ̲ ̲

         MSG. LENGTH …0e…*)…0f…        1500             12,000
          ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

         PLA's                      7                250
          ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

         RI's                       5                200
          ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲


         TABLE 4.6.2-1  Message Processing Characteristics

         

         …0e…*)…0f…  The msg. length is negativ exponentially distributed.


          ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
         I̲T̲E̲M̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲S̲E̲R̲V̲I̲C̲E̲ ̲T̲I̲M̲E̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

         Msg. Analysis,
         Average Msg.                  701ms
          ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

         Msg. Analysis,
         Maximum Size                 1985ms
         Msg. …0e…*)…0f…
          ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲


         TABLE 4.6.2-2  Variations in Msg. Analysis Service
         Time
                        (queuing for nonconcurrent processing
                     not
                        included)

         …0e…*)…0f…  Refer table 3.4-8: 0.1 AIG  replaced by 1 AIG 
             , 1 MSG.FCTS READ and 1 WRITE replaced by 8 READ's
             and 8 WRITE's.

                 Refer table 3.4-9: 0.1 AIG  and 5 PLA's replaced
                 by 3 AIG's  and 150 PLA's, 1 MSG.FCTS READ
                 and 1 WRITE replaced by 8 READ's and 8 WRITE's.


         Contributions from both relayed and non-relayed messages
         have been considered and weighted according to the
         number of messages in the two cases. Refer table 4.6.2-2.

         In the following considerations we will use the fact
         that the service time probability distribution may
         be approximated by a GAMMA function with the parameter
         R where 1/R = (   /t)…0e…2…0f……0f…s…0e… is the varians. The approximation
         is reasonable for service times not too much higher
         or lower than the average service time.

         From table 4.6.2-2 it is found that the ratio between
         average service time and maximum service time is 2.8.
         Comparing the rectangular distribution with (1/R) =
         0.33 and a maximum variation of 2 times the service
         time which corresponds to the probability 0.94 of the
         corresponding GAMMA function approximation, we find
         for a maximum variation of 2.8 at the same probability
         the GAMMA function corresponding to exponential distribution
         (1/R = 1).

         Although we have considered the message analysis distribution
         above, we shall still in each case of response time
         calculations estimate the varians separately.

         As discussed in I. Martin, Design of Real Time Computer
         System, chapter 26, page 387, both waiting times and
         service times may be approximated reasonably well by
         a GAMMA function, and the sum of these functions, the
         queuing time, is another GAMMA function with the parameter
         Rq.

         1/Rq = (1/(1-   ))…0e…2…0f…  ((1-(   /6)(4-   )(1-1/R)) (1+1/R)

         - (1-(   /2)(1-1/R)) …0e…2…0f…)

         X̲ ̲P̲e̲r̲ ̲C̲e̲n̲t̲ ̲F̲a̲c̲t̲o̲r̲ 

         As already discussed above, any sum of response time
         contributions may be approximated by a GAMMA function
         with a varians equal to the sum of all varians contributions,
         properly weigthed according to the corresponding response
         time.



         Introducing the varians (1/R)…0f…p…0e… for a visit to a 
         function p, the total number of visits being N…0f…p…0e… for
         the application in question, and 

         VF…0f…p…0e… = (1/R)…0f…p…0e… (1/N…0f…p…0e…)

         we find as in section 4.6.1

         1/R =   …0f…p…0e… VF…0f…p…0e… (T…0f…p…0e…/T)…0e…2…0f…

         for the varians of the resulting response time 
         T =   …0f…p…0e…N…0f…p…0e…T…0f…p…0e… 

         The probability of the response time being less than
         a time t with probability x,t = (X per cent factor),
         T may be found from the GAMMA function with the parameter
         R.



4.6.3    M̲a̲x̲i̲m̲u̲m̲ ̲Q̲u̲e̲u̲i̲n̲g̲ ̲T̲i̲m̲e̲s̲

         In two cases, delivery of incoming messages and supervisory
         command execution, response time requirements have
         been stated for the absolute worst case: The 100 per
         cent response time requirements which shall apply to
         the response time never to be exceeded.

         Obviously such requirements cannot be fulfilled within
         a processing environment which includes the case of
         an infinitely large traffic as a statistic probability.
         Consequently, constraints shall be applied according
         to the physical reality.

         As mentioned in the "Discussion" of section 4.6.1,
         the processing request (for CPU time slices and disc
         access) may be considered arriving as a superposition
         of two sources: A poisonian arrival of traffic units
         for processing which give rise to a number of requests,
         this number having an approximated poisonian variation
         with a maximum deviation from the average value of
         2.8 for the worst case application (refer section 4.6.2).

         We shall take the busy minute traffic arrival rate
         as the maximum rate for arrival of functional requests
         or traffic units (the busy second character flow must
         last for more than 30 seconds to produce the same traffic
         and is thus obviously not the limit to be used).


         In a busy minute the incoming traffic rate is 3 times
         the busy hour rate and the outgoing traffic rate is
         2 times the busy hour rate. Using the factor 3 as a
         general worst case and using the fact that the traffic
         has a poisonian arrival (GAMMA function for parameter
         R = 1) the probability of a traffic rate higher than
         the required maximum is 5 per cent.

         In section 4.6.2 we found a probability of 6 per cent
         of exceeding the worst case maximum when assuming a
         GAMMA function processing time distribution (also poisonian,
         i.e. R = 1) per traffic unit.

         Considering the traffic arrival to be independant of
         the processing time variations the probability of both
         limits to be reached at the same time is 0.06 x 0.05
         = 0.003.

         Having found the GAMMA function approximation (the
         R-value) for the response time in question we may then
         c̲a̲l̲c̲u̲l̲a̲t̲e̲ ̲t̲h̲e̲ ̲m̲a̲x̲i̲m̲u̲m̲ ̲r̲e̲s̲p̲o̲n̲s̲e̲ ̲t̲i̲m̲e̲ ̲a̲s̲ ̲t̲h̲e̲ ̲9̲9̲.̲7̲ ̲p̲e̲r̲
         ̲c̲e̲n̲t̲ ̲v̲a̲l̲u̲e̲, refer section 4.6.2, the x per cent factor.



4.7      C̲O̲N̲C̲L̲U̲S̲I̲V̲E̲ ̲M̲O̲D̲E̲L̲ ̲C̲O̲N̲S̲I̲D̲E̲R̲A̲T̲I̲O̲N̲S̲

         With reference to the discussion in section 4.1, and
         the corresponding considerations at the end of each
         of the following sections, it may now be concluded
         that response time calculations may be found by adding
         the contributions from each server position, these
         contributions being calculated on basis of poisonian
         arrival of request. This result is due to the very
         short or not existing queues at the service positions.



5.       P̲E̲R̲F̲O̲R̲M̲A̲N̲C̲E̲ ̲C̲A̲L̲C̲U̲L̲A̲T̲I̲O̲N̲S̲ 



         Based on the result of section 3 (load requirements)
         and the set of queuing formulas presented in section
         4 each of the response time requirements listed in
         section 2 shall be analysed (section 5.1).



         Section 5.2 will concentrate on the throughput. Special
         consideration is given to the effects of functional
         queuing.

         Sizing considerations are presented in section 5.3:
         DISC STORAGE and PU - memory layout.



5.1      R̲E̲S̲P̲O̲N̲S̲E̲ ̲T̲I̲M̲E̲S̲

5.1.1    R̲e̲s̲p̲o̲n̲s̲e̲ ̲T̲i̲m̲e̲s̲ ̲w̲i̲t̲h̲o̲u̲t̲ ̲P̲r̲i̲o̲r̲i̲t̲y̲ ̲Q̲u̲e̲u̲i̲n̲g̲

         Response times shall be calculated at each server separately
         taking into account multiple visits to each server.

         The basic set of formulas and system parameters are
         given in section 4, whereas the resource needs and
         corresponding loads to the system are presented in
         section 3.

         Response time calculations shall be based on the B̲U̲S̲Y̲
         ̲H̲O̲U̲R̲ traffic.

         Table 5.1-1 summarises the calculation tools, and the
         related assumptions, to be used in the response time
         calculations. They apply to the level of application
         processing for processes and coroutines, whichever
         applies. Priority queuing is not considered in this
         subsection.

         The are 50% CPU CACHE HITS and no DISC CACHE HITS assumed.

         There is no queuing due to I/O CHANNEL or TDX system.

         Terminal queuing is n̲o̲t̲ included in response time requirements.
         

         The varians of the TDX transfer times is assumed to
         be ignorable due to the fixed bandwidth per channel.


          ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
         ITEM            QUEUE FACTOR      RELATIVE
          ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲V̲A̲R̲I̲A̲N̲S̲ ̲=̲ ̲1̲/̲R̲

         PU                  1.19             0.33   
          ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

         DISC READ           1.10             0.06   
          ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

         DISC WRITE          2.24             0.06   
          ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲


         TABLE 5.1-1:      Basic Queuing Factors and low level
                           Relative Varians figures for response
                           time calculations.

                           Queue factors produce the full response
                           time for CPU and DISC service with
                           a service time equal to the resource
                           consumption of section 3 at the level
                           of an application process or coroutine.
                           The disc service time above correspond
                           to o̲n̲e̲ disc access per READ or WRITE
                           request.

                           P…0f…HIT…0e… = 0.5 for CPU CACHE

                           P…0f…HIT…0e… = 0 for DISC CACHE

                           NO PRIORITY queuing

         R̲e̲s̲p̲o̲n̲s̲e̲ ̲T̲i̲m̲e̲ ̲T̲a̲b̲l̲e̲s̲

         The response time requirements listed in section 2
         are treated in a standardised set of tables.

         There are generally two kinds of tables, functional
         response time and application time calculation tables.

         The functional response time tables are built as follows
         (refer table 5.1.1-4-1):
         Each function, which is one step in an applicational
         string, has in principle its own table. The function
         shall correspond to one of the functions in section
         3, and a reference to the appropriate table is inserted.



         The resource needs are listed: CPU service time, number
         of disc reads and writes, and service time for TDX
         and channel I/O's. The disc set 2 is an option which
         is of n̲o̲ relevance for these calculations.

         The CPU service time shall be the one listed in section
         3, since queuing factors shall include the effects
         of time slicing, CPU CACHE and Processor Bus queuing.

         The first lower line displays the service time needs
         per resource, disc accesses converted to time.

         Queuing factors in the following line shall multiply
         the service times, the result being written on the
         line below together with a summation: T is the a̲v̲e̲r̲a̲g̲e̲
         ̲s̲e̲r̲v̲i̲c̲e̲ ̲t̲i̲m̲e̲ for the function.

         The next line, below the "T" line, contains the varians
         contributions for each resource, the sum of which is
         the parameter 1/R for the resulting GAMMA function
         approximation to the service time probability distribution.
         1/R represents the resulting varians due to low level
         (CPU instruction time and disc access time variations)
         multiple visits to the PU plus the varians due to changes
         in processing needs for the function (message size
         and contents, etc.) as reflected in number of access
         requests to PU and DISCs. The latter contribution is
         usually by far overriding. Refer section 4.6 for details.

         The last line displays the a̲v̲e̲r̲a̲g̲e̲ ̲r̲e̲s̲p̲o̲n̲s̲e̲ ̲t̲i̲m̲e̲ found
         by applying the single server queuing factor corresponding
         to the load of the function (fraction of time) and
         the varians 1/R. The resulting varians (1/R)…0f…Q…0e… is also
         indicated, and the number of times the function is
         used in an applicational string.

         The load of the function is calculated in a separate
         service time table: Same format as the functional response
         time table, but the "T" is replaced by the load (refer
         table 5.1.1-2).

         In cases where an application only has one (or few)
         functions, the last line may also display the required
         response time compared to the calculated response time
         (the X per cent factor found on basis of the 1/R value).
         Refer table 5.1.2-5.



         For applications where the processing is a string of
         functional requests (each of these with separate queuing)
         the associated tables are carrying numbers which display
         the group association.

         The final table in such a group is always the application
         response time calculation table (refer table 5.1.1-4-4).
         This table lists the functional response time and varianses.

         The resulting applicational a̲v̲e̲r̲a̲g̲e̲ ̲r̲e̲s̲p̲o̲n̲s̲e̲ ̲t̲i̲m̲e̲ (there
         is no queuing at this level) and varians are found
          by summation (in case of the varians with application
         of proper weighting factors, refer section 4.6). They
         are displayed on the first lower line together with
         the X per cent factor (Refer section 4.6).

         By applying the X per cent factor to the a̲v̲e̲r̲a̲g̲e̲ ̲r̲e̲s̲p̲o̲n̲s̲e̲
         ̲t̲i̲m̲e̲, the X per cent response time is found, which
         on the last line is compared to the required response
         time.

         This table also provides space for comments.



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                     CPU   DISC   SET1   DISC   SET2   TDX   CHANNEL
                        S     R      W      R      W                  
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

T̲O̲T̲A̲L̲ ̲A̲C̲C̲O̲U̲N̲T̲/̲H̲O̲U̲R̲:

INC.MSG. ANALYSIS
incl. comments &
VDU pages
1 coroutine
Ref. Table 3.4-8       147   1306   523
           3.4-9        32   462     44
           3.4-10        3    17     17
           3.4-11       30   165    165

TDX Transfers
for checkpoints
not included










 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
TOTAL ACC. SEC/SEC.    0.060 0.020  0.006        BASIC LOAD
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS        1.19  1.10   2.24
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
LOAD = 0.10            0.07  0.02   0.01
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R = 1.0
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… =                      (1/R)…0f…Q…0e…                  N =
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
                             TABLE 5.1.1-2



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                     CPU   DISC   SET1   DISC   SET2   TDX   CHANNEL
                        S     R      W      R      W                  
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

T̲O̲T̲A̲L̲ ̲A̲C̲C̲O̲U̲N̲T̲/̲H̲O̲U̲R̲:

DISTRIBUTION
1 coroutine
Ref. Table 3.4-12      202   3200   320
           3.4-13       49   770     77
           3.4-14        4    45     15
           3.3-14       50   700     70
           3.3-15        7    90    
           3.3-16        5    60
           3.3-17        9   120
           3.3-18       12   165

TDX Transfers
for checkpoints
not included








 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
TOTAL ACC. SEC/SEC.    0.094 0.052  0.005        BASIC LOAD
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS        1.19  1.10   2.24
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
LOAD = 0.18            0.11  0.06   0.01
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R = 0
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… =                      (1/R)…0f…Q…0e…                  N =
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
                             TABLE 5.1.1-3



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                     CPU   DISC   SET1   DISC   SET2   TDX   CHANNEL
                       ms     R      W      R      W                  
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

I̲N̲C̲ ̲M̲S̲G̲ ̲I̲N̲P̲U̲T̲:

Counting from arrival
of last data block in
PU (Queuing for corou-
tine thus not included)
Ref. Table 3.4-5:      160          2
20ms direct CPU, TDX
& CHANNEL transfers, 
MSG.CREATE…0e…*…0f…, and 
3 MSG.FCTS.WRITE n̲o̲t̲
included.

…0e…*…0f…  incl. off-loading

The CCIS MSG.INPUT
selected here represents
the general case (except
for encrypted msgs.)





 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms                     160           74
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS        1.19         2.24
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 361                190          166
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R = 0.1
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… = 361 ms               (1/R)…0f…Q…0e… = 0.1            N = 1
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
                            TABLE 5.1.1-4-1



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                     CPU   DISC   SET1   DISC   SET2   TDX   CHANNEL
                       ms     R      W      R      W                  
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

M̲S̲G̲.̲ ̲A̲N̲A̲L̲Y̲S̲I̲S̲:

Assume worst case of
complete analysis after
reception of last data 
block.
Ref. table 3.4-8       282   2.5    1

TDX transfer not 
included.

Multiply with weigthing
factor corresponding to
fraction of msg = 
475/515









 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms                     260   84      34
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R 
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e…                        (1/R)…0f…Q…0e… =                N 
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
                           TABLE 5.1.1-4-2-1



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                     CPU   DISC   SET1   DISC   SET2   TDX   CHANNEL
                       ms     R      W      R      W                  
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

M̲S̲G̲.̲ ̲A̲N̲A̲L̲Y̲S̲I̲S̲:

Assume worst case of
complete analysis after
reception of last data 
block.
Ref. table 3.4-9       792   10.5   1

TDX transfer not 
included.

Multiply with weigthing
factor corresponding to
fraction of msg = 
40/515









 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms                     62    30       2
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R 
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e…                        (1/R)…0f…Q…0e… =                N 
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
                           TABLE 5.1.1-4-2-2



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                     CPU   DISC   SET1   DISC   SET2   TDX   CHANNEL
                       ms     R      W      R      W                  
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

M̲S̲G̲.̲ ̲A̲N̲A̲L̲Y̲S̲I̲S̲:

Refer table 5.1.1-4-2-1:     260    84     34
            5.1.1-4-2-2:      62    30      2
















 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms                     322   114     36          BASIC LOAD
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS        1.19  1.10   2.24
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 589                383   125     81
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R = 1.0
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… …0e…*)…0f… = 654             (1/R)…0f…Q…0e… = 1.2            N = 1
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
…0e…*)…0f… Refer table 5.1.1-2
     for single server load


                           TABLE 5.1.1-4-2-3



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                     CPU   DISC   SET1   DISC   SET2   TDX   CHANNEL
                       ms     R      W      R      W     ms      ms   
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

M̲S̲G̲.̲ ̲D̲I̲S̲T̲R̲I̲B̲U̲T̲I̲O̲N̲:

Refer table 3.4-13:    630   10      1

TDX transfers not
included














 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms                     630   370     32          BASIC LOAD
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS        1.19  1.10   2.24
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 1249               749   407     83
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R = 0.1
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… …0e…*)…0f… = 1389            (1/R)…0f…Q…0e… = 0.1            N = 1
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
…0e…*)…0f… Refer table 5.1.1-3
     for single server load


                            TABLE 5.1.1-4-3



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                           T…0f…Q…0e…          (1/R)…0f…Q…0e…            N      
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

I̲N̲C̲.̲ ̲M̲S̲G̲.̲ ̲D̲E̲L̲I̲V̲E̲R̲Y̲:

Refer table 5.1.1-4-1         356          0.1
            5.1.1-4-2-3              654          1.2
            5.1.1-4-3        1389          0.1






















 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
                       T…0f…Q…0e… = 2399;  1/R = 0.14; 99% FACTOR = 2.0
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…REQ…0e… = 5.0 sec (99%) vs 4.8 sec.
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
C̲O̲M̲M̲E̲N̲T̲S̲:

The requirement is obviously fulfilled. Improvements may be obtained by processing
 msg. analysis and distribution as 1st priority processes. Refer section 5.1.2.


                            TABLE 5.1.1-4-4



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                           T…0f…Q…0e…          (1/R)…0f…Q…0e…            N      
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

I̲N̲C̲.̲ ̲M̲S̲G̲.̲ ̲D̲E̲L̲I̲V̲E̲R̲Y̲:

Refer table 5.1.1-4-4























 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
                       T…0f…Q…0e… = 2399;  1/R = 0.14; 99.7% FACTOR = 3.0
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…REQ…0e… = 10.0 sec (99.7%) vs 7.3 sec.
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
C̲O̲M̲M̲E̲N̲T̲S̲:

According to section 4.6.3 the maximum response time (without preemption)
 is fulfilled. Since the time for preemption of print is in the order of CMD
 LINE ENTRY (Table 5.1.2-5) the maximum (99.7%) requirement of 15 sec. in case
 of preemption is safely fulfilled.


                            TABLE 5.1.1-4-5


5.1.2    R̲e̲s̲p̲o̲n̲s̲e̲ ̲T̲i̲m̲e̲s̲ ̲w̲i̲t̲h̲ ̲T̲w̲o̲ ̲L̲e̲v̲e̲l̲ ̲P̲r̲i̲o̲r̲i̲t̲y̲ ̲Q̲u̲e̲u̲i̲n̲g̲

         This subsection presents the calculation of all response
         times, maximum (100%) response times being equivalent
         to 99.7% response times (refer section 4.6.3), for
         which a requirement has been stated.

         The assumptions are the same as in subsection 5.1.1
         except that 1st priority queuing has been assumed for
         Msg. Analysis and Distribution in order to achieve
         a better value for msg. delivery time; correspondingly
         all other response times are slightly increased, and
         these calculations may then be taken as worst case
         values.




                   P̲R̲I̲O̲R̲I̲T̲Y̲ ̲1̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲P̲R̲I̲O̲R̲I̲T̲Y̲ ̲2̲ ̲ ̲ ̲ ̲ ̲ ̲
         ̲ ̲ ̲ ̲
         I̲T̲E̲M̲ ̲ ̲ ̲ ̲ ̲ ̲Q̲U̲E̲U̲E̲ ̲F̲A̲C̲T̲O̲R̲ ̲ ̲ ̲ ̲1̲/̲R̲ ̲ ̲ ̲ ̲ ̲Q̲U̲E̲U̲E̲ ̲F̲A̲C̲T̲O̲R̲ ̲ ̲ ̲ ̲1̲/̲R̲
         ̲

         PU          1.02          0.33      1.25          0.33
          ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
         ̲ ̲ ̲ ̲

         DISC READ   1.07          0.06      1.11          0.06
          ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
         ̲ ̲ ̲ ̲

         DISC WRITE  2.15          0.06      2.25          0.06
          ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
         ̲ ̲ ̲ ̲

         TABLE 5.1.2-1  Basic Queuing Factor and Low Level
                        Relative Varians Figures for Response
                        Time Calculations
         Queue factors produce the full response time for CPU
         and DISC service with a service time equal to the resource
         consumption of section 3 below the level of application
         processes or coroutines. The disc service time above
         correspond to o̲n̲e̲ disc access per READ or WRITE request.

         P…0f…HIT…0e… = 0.5 for CPU CACHE

         P…0f…HIT…0e… = 0   for DISC CACHE

         1st and 2nd PRIORITY QUEUING: 1st PRIORITY processing
         for MSG ANALYSIS & DISTRIBUTION with LOADS as in tables
         5.1.1-2 and 5.1.1-3 (BASIC LOADS).



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                     CPU   DISC   SET1   DISC   SET2   TDX   CHANNEL
                       ms     R      W      R      W     ms      ms   
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

I̲N̲C̲.̲ ̲M̲S̲G̲.̲ ̲I̲N̲P̲U̲T̲:

As table 5.1.1-4-1:
but queue factors 
changed to 2nd PRIORITY.

These figures apply for
the worst case message
size as well.















 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms                     160    74
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS        1.25  2.25
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 367                200   167
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R = 0.1
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… = 340               (1/R)…0f…Q…0e… = 0.1            N = 1
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
                            TABLE 5.1.2-2-1



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                     CPU   DISC   SET1   DISC   SET2   TDX   CHANNEL
                       ms     R      W      R      W     ms      ms   
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

M̲S̲G̲.̲ ̲A̲N̲A̲L̲Y̲S̲I̲S̲:

As table 5.1.1-4-2-3:
but queue factors 
changed to 1st PRIORITY.













 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms                     322   114    36
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS        1.02  1.07   2.15
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 627                328   222     77
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R = 1.0
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… …0e…*)…0f… = 690          (1/R)…0f…Q…0e… = 1.2            N = 1
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
…0e…*)…0f… Ref. table 5.1.1-2
     for SINGLE SERVER LOAD:
     LOAD changed according to
     first priority queue factor


                            TABLE 5.1.2-2-2



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                     CPU   DISC   SET1   DISC   SET2   TDX   CHANNEL
                       ms     R      W      R      W     ms      ms   
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

M̲S̲G̲.̲ ̲D̲I̲S̲T̲R̲I̲B̲U̲T̲I̲O̲N̲:

As table 5.1.1-4-3:
but queue factors 
changed to 1st PRIORITY.

These figures apply 
for the w̲o̲r̲s̲t̲ ̲c̲a̲s̲e̲
distribution.









 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms                     630   370    37
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS        1.02  1.07   2.15
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 1117               642   396    79
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R = 0.1
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… …0e…*)…0f… = 1227         (1/R)…0f…Q…0e… = 0.1            N = 1
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
…0e…*)…0f… Ref. table 5.1.1-3
     for SINGLE SERVER LOAD:
     LOAD changed according to
     first priority queue factor


                            TABLE 5.1.2-2-3



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                           T…0f…Q…0e…          (1/R)…0f…Q…0e…            N      
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

I̲N̲C̲.̲ ̲M̲S̲G̲.̲ ̲D̲E̲L̲I̲V̲E̲R̲Y̲:

Refer table 5.1.2-2-1         367          0.1                 1
            5.1.2-2-2         690          1.0                 1
            5.1.2-2-3        1227          0.1                 1





















 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
                       T…0f…Q…0e… = 2284;  1/R = 0.11; 99% FACTOR = 2.0
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…REQ…0e… = 5.0 sec (99%) vs 4.6 sec.
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
C̲O̲M̲M̲E̲N̲T̲S̲:

Considering that Msg Distribution is accounted for maximum needs (3SIC's with
 3 SDL's) we may state that the requirement is safely fulfilled. Also the inclusion
 of relayed msg. with local distribution may be argued. Furthermore, table
 accesses are accounted for one access per key, which may be relaxed.

                            TABLE 5.1.2-2-4a



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                           T…0f…Q…0e…          (1/R)…0f…Q…0e…            N      
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

I̲N̲C̲.̲ ̲M̲S̲G̲.̲ ̲D̲E̲L̲I̲V̲E̲R̲Y̲:

Refer table 5.1.2-2-4b























 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
                       T…0f…Q…0e… = 2284;  1/R = 0.13; 99.7% FACTOR = 3.0
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…REQ…0e… = 10.0 sec (99.7%) vs 6.9 sec.
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
C̲O̲M̲M̲E̲N̲T̲S̲:

According to section 4.6.3 the maximum response time (without preemption)
 is fulfilled. Since time for preemption of print is in the order of CMD LINE
 ENTRY (table 5.1.2-5) the maximum (99.7%) requirement of 15 sec. in case of
 preemption is safely fulfilled.


                            TABLE 5.1.2-2-4b



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                     CPU   DISC   SET1   DISC   SET2   TDX   CHANNEL
                       ms     R      W      R      W     ms      ms   
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

2nd PRIORITY

C̲M̲D̲ ̲L̲I̲N̲E̲ ̲E̲N̲T̲R̲Y̲:

INVALID ENTRY RESPONSE

Entry Key reception    20                                 92
(8 characters)
Trans. of ARM sequence 20                                211
(20 characters)
Reception of CMD       20                                508
(50 characters)
Validation             25
Transfer of answer     20                                23
(1st character)





 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms                     705                               834
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS        1.25                              1.0
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 938                131                               834
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R …0e…*)…0f… = 0.0005        0.0005                            0.0
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…REQ…0e… = 1.0 sec (90%) vs. 0.99 sec.
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
…0e…*)…0f… 90% FACTOR = 1.03
     Low Level Varians only


                             TABLE 5.1.2-5



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                     CPU   DISC   SET1   DISC   SET2   TDX   CHANNEL
                       ms     R      W      R      W     ms      ms   
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

2nd PRIORITY

M̲S̲G̲.̲ ̲P̲R̲E̲P̲A̲R̲A̲T̲I̲O̲N̲:

Entry Key reception,
ARM sequence transfer,
Reception of CMD:
Refer table 5.1.2-5      63                              811

Refer table 3.3-1      1810  18.2   10
No queuing for func-
tion, since one 
coroutine per terminal

Transfer of "OK"       20                                211
(20 characters)





 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms                     1893  670    37                   1022
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS        1.25  1.11   2.25                 1.0
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 4213               2366  743    83                   1022
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R …0e…*)…0f… = 0.06          1.0                               0.0
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…REQ…0e… = 10.0 sec (90%) vs. 8.8 sec.
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
…0e…*)…0f… 90% FACTOR = 2.1


                             TABLE 5.1.2-6



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                     CPU   DISC   SET1   DISC   SET2   TDX   CHANNEL
                       ms     R      W      R      W     ms      ms   
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

2nd PRIORITY

S̲U̲P̲E̲R̲V̲I̲S̲O̲R̲Y̲ ̲C̲M̲D̲ 
E̲X̲E̲C̲U̲T̲I̲O̲N̲:

Entry Key reception,
ARM sequence transfer,
Reception of CMD:
Refer table 5.1.2-5      63                              811

2 disc table reads
plus 1 disc table write
= CPU time for 3 disc
table reads (table 3.2-1)
plus 2 reads and 1 write
(table 3.2-2)          175   2      1

Transfer of "OK"       20                                211
(20 characters)

 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms                     258   74     37                   1022
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS        1.25  1.11   2.25                 1.0
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 1510               323   82     83                   1022
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R …0e…*)…0f… = 0.13          1.0                               0.0
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…REQ…0e… = 5 sec (99%) vs. 3.2 sec.
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
…0e…*)…0f… No queuing for function
     99% factor = 2.1


                             TABLE 5.1.2-7a



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                     CPU   DISC   SET1   DISC   SET2   TDX   CHANNEL
                       ms     R      W      R      W     ms      ms   
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

2nd PRIORITY

S̲U̲P̲E̲R̲V̲I̲S̲O̲R̲Y̲ ̲C̲M̲D̲ 
E̲X̲E̲C̲U̲T̲I̲O̲N̲:

Refer table 5.1.2-7a


















 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 1510
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R …0e…*)…0f… = 0.13  
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…REQ…0e… = 10 sec (99.7%) vs. 4.5 sec.
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
…0e…*)…0f… No queuing for function
     99.7% factor = 3.0 corresponds
     to max. response time 
     (refer section 4.6.3)


                             TABLE 5.1.2-7b



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                     CPU   DISC   SET1   DISC   SET2   TDX   CHANNEL
                       ms     R      W      R      W     ms      ms   
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

2nd PRIORITY

R̲E̲T̲R̲I̲E̲V̲A̲L̲ ̲R̲E̲Q̲U̲E̲S̲T̲:

CMD line entry and vali-
dation response:
Refer table 5.1.2-5    83                                834

On- or off-line valida-
tion and response from
SAR                    20    

Transfer of response   20                                211
(20 characters)






 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms                     123                               1045
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS        1.25                              1045
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 1199               154                               1045
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R …0e…*)…0f… = 0.0004        0.0004                            0.0
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…REQ…0e… = 5.0 sec (90%) vs. 1.2 sec.
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
…0e…*)…0f… 90% FACTOR = 1.03
     Low Level Varians only


                             TABLE 5.1.2-8



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                     CPU   DISC   SET1   DISC   SET2   TDX   CHANNEL
                       ms     R      W      R      W     ms      ms   
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

T̲O̲T̲A̲L̲ ̲A̲C̲C̲O̲U̲N̲T̲/̲H̲O̲U̲R̲:

2nd PRIORITY
SAR COROUTINE FOR
RETRIEVAL 

Refer table 3.5-10, but      58     1080
excluding 4 MSG. FCTS.
READ's and the FILE FCTS.
(presentation belongs to
TEP)

Refer table 3.5-11,    178   2480   40
excluding 3 MSG.FCTS,
READ's and the FILE 
FCTS (presentation 
belongs to TEP)







 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
(TOTAL ACC.SEC/SEC)10…0e…3…0f…  65   30     0.3
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS        1.25  1.11   2.25
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
LOAD = 0.12            0.081 0.040  0.0009
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R 
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e…                      (1/R)…0f…Q…0e… =                    N =  
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
                             TABLE 5.1.2-9



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                     CPU   DISC   SET1   DISC   SET2   TDX   CHANNEL
                       ms     R      W      R      W     ms      ms   
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

2̲N̲D̲ ̲P̲R̲I̲O̲R̲I̲T̲Y̲:

S̲A̲R̲ ̲D̲T̲G̲ ̲R̲E̲T̲R̲I̲E̲V̲A̲L̲

Refer table 2.5..7-A
and the following
text                   1689  27













 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms                     1689  994
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS        1.25  1.11
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 3214               2111  1103
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R = 1.0
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… …0e…*)…0f… = 3610          (1/R)…0f…Q…0e… = 1.0                N = 1
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
…0e…*)…0f…  Refer table 5.1.2-9
      for SINGLE SERVER LOAD


                            TABLE 5.1.2-10-1



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                     CPU   DISC   SET1   DISC   SET2   TDX   CHANNEL
                       ms     R      W      R      W     ms      ms   
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

2̲N̲D̲ ̲P̲R̲I̲O̲R̲I̲T̲Y̲:

R̲E̲Q̲U̲E̲S̲T̲ ̲R̲E̲T̲R̲I̲E̲V̲A̲L̲ ̲O̲F̲
S̲I̲N̲G̲L̲E̲ ̲I̲T̲E̲M̲ ̲+̲ ̲R̲E̲C̲E̲P̲T̲I̲O̲N̲:


Refer table 5.1.2-8    123                               1045

1 disc access and       70   1
presentation of first 
character










 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms                     193    37                         1045
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS        1.25  1.11                         100
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 282                241    41
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R = 0.02  …0e…*)…0f… =       0.02  0.00
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… = 282                (1/R)…0f…Q…0e… = 0.02               N = 1
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
…0e…*)…0f…  Low Level Varians only


                            TABLE 5.1.2-10-2



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                           T…0f…Q…0e…          (1/R)…0f…Q…0e…            N      
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

2̲N̲D̲ ̲P̲R̲I̲O̲R̲I̲T̲Y̲:

R̲E̲Q̲U̲E̲S̲T̲ ̲S̲I̲N̲G̲L̲E̲ ̲I̲T̲E̲M̲ 
D̲T̲G̲ ̲R̲E̲T̲R̲I̲E̲V̲A̲L̲ ̲+̲ 
R̲E̲C̲E̲P̲T̲I̲O̲N̲:

Refer table 5.1.2-10-1       3610          1.0                 1
            5.1.2-10-2        282          0.02                1




















 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
                       T…0f…Q…0e… = 3892;  1/R = 0.9; 90% FACTOR = 2.35
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…REQ…0e… = 10.0 sec (90%) vs 9.1 sec.
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
C̲O̲M̲M̲E̲N̲T̲S̲:

The requirement for OFF-LINE RETRIEVAL is as above plus 4 min. excluding time
 for volume mounting. Refer table 5.1.2-10-4.


                            TABLE 5.1.2-10-3



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                     CPU   DISC   SET1   DISC   SET2   TDX   CHANNEL
                       ms     R      W      R      W     ms      ms   
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

2̲N̲D̲ ̲P̲R̲I̲O̲R̲I̲T̲Y̲:

A̲D̲D̲I̲T̲I̲O̲N̲A̲L̲ ̲L̲O̲A̲D̲
F̲O̲R̲ ̲D̲T̲G̲ ̲O̲F̲F̲-̲L̲I̲N̲E̲
R̲E̲T̲R̲I̲E̲V̲A̲L̲:


Refer table 2.5.7A     947   17
and following 
discussion

No queuing for off-
line disc. 
ACCESS TIME = 40ms

Off-line retrieval is
a separate SAR coroutine






 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms                     947   680
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS        1.25  1.0
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 1995               1183  812
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R = 
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… = 1995
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

                            TABLE 5.1.2-10-4



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                     CPU   DISC   SET1   DISC   SET2   TDX   CHANNEL
                       ms     R      W      R      W     ms      ms   
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

2̲N̲D̲ ̲P̲R̲I̲O̲R̲I̲T̲Y̲:

S̲A̲R̲ ̲C̲A̲T̲A̲L̲O̲G̲ ̲R̲E̲T̲R̲I̲E̲V̲A̲L̲,
1̲ ̲H̲O̲U̲R̲ ̲T̲O̲C̲ ̲W̲I̲N̲D̲O̲W̲:     4418  61     1

Refer table 3.5.11
Exclude 3 MSG.FCTS 
READ's and FILE FCTS












 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms                     4418  2245   37
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS        1.25  1.11   2.25
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 8096               5522  2491   83
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R = 1.0
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… …0e…*)…0f… = 9095            (1/R)…0f…Q…0e… = 1.0              N = 1
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
…0e…*)…0f… Refer table 5.12-9
     for SINGLE SERVER LOAD


                            TABLE 5.1.2-11-1



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                           T…0f…Q…0e…          (1/R)…0f…Q…0e…            N      
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

2̲N̲D̲ ̲P̲R̲I̲O̲R̲I̲T̲Y̲:

R̲E̲Q̲U̲E̲S̲T̲ ̲C̲A̲T̲A̲L̲O̲G̲
R̲E̲T̲R̲I̲E̲V̲A̲L̲ ̲+̲ ̲R̲E̲C̲E̲P̲T̲I̲O̲N̲:

Refer table 5.1.2-10-2        282          0.02                1
            5.1.2-11-1       9095          1.0                 1





















 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
                       T…0f…Q…0e… = 9377;  1/R = 0.95; 90% FACTOR = 2.35
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…REQ…0e… = 90 sec (90%) vs 22 sec.
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
C̲O̲M̲M̲E̲N̲T̲S̲:

The requirement for OFF-LINE RETRIEVAL is as above plus 4 min. excluding time
 for volume mounting. Refer table 5.1.2-11-3.


                            TABLE 5.1.2-11-2



 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

ITEM                     CPU   DISC   SET1   DISC   SET2   TDX   CHANNEL
                       ms     R      W      R      W     ms      ms   
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

2̲N̲D̲ ̲P̲R̲I̲O̲R̲I̲T̲Y̲:

A̲D̲D̲I̲T̲I̲O̲N̲A̲L̲ ̲L̲O̲A̲D̲ ̲f̲o̲r̲
T̲O̲C̲ ̲o̲r̲ ̲T̲O̲C̲ ̲W̲I̲N̲D̲O̲W̲ ̲O̲F̲F̲-̲
L̲I̲N̲E̲ ̲R̲E̲T̲R̲I̲E̲V̲A̲L̲:

Refer table 3.5.7A     305   5
and following 
discussion

No queuing for off-line 
disc. ACCESS TIME =
40 ms

Off-line retrieval is
a separate SAR 
coroutine






 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
ms                     305   230
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
QUEUING FACTORS        1.25  1.00
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T = 611                381   230
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
1/R =    
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
T…0f…Q…0e… = 611
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲

                            TABLE 5.1.2-11-3


5.2      T̲H̲R̲O̲U̲G̲H̲P̲U̲T̲

         Section 1.2.2 contains a discussion of the general
         throughput limitations in case of traffic expansions:
         The 30 per cent expansion which must be accepted without
         changing the S/W structure and possibilities beyond
         this limit.

         In this section the throughput in case of the busy
         hour and especially the minute traffic, i.e. the maximum
         transaction rate, shall be investigated: It is known
         that the system accepts the traffic load in total disregarding
         queuing effects, and it has been proven in section
         5.1 that the response time requirements are met; however,
         not all processing of the system has a specific requirement,
         especially not for busy minute traffic, and it is furthermore
         not sure that the response time criteria are compatible
         with the demands for throughput.

         For these calculations non-priority processing (worst
         case) has been assumed. For each major S/W module of
         the system the service time consumption (including
         queuing for service positions = low level queuing,
         refer section 4.6.1) per sec. has been calculated in
         busy hour and busy minute. The consumption per process
         or coroutine is then calculated and the queuing factor
         is found as depending on the load (= time consumption
         per sec.) and the varians (R-value, refer section 4.6
         for details on queuing at the level of applications).
         The final result is the effective load (queuing time
         load) per process or coroutine in the system environment
         during busy hour and busy minute traffic loads. Refer
         table 5.2-1.

         The service time load per process or coroutine expresses
         the throughput ability of the module in the system
         environment: with a load less than one excess capability
         is present.

         The ratio between the service time load and the queue
         time load expresses tha multiplication factor to be
         applied to the service time in order to derive the
         response ( = queue) time of the module.



         It is seen that the service time load (including TDX
         transfer and transfer to printer) for the printer is
         9.26/12 = 0.77 for busy min. It has been assumed that
         the number of transactions is the same as for busy
         hour (where the load is 0.76, the difference being
         due to the higher load of the processing environment).
         As discussed in section 3.6.2 a 20 per cent increase
         of this load is still possible without exceeding the
         limit of 70 per cent load of the printers themselves,
         and with this increase the service time load for the
         print process (actually the transfer delay due to the
         character print rate is by far the larger contribution)
         will approach 100 per cent (77 x 1.2 = 92 per cent);
         it is seen that with the specified character print
         rate (or any higher rate) the 70 per cent load limit
         of the requirements will never be exceeded.

         It is observed that the msg. analysis and especially
         the MDP modules are quite heavily loaded: Further traffic
         increase will be stopped by these modules, i.e. queuing
         of traffic for display or printout without the capacity
         for processing due to the terminal speed is prevented.

         The message input modules still have quite some capacity
         to execute extreme burst of traffic, i.e. to store
         the incoming traffic. As seen from section 3.6.3 and
         3.6.4, by comparing busy minute figures with the channel
         capacities, even full speed transfers corresponding
         to the channel capacities may be accepted for all channels.

         Input modules should however be given a high priority
         in order to avoid any possible loss of information.

         As already mentioned, TDX transfer delays are included
         in table 5.2-1 whereas I/O channel transfer delays
         are negligable.





                    BUSY HOUR       BUSY MIN                       BUSY
 HOUR/BUSY MIN
                    SERVICE TIME    SERVICE TIME                   QUEUE
 TIME PER PROCESS
                                                   PROCESSES OR    OR COROUTINE,
 SEC/SEC 
I̲T̲E̲M̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲S̲E̲C̲/̲S̲E̲C̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲S̲E̲C̲/̲S̲E̲C̲ ̲ ̲ ̲ ̲ ̲ ̲C̲O̲R̲O̲U̲T̲I̲N̲E̲S̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲R̲ ̲
 ̲ ̲ ̲ ̲Q̲U̲E̲U̲E̲ ̲T̲I̲M̲E̲ ̲ ̲ ̲ ̲ ̲

VDU: PREP, EDIT,   1) 0.62/17.73    2.16/19.43       28           2     0.63/0.69
REL., RECEPTION
(INCL. RETR. REC.)

PRINTER: RECEPTION 1) 0.58/9.13     0.73/9.26        12           1     3.17/3.35

ROUTING DET.        0.04            0.21              1           1     0.04/0.27

Tx TO TARE          0.01            0.04              1           1     0.01/0.04

Tx TO P-T-P         0.02            0.13              1                 0.02/0.15

Tx TO CCIS & SCARS  0.01            0.08              2           1     0.01/0.04

OCR INPUT           0.007           0.01              1           1     0.007/0.01

PTR INPUT           0.005           0.03              1           1     0.005/0.03

INPUT TARE          0.13            0.70              5           1     0.02/0.14

INPUT P-T-P         0.02            0.09             MIN 1        1     0.02/0.10

INPUT CCIS & SCARS  0.09            0.36              2           1     0.05/0.22

OCR INP. VALIDAT.   0.01            0.05              1           1     0.01/0.05

MSG. ANALYSIS       0.11            0.68              1           1     0.12/2.13

MDP                 0.17            0.91              1           0.1   0.19/5.97

MDCO                0.04            0.08              1           1     0.04/0.09

MSG SERVICE         0.03            0.06              1           1     0.03/0.06

SAR                 0.09            0.18              1           0.1   0.09/0.20

LOG                 0.17            0.41              1           0.1   0.19/0.57

STATUS COLL.        0.17            0.29              1           0.1   0.19/0.36

STATISTIC COLL.     0.02            0.03              1           0.1   0.02/0.03

1)   without/with TDX transfer to device
2)   no queuing

     TABLE 5.2-1  QUEUING TIME LOADS FOR BUSY HOUR AND BUSY MIN.