DataMuseum.dk

Presents historical artifacts from the history of:

CR80 Wang WCS documentation floppies

This is an automatic "excavation" of a thematic subset of
artifacts from Datamuseum.dk's BitArchive.

See our Wiki for more about CR80 Wang WCS documentation floppies

Excavated with: AutoArchaeologist - Free & Open Source Software.


top - download

⟦a0466f047⟧ Wang Wps File

    Length: 44519 (0xade7)
    Types: Wang Wps File
    Notes: Air Canada Proposal       
    Names: »1340A «

Derivation

└─⟦32f09e9a2⟧ Bits:30006250 8" Wang WCS floppy, CR 0084A
    └─ ⟦this⟧ »1340A « 

WangText

…0a……00……00……00……00…@…0a……00……00…@…0c…@…01…@
…0e……01……0e……02……0e……05……0e……07……0d……09……0d……0d……0d……0f……0d……02……0c……08……0c……0f……0c…
…0c… …0c……06……0b……0d……0b…
…0b……07……0a……0d……0a……00……0a……05……09……0b……09……0e……09……02……08……08……08……0f……08……00……08……01……08……02……08…
…08… …08……05……08……06……08……07……07……08……07……09……07……0a……07……0b……07……86…1         …02…   …02…   …02…   …02…                              …02…            
                                                      CHAPTER 5
                                   Page #
   DOCUMENT III        TECHNICAL PROPOSAL             Oct. 8, 1981
                             Rev.: Jan. 5, 1982




         LIST OF CONTENTS                          Page

5.       EQUIPMENT CHARACTERISTICS                   3

5.1      Introduction                                3

5.2      Network Configuration                       3

5.3      System Configuration                        5
5.3.1    Network Elements                            5
5.3.1.1  Compuring Elements                          5
5.3.1.2  CR80 General Description                    6
5.3.1.2.1    The Processor Units (PU)                8
5.3.1.2.2    The Channel Units (CU)                  9
5.3.1.2.3    Bus Structures                         11
5.3.1.2.4    Watchdog System                        13
5.3.1.2.5    CR80 Modules                           16
5.3.1.2.6    Peripheral Equipment                   21
5.3.1.2.7    Mechanical Dimensions                  22
5.3.1.2.7.1    Rack Dimensions                      22
5.3.1.2.7.2    Peripheral Dimensions                23
5.3.1.2.8    Power Consumption                      24

5.3.2    H/W Monitor                                26

5.3.3    Network Nodes                              26
5.3.3.1  Node Configurations                        27
5.3.3.2  Equipment List                             37

5.3.4    Gateway Processor                          40
5.3.4.1  Gateway Configurations                     41
5.3.4.2  Equipment List                             46


5.3.5    Network Control Centre (NCC)               47
5.3.5.1  NCC Configuration                          48
5.3.5.2  Equipment List                             53


5.3.6    Electronic Mail Host                       55
5.3.6.1  EMH Configurations                         56
5.3.6.2  Equipment List                             61

5.3.7    Network Management Host (NMH)              62
5.3.7.1  NMH Configurations                         63
5.3.7.2  Equipment List                             68

5.3.8    Front-End Processor (FEP)                  69
5.3.8.1  FEP Configurations                         70
5.3.8.2  Equipment List                             76

5.3.9    Standard Expansion                         79


                                                      Page

5.4       Electrical Interfaces                      81
5.4.1     Host Interfaces                            81
5.4.1.1   UNIVAC Interface                           81
5.4.1.2   Other Host Interfaces                      81

5.4.2     Communication Interfaces                   82
5.4.2.1   X20 bis, X21 bis, V24                      82
5.4.2.2   X21                                        82
5.4.2.3   X75                                        83

5.4.3     Future Interfaces                          85


5.        E̲Q̲U̲I̲P̲M̲E̲N̲T̲ ̲C̲H̲A̲R̲A̲C̲T̲E̲R̲I̲S̲T̲I̲C̲S̲



5.1       I̲n̲t̲r̲o̲d̲u̲c̲t̲i̲o̲n̲

          The scope of this chapter is to show how the proposed
          network are configured with dedicated CR80 processor
          systems.

          A description of the flexible CR80 architecture are
          given in section 5.3, and at last the configuration
          drawings and equipment lists for the different computers
          are given.



5.2       N̲e̲t̲w̲o̲r̲k̲ ̲C̲o̲n̲f̲i̲g̲u̲r̲a̲t̲i̲o̲n̲

          The proposed network are based on 2-3 sites, and can
          in a modular way be expanded to an unlimited number
          of sites.

          The sites themselves are computer systems built around
          a high speed dualized "site supra net" with a speed
          of 16 M bps. which can be expanded up to 256 M bps.

          Around the "site supra net" the different CR80 computer
          systems are placed, as shown in figure III 5.2.1.

          The types of CR80 computer systems which are proposed
          to interface to the "site supra net" are:

          NMH:                  Network Management Host
          NCC:                  Network Control Center
          EMH:                  Electronic Mail Host
          GWY:                  Gateway
          FEP:                  Front End Processor
          NODE:                 Nodal Switch Processor

          It is underlined that each of the above mentioned systems
          are totally independent computer systems, only connected
          to one or more of the others by the "Site Supra Net".

          In this way it is seen that expansion with new or existing
          functions are simply done by adding new CR80 computer
          systems to the existing "Site Supra Net".






















































Figure III 5.2.1…01…Air Canada Proposed Network Configuration





5.3      S̲y̲s̲t̲e̲m̲ ̲C̲o̲n̲f̲i̲g̲u̲r̲a̲t̲i̲o̲n̲

5.3.1    N̲e̲t̲w̲o̲r̲k̲ ̲E̲l̲e̲m̲e̲n̲t̲s̲

         Each individual subsystem is described and on related
         figures the subsystem is shown in block diagrams and
         detailed with all modules shown. Furthermore rack and
         crate layout is shown. The drawings includes both the
         initial proposed equipment and equipment for future
         growth.


5.3.1.1  C̲o̲m̲p̲u̲t̲i̲n̲g̲ ̲E̲l̲e̲m̲e̲n̲t̲s̲

         The overall proposed computing elements are the CR80
         distributed configuraton.






5.3.1.2  C̲R̲8̲0̲ ̲G̲e̲n̲e̲r̲a̲l̲ ̲D̲e̲s̲c̲r̲i̲p̲t̲i̲o̲n̲

         The Network elements are constructed by means of the
         modular fault tolerant CR80 computer system by use
         of various standard modules (Printed Circuit Boards)
         organized in units which are interconnected by galvanic
         isolated transfer bus structured as illustrated below
         and shortly described in the following.









































                   Figure III 5.3.1.2.1



         The CR80 system units are housed in 19" Crates (Card
         Magazine) for installation in standard 19" Racks as
         shown in figure below.














































                   Figure III 5.3.1.2.2



5.3.1.2.1    T̲h̲e̲ ̲P̲r̲o̲c̲e̲s̲s̲o̲r̲ ̲U̲n̲i̲t̲s̲ ̲(̲P̲U̲)̲

         The PU is a multiprogrammable multiprocessor (up to
         5 central processor Units CPU's) utilizing virtual
         memory (16 mega 16 bits words) and demand paging. Messages
         are transmitted from one PU to the memory of another
         via the Supra Net. As all data transfers via the Supra
         Net are approved by both PU's Memory Map, full hardware
         protection against unintended interference between
         PU's is ensured.

         The PU is highly flexible because the selectance of
         contained modules can be changed. The modules are interfaced
         via a dual bus structure for reduct on of bus contention
         as shown in figure below.


































                  Figure III 5.3.1.2.1.1




5.3.1.2.2    T̲h̲e̲ ̲C̲h̲a̲n̲n̲e̲l̲ ̲U̲n̲i̲t̲s̲ ̲(̲C̲U̲)̲

         contain the CR80 I/O Controller modules for interfacing
         towards peripheral equipment, communication lines etc.
         The CU has an internal dual transfer bus structure
         to ensure that no single failure can stop operation
         of more than one I/O Controller as shown in the figure
         below.









































                  Figure III 5.3.1.2.2.1



         The transfer buses, Data Bus A and Data Bus B, are
         connected to two different PU's to ensure continuous
         access to the controller modules (CTRL, LTU). The characteristics
         of Data Bus A and Data Bus B correspond to the internal
         buses of the PU.

         The CIA-modules constitute the interface between the
         word oriented internal transfer buses and the byte
         oriented Data Channels.

         The I/O Controller modules are all based on the same
         principle for interfacing to the Channel Unit bus structure
         and for the external interfaces as illustrated in figure
         below.



































                  Figure III 5.3.1.2.2.2



         The interface to the CR80 system employs a multiported
         RAM memory through which the data are exchanged. The
         program for the Controller module CPU is either resident
         in PROM chips or is down loaded from the CR80. The
         DISK CTRL, TAPE CTRL and PRINTER CTRL modules employ
         PROM's while the Line Termination Modules (LTU) used
         for interfacing communication lines, terminals etc.
         are loaded with programs from the CR80 meaning that
         different protocols can be supported without hardware
         changes.

         The physical interface to the peripherals, communication
         lines etc. is an adapter module located at the rear
         of the CU Crate. For interfacing to communication lines,
         a special adapter module (LIA-S) is available. This
         module is able to select a spare LTU module to be used
         instead of a failing module. The spare LTU can be back
         up for a number of active LTU's (n out of n+l redundancy).
         As the internal bus structure is dualized, the power
         input is taken from two separate sources to ensure
         that a failure in one power source cannot stop the
         CU Operation.



5.3.1.2.3    B̲u̲s̲ ̲S̲t̲r̲u̲c̲t̲u̲r̲e̲

         A CR80 computing system are organized around several
         busses, which are described in this seciton.

         A schematic overview showing the interconnection of
         the different buses and Units are given in figure III
         5.3.1.2.3.1

















        Figure III 5.3.1.2.3.1…01…CR80 Bus Structure



         Internal in a Processing Unit two buses are available
         for data transfer, electrically and functionally they
         are identically, the only difference are type of module
         which are connected to them.

         To the Processor Bus, the CPU's and Memory are connected,
         and to the Channel Bus, DMA modules and memory are
         connected.

         A more detailed description of the Processing Units
         and the modules used in it are given in section 5.3.1.2.1.

         The two buses are located on each motherboard, mounted
         in the back of the PU-crate.

         Internal in a Channel Unit two buses are used for data
         transfer, Data Bys A and Data Bus B, which are identically,
         and further use the same signals as the Processor and
         Channel Busses. These two busses are located on each
         motherboard, mounted in the back of the CU-crates.

         The Data Channel is a flat cable bus connecting one
         Processing Bus and one Channel Bus (located in the
         same PU) with one or more Data Busses (located in one
         or more CU's.

         This is done by means of the Data Channel interface
         modules (MAP-MIA), CIA-A & CIA-B; for detailed information
         ref. appendix A & B.

         The Supra Bus is used to high speed data transfer between
         processing units. The bus itself is a twisted wire
         with screen.

         The Configuration Control Bus ia used in the Watchdog
         Subsystem. The traffic on the configuration control
         bus are directives from the Watchdog about switching
         of LTU's, and informaton to the Watchdog about the
         Crate Power Supply Voltage levels.



5.3.1.2.4    W̲a̲t̲c̲h̲d̲o̲g̲ ̲S̲y̲s̲t̲e̲m̲

         The Watchdog system used in the proposed system are
         built around a low speed (600 bps) data network. Every
         redundant or fully dualized CR80 computer are equipped
         with a Watchdog.

         All watchdogs in the system are connected, via a 600
         bps line, to both the active and the standby NCC.

         The information which are routed through this low speed
         net are only  basal information of computer status,
         and directives to switch LTU's or Master clearing of
         processing Units.

         All other information from the CR80 computers (EMH,
         FEP etc.), statistic ect. are routed the normal network.

         An example on a Watchdog Net are shown overleaf in
         figure III 5.3.1.2.4.1.

         All watchdog's in the system are placed in one of the
         CU's connected to the CR80 to be supervised.





















































           Figure III 5.3.1.2.4.1 Watchdog Net




         The Watchdog consist of four parts:

         o   A normal LTU
         o   A Watchdog Controller Adapter (WCA)
         o   A Watchdog Panel Controller (WPC)
         o   A Watchdog panel

         The interconnection is shown below.




































                  Figure III 5.3.1.2.4.2


         The Watchdog is used only for local supervision and
         control, the network supervision and Control are carried
         out by the Network Control Centers (NCC).



5.3.1.2.5    C̲R̲8̲0̲ ̲M̲o̲d̲u̲l̲e̲s̲

         The proposed CR80 computers are built with a few standard
         modules and some adapters, the modules proposed to
         be used in the Air Canada Data Network are given, with
         a short list of chararacteristics, on the following
         pages:

         MAP CR8020M/000PC/00

         CHARACTERISTICS:

         o   Extend the CR80 CPU address space to 16 mega words
             by logical-to-physical address translation.

         o   Gives protection of every part of the address space:
             Absent indication, read only access, No access,
             Full access.

         o   Microprocessor included for interrupt processing,
             DMA, and AV24 handling.

         o   DMA controller performs move of data buffers within
             the total address space-including I/O Modules.

         o   Data Channel and V24 communications port.

         o   System control functions included: 
             Channel- and Processor Bus Arbitration, Clock generation,
             250 us Fast Timer, Real time clock, Power failure
             detection, Master Clear, PU Disable, Maintenance
             Module.

         o   BIT. A built-in test procedure is initiated upon
             power up and a red test LED is extinguished after
             app. 10 sec. if it has been carried out successfully.


         CPU/CACHE CR8003M/xxxxx/xx

         CHARACTERISTICS:

         o   16 bit general purpose CPU with interface 1K word
             cache memory for use in the CR80 system.

         o   Internal test facilities, providing extensive online
             and off-line test capabilities.

         o   Can be used in multiprocessor system.

         o   Operates with and without MAP module.

         o   Cache memory transparent to software


         o   A built in test procedure is initiated upon power
             up and a red test LED is extinguished after app.
             1 sec. if the test has been carried out successfully.

         o   One mode of instruction is used to implement the
             CR80 standard instruction set.

         o   A second mode of instruction is used to implement
             an instruction set well suited for high level languages
             like Algol, PASCAL, ADA, etc. This mode also allows
             customer defined instructions to be implemented.


         RAM CR8016M/128PC/00

         CHARACTERISTICS:

         o   128KW Random Access Memory for the CR80 system.

         o   Dual ported, for Processor Bus and Channel Bus
             Interface.

         o   Part of the memory can be disabled.

         o   A maximum of 2.6M access per second.

         o   2.54% occupatin due to refresh.


         DISK CTRL CR8044M/=41AB/xx

         CHARACTERISTICS:


         o   Disk Controller/Formatter combined with 32K memory
             for CR80 system.

         o   Disk Controller accessible as an I/O module.

         o   RAM accessible as a normal memory module.

         o   Interfaces 1-4 disk drives.

         o   Any combination of drives from CDC's SMD, MMD,
             and CMD families is possible.

         o   The dual channel feature of the disk drives is
             supported.

         o   Main disk operations are:
             Seek, Read, Write, Seek and Read, Seek and Write,
             Format, Read address field.



         o   BIT. A built.in test procedure is initiated upon
             power up and a red test LED is extinguished after
             app. 10 sec. if the test has been carried out successfully.


         LTU CR8066M/xxxAB/xx

         CHARACTERISTICS:

         o   Standard CR80 I/O module

         o   Standard CR80 RAM with 16K word memory.

         o    Dual bus interface for channel bus interface.

         o   I/O address is setable.

         o   RAM location is setable.

         o   Bootloader PROM 2K or 4K selected by strap.

         o   4 V24/V28 communication lins.


         STI CR8021M/010-C/00

         CHARACTERISTICS:


         o   Interface from the CR80 computers to the Supra
             Net.

         o   On board 32K byte RAM for descriptors.

         o   One u-processor for Outgoing data and one U-processor
             for ingoing data. 

         o   DMA capability for data transfer to/from CR80 memory
             via the channel Bus.



         St. FD CTRL CR8047M/xxxAB/xx

         CHARACTERISTICS:


         o   Floppy disk controller for the CR80 system.

         o   Interfaces up to 4 Floppy disk drives.

         o   Single and 2-sided diskettes.

         o   IBM 3740 Data Format (single density).

         o   Dualized bus I/F for high reliable data exchange
             in channel units (redundant system)

         o   Parity check/generation, at each module access.

         o   The switching between A-Bus and B-Bus I/F is fully
             software controlled.

         o   I/O Interrupt after each operation.

         o   Internal Buffer RAM contains 64 words (1 sector)

         o   Obtainable speed app. 1 word/2 usec.

         o   BIT. A built-in test procedure is initiated upon
             power up and a red test LED is extinguished after
             app. 10 sec. if it has been carried out successfully.


         Parallel CTRL, Line Printer Appl. CR8046M/040AB/00

         CHARACTERISTICS:

         o   Parallel Controller combined with 16K memory.

         o   Controller accessable as an I/O module.

         o   RAM accessable as a normal memory module with 16
             bits data and 2 bits parity.

         o   Connection of up to 4 line printers selected from
             the Data Products Corporation or Control Data Corporation
             series of line printers.

         o   Dual bus port.

         o   Memory Transfer Rates:
             To/from Main Bus: 2M words/sec.
             To line printer: 250K byte/sec.

         o   BIT. A built.in test procedure is activated on
             power up.


         UNIVAC I/F CR8037M/040AB/00

         CHARACTERISTICS:

         o   Interface from CR80 to a UNIVAC series 1100 ISI
             input/output channel pair, combined with 16K memory.

         o   Interface controller accessible as an I/O module.

         o   RAM serves as data buffer and is accessible as
             a normal memory module with 16 bits data and 2
             bits parity.

         o   Dual bus ports.

         o   Data transfer to/from UNIVAC: 1 Mchar/sec. (max).

         o   BIT. A built-in test procedure is initiated upon
             power up and a red test LED is extinguished after
             app. 1 sec. if the test has been carried out successfully.



5.3.1.2.6    P̲e̲i̲p̲h̲e̲r̲a̲l̲ ̲E̲q̲u̲i̲p̲m̲e̲n̲t̲

         Below is listed the proposed peripheral equipment for
         each individual subsystem.


         N̲O̲D̲E̲:̲       2 x Disc 80 Mb MMD        CR8302-/080
                     1 x System Console        CR8392-/743

         G̲a̲t̲e̲w̲a̲y̲:̲    1 x Floppy Disc           CR8308-/116
                     1 x System Console        CR8392-/743

         N̲M̲H̲:̲        1 x Disc 80 Mb MMD        CR8302-/080
                     1 x Disc 80 Mb SMD        CR8300-/080
                     1 x Line Printer 600 LPM  CR8331-/600
                     1 x Floppy Disc           CR8308-/116
                     1 x Tape Deck             CR8320-/075
                     3 x VDU                   CR8350-/005

         N̲C̲C̲:̲        1 x Floppy Disc           CR8303-/116
                     2 x VDU                   CR8350-/005
                     2 x Low Speed Printers    CR8392-/743
                     1 x Colour Display

         E̲M̲H̲:̲        2 x Disc 80 Mb MMD        CR8302-/080
                     1 x Disc 80 Mb SMD        CR8300-/080
                     1 x Line Printer 600 LPM  CR8331-/600
                     4 x VDU                   CR8350-/005
                     1 x System Console        CR8392-/743

         F̲E̲P̲:̲        2 x Disc 80 Mb MMD        CR8302-/080
                     1 x System Console        CR8392-/743




5.3.1.2.7    M̲e̲c̲h̲a̲n̲i̲c̲a̲l̲ ̲D̲i̲m̲e̲n̲s̲i̲o̲n̲s̲



5.3.1.2.7.1  R̲a̲c̲k̲ ̲D̲i̲m̲e̲n̲s̲i̲o̲n̲s̲

             All CR80 hardware modules are placed in 19" non-corrosive
             metal frames with a height of 10 U (445 mm) and
             a weight of 26 kg. These crates are again inserted
             into racks in this way it is possible to built
             up large computer systems in a very modular way.

             If necessary more racks can be assembled side by
             side in a unlimited number to form a large subsystem
             by using a mech. kit.

             In the Air Canada proposal this flexibility have
             been of great value because of the many subsystems
             of different size and because of the expansion
             requirements. Each rack is useful in 36 U (1602
             mm) and in 19" width. The overall dimensions of
             each rack is shown below:

             o   Height:  1,8 m
             o   Width :  0,6 m
             o   Depth :  0,73 m

             The overall rack dimensions for each individual
             proposed subsystem is listed below:

             Description               Dimensions (HxWxD) (m)

             Node:                     1,8 x 2,4 x 0,73
             Gateway:                  1,8 x 0,6 x 0,73
             Electronic Mail Host:     1,8 x 1,2 x 0,73
             Network Management Host:  1,8 x 0,6 x 0,73
             Network Control Centre:   1,8 x 0,6 x 0,73
             Front End Processor:      1,8 x 1,2 x 0,73





5.3.1.2.7.2  P̲e̲r̲i̲p̲h̲e̲r̲a̲l̲ ̲D̲i̲m̲e̲n̲s̲i̲o̲n̲s̲

             All peripheral except from MMD disc drives, Tape
             Deck and Floppy disc drives are placed outside
             the rack.
             Below are listed dimentions of all proposed peripheral
             equipment:

             Description                 Dimensions (HxWxD)
             (m)

             Disc Drive SMD               0,86 x 0,48 x 0,86
             Line Printer (ex.pedestal)   0,38 x 0,77 x 0,64
             Operators Console            0,18 x 0,57 x 0,40
             VDU                          0,33 x 0,43 x 0,41

             A possible floor layout can be seen in chapter
             III 9.4.3.3



5.3.1.2.8    P̲o̲w̲e̲r̲ ̲C̲o̲n̲s̲u̲m̲p̲t̲i̲o̲n̲

         Below is listed the power consumption of each individual
         subsystem including terminals and peripherals in each
         individual geographic area.

         Power consumption of each piece of equipment proposed
         can be found in table III 5.3.1.7.4.

         S̲i̲t̲e̲ ̲T̲o̲r̲o̲n̲t̲o̲:̲

         Node                          5,2 KW
         Electronic Mail Host          4,3  "
         Network Control Center        1,8  "
         Gateway                       1,5  "
         Network Management Host       3,4  "
         Front End Processor          ̲ ̲2̲,̲2̲ ̲ ̲"̲ ̲

         Total Power Consumption      ̲1̲8̲,̲4̲ ̲K̲W̲ ̲

         S̲i̲t̲e̲ ̲M̲o̲n̲t̲r̲e̲a̲l̲:̲

         Node                          5,2 KW
         Network Control Center        1,8  "
         Front End Processor          ̲ ̲2̲,̲2̲ ̲ ̲"̲ ̲

         Total Power Consumption      ̲ ̲9̲,̲2̲ ̲K̲W̲

         S̲i̲t̲e̲ ̲W̲i̲n̲n̲i̲p̲e̲g̲:̲

         Node                          5,2 KW
         FEP                          ̲ ̲2̲,̲2̲ ̲ ̲"̲

         Total Power Consumption      ̲ ̲7̲,̲4̲ ̲K̲W̲ ̲



         T̲a̲b̲l̲e̲ ̲5̲.̲3̲.̲1̲.̲8̲.̲1̲ ̲ ̲E̲Q̲U̲I̲P̲M̲E̲N̲T̲ ̲P̲O̲W̲E̲R̲ ̲C̲O̲N̲S̲U̲M̲P̲T̲I̲O̲N̲

         Description      Type No.     Power Consumption (W)

         STI             CR8021M              38
         128K RAM        CR8016M              31
         CPU CACHE       CR8003M              90
         MAP             CR8020M              65
         MIA             CR8071M              21
         CCA             CR8089M              20
         CIA             CR8081M              15
         SBA             CR8072M              17
         DISC CTRL       CR8044M              37
         DUAL PAR CTRL   CR8046M              37
         LTU             CR8066M              25
         WPC             CR8040M              32
         WCA             CR8076M              13
         DCA             CR8084M               6
         PCA             CR8086M               8
         LIA-S           CR8083M               3
         UNIVAC CTRL     CR8037M              39
         MBT             CR8055M               2
         TAPE CTR        CR8045M              37
         F.D. CTRL       CR8047M              18
         TCA             CR8085M               8
         DISC MMD        CR8302              400
         DISC SMD        CR8300              900
         F.D. DRIVE      CR8308              110
         TAPE DECK       CR8320              500
         LINE PRINTER    CR8331              275
         VDU             CR8350              120
         O.P. CONSOLE    CR8390              250
         FAN UNIT        CR8105              150




5.3.2    H̲/̲W̲ ̲M̲o̲n̲i̲t̲o̲r̲

         A H/W monitor, which is able to measure CPU load, is
         included in the standard S/W package.

         This utility program named "performance" is described
         in the S/W section of this proposal.

         As an option a special H/W-module can be developed.
          This monitor will be a plug-in module, which can measure
         bus load on the different busses (processor, channel
         & Data busses)



5.3.3    N̲e̲t̲w̲o̲r̲k̲ ̲N̲o̲d̲e̲s̲

         Three packet switching nodes are proposed, placed in
         Toronto, Montreal and Winnipeg.

         In the 1983 proposal only two nodes are included while
         the last one will be installed in 1984.

         The network can be expanded nearly unlimited by simply
         adding more nodes and if necessary more front-end processors.

         The two nodes in Toronto and Montreal are wired for
         1984 requirements, but installed with 1983 requirements.
          This means that the initially proposed nodes include
         three PU crates.  One dedicated as back-up PU and one
         as active PU.  The third PU crate is empty but wired
         and will be filled with modules during 1984 accordingly
         with the network growth.

         In 1985 further one PU crate is added and connected
         to the other PU's via the supra bus forming the final
         proposed network.  If future growth should require
         more processing power, more PU's can be added.  All
         three PU' are using the same PU back-up.  The H/W Configuration
         of the three nodes are exact copies of each other,
         while the node access is placed in separate FEP's.
 …86…1         …02…   …02…   …02…   …02…                                       
    
5.3.3.1  N̲o̲d̲e̲ ̲C̲o̲n̲f̲i̲g̲u̲r̲a̲t̲i̲o̲n̲s̲
















































                   Figure III 5.3.3.1.1




















































                   Figure III 5.3.3.1.2




















































                   Figure III 5.3.3.1.3




















































                   Figure III 5.3.3.1.4




















































                   Figure III 5.3.3.1.5




















































                  Figure III  5.3.3.1.6




















































                   Figure III 5.3.3.1.7




















































                   Figure III 5.3.3.1.8




















































                   Figure III 5.3.3.1.9




















































                  Figure III 5.3.3.1.10



5.3.2.2  E̲q̲u̲i̲p̲m̲e̲n̲t̲ ̲L̲i̲s̲t̲
















































                  NODT1.1.1 Node Toronto




















































                 NODM1.2.1 Node Montreal




















































                 NODW1.3.1 Node Winnipeg



5.3.4    G̲a̲t̲e̲w̲a̲y̲ ̲P̲r̲o̲c̲e̲s̲s̲o̲r̲

         The Gateway Processor is a fully redundant processor
         which reside in a one bay rack system. The processor
         Unit Crate is divided into two independent systems
         each containing a processor bus and a channel bus.
         One of the systems is dedicated to be the active processor
         while the other system acts as a back-up processor
         both supervised and controlled from the watchdog. The
         two systems are connected via the supra bus which also
         is used as the link between the Gateway and the new
         network.

         Because of performance requirements several LTU's are
         used as interface modules between the Gateway and the
         ACNC network operating in a full duplex mode at a speed
         of 9600 bps.

         In case of LTU failure a spare LTU has been included
         which automatical will be switched on in the position
         of the erroneous LTU. This is also supported by the
         Watchdog.

         For loading the system a floppy disc drive has been
         included. It is connected to the F.D. CTRL/SFA which
         supports four disc'.

         As shown on figure III 5.3.4.1.2 the watchdog is connected
         to both the NCC's by means of V24 Modem links to provide
         global operations control for the entire system.





5.3.4.1  G̲a̲t̲e̲w̲a̲y̲ ̲C̲o̲n̲f̲i̲g̲u̲r̲a̲t̲i̲o̲n̲s̲
















































                   Figure III 5.3.4.1.1




















































                   Figure III 5.3.4.1.2




















































                   Figure III 5.3.4.1.3




















































                   Figure III 5.3.4.1.4




















































                   Figure III 5.3.4.1.5



5.3.4.2  E̲q̲u̲i̲p̲m̲e̲n̲t̲ ̲L̲i̲s̲t̲

         Gateway 1.1.5




5.3.5    N̲e̲t̲w̲o̲r̲k̲ ̲C̲o̲n̲t̲r̲o̲l̲ ̲C̲e̲n̲t̲r̲e̲ ̲(̲N̲C̲C̲)̲

         The Network Control Centre is built as a stand-alone
         unit which does not include any redundancy. However
         a back-up NCC is placed in a geographically different
         location from the active. All hardware modules reside
         in a one-bay rack which also includes the Floppy disc
         drive.

         In order to obtain the control and monitoring functions
         of the NCC it has been equipped with some special terminals.
         On a colour Display the hole network topology is shown.
         In case of trunk failure this is immediately shown
         in the display. Furthermore two printers are dedicated
         for event log and alarm printning.

         Communication to and from the NCC's takes place on
         the supra bus net but furthermore the NCC's are connected
         to all watchdogs in the system in order to monitor,
         control and reconfigure the system.

         The NCC's are wired for 1985 use, in order to expand
         without disturbing the system. The only thing necessary
         is to add on modules.



5.3.5.1  N̲C̲C̲ ̲C̲o̲n̲f̲i̲g̲u̲r̲a̲t̲i̲o̲n̲
















































                   Figure III 5.3.5.1.1




















































                   Figure III 5.3.5.1.2




















































                   Figure III 5.3.5.1.3




















































                   Figure III 5.3.5.1.4




















































                   Figure III 5.3.5.1.5



5.3.5.2  E̲q̲u̲i̲p̲m̲e̲n̲t̲ ̲L̲i̲s̲t̲
















































                        NCCT 1.1.2




















































                        NCCM 1.2.2




5.3.6    E̲l̲e̲c̲t̲r̲o̲n̲i̲c̲ ̲M̲a̲i̲l̲ ̲H̲o̲s̲t̲ ̲(̲E̲M̲H̲)̲

         The hardware components in the Electronic Mail Host
         is very much similar to the NMH except from the processing
         power and memory. Furthermore it is a fully redundant
         system residing as a stand-alone unit in a two bay-rack
         system which also includes two MMD 80 Mb disc drives
         with 2 Mb fixed head each connected to separate disc
         controllers.

         Besides from text editing, message routing etc. from
         connected terminals the EMH have the capability of
         supporting links to the CNT, ARINC, and SITA networks.
         This is done by means of LTU's, which can be expanded
         in quantity in the existing crates.



5.3.6.1  E̲M̲H̲ ̲C̲o̲n̲f̲i̲g̲u̲r̲a̲t̲i̲o̲n̲s̲
















































                   Figure III 5.3.6.1.1




















































                   Figure III 5.3.6.1.2




















































                   Figure III 5.3.6.1.3



















































                   Figure III 5.3.6.1.4




















































                   Figure III 5.3.6.1.5



5.3.6.2  E̲q̲u̲i̲p̲o̲m̲e̲n̲t̲ ̲L̲i̲s̲t̲

         EMH 1.1.4




5.3.7    N̲e̲t̲w̲o̲r̲k̲ ̲M̲a̲n̲a̲g̲e̲m̲e̲n̲t̲ ̲H̲o̲s̲t̲ ̲(̲N̲M̲H̲)̲

         The Network Management Host is a stand-alone medium
         size non-redundant computer which reside in its own
         two-bay racks. One rack equipped with Processor and
         Channel unit and one equipped with a tape station and
         disc (refer to figure III 5.3.7.1.3).

         The communication to and from the NMH will take place
         via the supra bus to the NODE XXZ and the normally
         active NCC but is also via trunks connected to the
         back-up NCC placed in Montreal.

         In order to fulfil the required different software
         services related to network management such as software
         development, maintaining and updating service and configuration
         data the EMH is equipped with necessary software development
         terminals and peripheral storage. The proposed terminals
         are three interactive VDU's and a 600 lines per minute
         band printer but these quantities can be expanded for
         future needs without interrupting the system by simply
         adding more LTU's and LIA-s in the existing CU Crate.
         Each LTU is capable of managing up to four VDU's.
         The proposed peripheral storage capacity is two disc
         drives each of 80 Mb with 2 Mb fixed head for fast
         access and with fixed disc packs. These resides in
         the most right side rack while a further 80 Mb with
         removal disc pack is placed separately outside the
         rack.


5.3.7.1  N̲M̲H̲ ̲C̲o̲n̲f̲i̲g̲u̲r̲a̲t̲i̲o̲n̲s̲
















































                   Figure III 5.3.7.1.1




















































                   Figure III 5.3.7.1.2




















































                   Figure III 5.3.7.1.3




















































                   Figure III 5.3.7.1.4





















































                   Figure III 5.3.7.1.5



5.3.7.2E̲q̲u̲i̲p̲m̲e̲n̲t̲ ̲L̲i̲s̲t̲

         NMH 1.1.3



5.3.8    F̲r̲o̲n̲t̲-̲E̲n̲d̲ ̲P̲r̲o̲c̲e̲s̲s̲o̲r̲ ̲(̲F̲E̲P̲)̲

         Nearly all Hosts are connected to the proposed network
         via dedicated front-end processors placed one at each
         node.  In this way the H/W is prepared for local Host
         to Host communication and can easily be expanded to
         remote Host communication forming a dedicated Host
         network.  The front-end processors are fully redundant
         systems residing in a two bay rack system.  The initial
         1983 proposed configuration is shown in fig. III  5.3.5.1.2
         and installed in Toronto and Montreal, but it is wired
         for 1985 requirements.

         Each time a new Host is conneced to the FEP, a CPU
         Cache and a 128K RAM must be added.  This can be done
         for up to four Hosts within the proposed wiring.  If
         further expansion in the future is necessary, then
         standard expansion crates can be used (refer to section
         5.3.9).


5.3.8.1  F̲E̲P̲ ̲C̲o̲n̲f̲i̲g̲u̲r̲a̲t̲i̲o̲n̲s̲
















































                   Figure III 5.3.8.1.1




















































                   Figure III 5.3.8.1.2



         Intentionally left blank

































































































                   Figure III 5.3.8.1.3




















































                   Figure III 5.3.8.1.4




















































                   Figure III 5.3.8.1.5



5.3.8.2  E̲q̲u̲i̲p̲m̲e̲n̲t̲ ̲L̲i̲s̲t̲

         FEPT 1.1.6



         FEPM 1.2.6



         FEPW 1.3.2





5.3.9    S̲t̲a̲n̲d̲a̲r̲d̲ ̲E̲x̲p̲a̲n̲s̲i̲o̲n̲

         The expansion from the baseline configuration through
         the remaining of this decenial to 1991 will be heavily
         dependent on the evolution of the Air Canada network.
          It will depend on how traffic evolves and on how allocation
         of host computers and concentrator trunk connections
         takes place.

         The CR80 provides Air Canada with a computer architecture
         well suited towards this dynamic environment.  It provides
         an architecture which enables evolution to take place
         in small increments taylored to the needs.  Increments
         based, as the baseline configuraton, on standard CR80
         modules.

         Based on the projected expansion of the Air Canada
         Data Network represented by

         -   traffic statistics   (Fig. III, 2.3.2.1)
         -   interaction profile  (Fig. III, 2.3.2.2

         and the traffic model presented in Appendix D.  The
         following summarizes the projected capabilities required
         for each of the three sites:

 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
 ̲ ̲ ̲ ̲ ̲ ̲ ̲

     YEAR   ICC-TYPE       56Kbps TRUNKS     TRANSACTIONS/SEC
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲L̲I̲N̲E̲S̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲7̲0̲%̲ ̲U̲t̲i̲l̲i̲z̲a̲t̲i̲o̲n̲ ̲ ̲ ̲(̲p̲e̲a̲k̲ ̲h̲o̲u̲r̲)̲ ̲ ̲ ̲
 ̲ ̲ ̲ ̲ ̲ ̲ ̲
           T    M    W     T-M  T-W  W-M        T      M   
   W
     85   112   84   84    3.0  3.2   .6      348.5  132.5 
 138.5
     86   135  101  101    3.6  3.9   .7      417.5  158.7 
 165.9
     87   161  121  121    4.3  4.6   .9      501.7  190.7 
 199.4
     88   194  145  145    5.1  5.6  1.0      602.1  228.9 
 289.3
     89   232  174  174    6.2  6.7  1.2      722.6  274.7 
 287.2
     90   279  209  209    7.4  8.0  1.5      867.1  329.7 
 344.6
     91   334  251  251    8.9  9.6  1.8     1040.5  395.6 
 413.5
 ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲ ̲
 ̲ ̲ ̲ ̲ ̲ ̲ ̲


            Figure 5.3.9.1  Projected Traffic


         To enable a graceful evolution, we propose the use
         of the following three basic expansion elements:

         o   Empty rack with
             -   mains filer
             -   power distribution

         o   Nodal Switch Processor, with
             -   4 CPU/CACHEs
             -   4 128 K RAM
             -   MAP/SCM/IO
             -   STI
             -   Crate, Power Supply, etc.

         o   Nodal Channel Unit with
             -   11 Line Terminating Units
             -   Crate, Power Supply, etc.


         Based on the above expansion elements the following
         projected 86 through 91 expansions will have to take
         place

                 Toronto    Montreal    Winnipeg
                 a  b  c    a  b  c     a  b  c
         1985          minor  adjustments
         1986    1  0  2    1  0  1
         1987    1  1  1    0  0  1
         1988    2  1  2    2  1  2     as Montreal
         1989    2  1  2    1  0  1
         1990    2  2  2    2  1  2
         1991    3  2  3    1  0  2

         Configuration adjustments from the above may be required,
         if the future load assignment differs from the projecte.
          However, this will only result in re-assignment of
         basic expansion elements within the scope of the proposed
         architecture.


5.3.9.1  E̲x̲p̲a̲n̲s̲i̲o̲n̲ ̲E̲l̲e̲m̲e̲n̲t̲ ̲C̲o̲n̲f̲i̲g̲u̲r̲a̲t̲i̲o̲n̲s̲

         a.  E̲m̲p̲t̲y̲ ̲R̲a̲c̲k̲


         b.  N̲o̲d̲a̲l̲ ̲S̲w̲i̲t̲c̲h̲i̲n̲g̲ ̲P̲r̲o̲c̲e̲s̲s̲o̲r̲











         c.  N̲o̲d̲a̲l̲ ̲C̲h̲a̲n̲n̲e̲l̲ ̲U̲n̲i̲t̲












5.3.9.2  E̲q̲u̲i̲p̲m̲e̲n̲t̲ ̲L̲i̲s̲t̲

         a.  E̲m̲p̲t̲y̲ ̲R̲a̲c̲k̲

























         b.  N̲o̲d̲a̲l̲ ̲S̲w̲i̲t̲c̲h̲i̲n̲g̲ ̲P̲r̲o̲c̲e̲s̲s̲o̲r̲


         c.  N̲o̲d̲a̲l̲ ̲C̲h̲a̲n̲n̲e̲l̲ ̲U̲n̲i̲t̲



















































  Figure III 5.3.9.1…01…Node Standard Expansion Rack Layout


5.4      E̲l̲e̲c̲t̲r̲i̲c̲a̲l̲ ̲I̲n̲t̲e̲r̲f̲a̲c̲e̲s̲

         This section gives the details about the electrically
         interfaces (V28, X21 etc.) used in the proposed network.

5.4.1    H̲o̲s̲t̲ ̲I̲n̲t̲e̲r̲f̲a̲c̲e̲

         This section gives details about the proposed UNIVAC
         channel interface, and of the other Host I/F's which
         present are available on the CR80 system.

5.4.1.1  U̲N̲I̲V̲A̲C̲ ̲I̲n̲t̲e̲r̲f̲a̲c̲e̲

         The UNIVAC I/F CR8037M is together with the UNIVAC
         I/F adapter CR8079M able to connect a CR80 to the Univac
         1100 ISI channel pair, with a maximum throughput of
         1M char/sec.

         The data transfer to/from the UNIVAC computer via the
         data buffers located in the UNIVAC I/F, the buffers
         form a part of the CR80 Memory space.

         Further the UNIVAC I/F conform to the specifications
         given in UNIVAC 1110 PROCESSOR I/O Interfaces, SP2025.

5.4.1.2  O̲t̲h̲e̲r̲ ̲H̲o̲s̲t̲ ̲I̲n̲t̲e̲r̲f̲a̲c̲e̲s̲

         At the present a IBM Channel I/F and ICL I/F are available.

         Both of these two interfaces are constructed in the
         same way as the Univac I/F, i.e. with internal data
         buffers which forms a part of the CR80 memory space.

         The IBM Channel I/F CR8039M operates on a IBM 360/370
         Block Multiplexor Channel, with a transfer rate of
         200K Bytes/sec. otherwise the Interface satisfy the
         specifications given in.

         IBM system 360 and system 370 I/O Interface Channel
         to Control Unit Original Equipment Manufacturers Information
         (GA22-6974-3).

         The ICL I/F CR(038 connect up to eight ICL Main Frame
         to the CR(0 via ICL I/F adapters, with a maximum data
         transfer rate of 400K bytes/sec.


5.4.2    C̲o̲m̲m̲u̲n̲i̲c̲a̲t̲i̲o̲n̲ ̲I̲n̲t̲e̲r̲f̲a̲c̲e̲s̲

         The communication interfaces for the proposed initial
         configurations are located in the Channel Units and
         consist of line termination modules (LTUs) and line
         interface adapters LIA's as shown in figure 5.4.2 overleaf.

         Different types of these two modules will be used in
         the configuration.  The different types will be based
         upon the existing design (Ref. appendix B CR80 Data
         Sheet) LTU CR3066M/XXAB/XX which has the following
         features.

         L̲I̲A̲ ̲M̲o̲d̲u̲l̲e̲

         Two types are at present available:

         LIA-N   Non switching LIA which interfaces up to four
                 LTU communication ports to the communication
                 lines.

         LIA-S   Switching LIA which controlled from the CCA
                 can select a spare LTU instead of a failing
                 one.

5.4.2.1  X̲2̲0̲ ̲b̲i̲s̲,̲ ̲X̲2̲1̲ ̲b̲i̲s̲,̲ ̲V̲2̲4̲

         The LTU modules used for these interfaces are identical
         and are at the present available CR8066M/XXAB/XX, please
         refer Appendix B.  The programmes down loaded from
         the CR80 processor unit are described in the software
         section of this technical proposal.

         The LIA used will be the switching (LIA-S) for dedicated
         circuits and the non switching (LIA-N) for switched
         circuits as these can be directed to an alternative
         LTU if a LTU failure occurs.  For LIA characteristic
         please refer to Appendix B "CR80 Data Sheets"

5.4.2.2  X̲2̲1̲

         The LTU modules used for this interface are identical
         to the presently available LTU, ref. data sheets, except
         for the electrical characteristics and functions of
         the interchange circuits which will be changed to comply
         with X21.  Up to two channels will be available for
         bit rates up to and including 9600 `bits/s, or one
         channels for bit rates up to 98000 bits/s (software
         control).  As for the existing LTU the programmes will
         be down loaded from the CR80 PU.


         The LIA to be used for this interface will be a modified
         version for compliance with the connector specifications.
          Both switching and non switching LIA's are used in
         the system.



5.4.2.3  X̲7̲5̲

         The LTU modules used for this interface are identical
         to the presently available LTU's except for line interface
         which will be changed to comply with X75.  Only one
         port will be available which can be operated at 56000
         bit/s.

         As for the existing LTU the programmes will be down
         loaded from the CR80 PU.

         Only non switching LIA modules are proposed as the
         links are expected to be dualized.


       Fig. III 5.4.2.1  Communication Interfaces.


5.4.3    F̲u̲t̲u̲r̲e̲ ̲I̲n̲t̲e̲r̲f̲a̲c̲e̲

         One of the interfaces which are expected to be developed
         in the future is X22, and for interfacing of this multiplexed
         link two new modules are expected to be designed. 
         The modules will be located in the Channel Unit - (CU)
         as shown in figure 5.4.3.1 overleaf.

         The "X 22 LINE ADAPTER" has to demultiplex/multiplex
         up to 80 subscriber channels of recommendation X.21
         and for each channel administrates the fully X.21 protocol.
          On a higher level according to which format is chosen
         - it has to detect/insert "FLAG" or "SYNCHARACTERS",
         detect/insert "BIT-STUFFING" and control/insert "CRC-BYTES".
          Figure 5.4.3.2 shows the Block Diagram for the "X22
         LINE ADAPTER".

         The "X22 LTU" administrates for each channel the highest
         data transport level.  The Packet Protocol" - including
         channel set-up, handshaking and arranging retransmissions
         if data is lost or erroneous.  Furthermore, it interfaces
         the "X22 LINE ADAPTER" to the CR80 bus.  On figure
         5.4.3.3 the Block Diagram for the "X22 LTU" is shown.


                     Fig. III 5.4.3.1


     Fig. III 5.4.3.2 X22 Line Adapter Block Diagram


          Fig. III 5.4.3.3 X22 LTU Block Diagram