Solution Manual for Computer Organization & Architecture Themes and Variations, 1st Edition

salsagattauj 25 views 52 slides Apr 25, 2025
Slide 1
Slide 1 of 52
Slide 1
1
Slide 2
2
Slide 3
3
Slide 4
4
Slide 5
5
Slide 6
6
Slide 7
7
Slide 8
8
Slide 9
9
Slide 10
10
Slide 11
11
Slide 12
12
Slide 13
13
Slide 14
14
Slide 15
15
Slide 16
16
Slide 17
17
Slide 18
18
Slide 19
19
Slide 20
20
Slide 21
21
Slide 22
22
Slide 23
23
Slide 24
24
Slide 25
25
Slide 26
26
Slide 27
27
Slide 28
28
Slide 29
29
Slide 30
30
Slide 31
31
Slide 32
32
Slide 33
33
Slide 34
34
Slide 35
35
Slide 36
36
Slide 37
37
Slide 38
38
Slide 39
39
Slide 40
40
Slide 41
41
Slide 42
42
Slide 43
43
Slide 44
44
Slide 45
45
Slide 46
46
Slide 47
47
Slide 48
48
Slide 49
49
Slide 50
50
Slide 51
51
Slide 52
52

About This Presentation

Solution Manual for Computer Organization & Architecture Themes and Variations, 1st Edition
Solution Manual for Computer Organization & Architecture Themes and Variations, 1st Edition
Solution Manual for Computer Organization & Architecture Themes and Variations, 1st Edition


Slide Content

Solution Manual for Computer Organization &
Architecture Themes and Variations, 1st Edition
install download
https://testbankmall.com/product/solution-manual-for-computer-
organization-architecture-themes-and-variations-1st-edition/
Download more testbank from https://testbankmall.com

Instant digital products (PDF, ePub, MOBI) available
Download now and explore formats that suit you...
Solution Manual for Computer Organization and
Architecture, 11th Edition, William Stallings
https://testbankmall.com/product/solution-manual-for-computer-
organization-and-architecture-11th-edition-william-stallings-2/
testbankmall.com
Computer Organization and Architecture 10th Edition
Stallings Solutions Manual
https://testbankmall.com/product/computer-organization-and-
architecture-10th-edition-stallings-solutions-manual/
testbankmall.com
Computer Organization and Architecture 10th Edition
Stallings Test Bank
https://testbankmall.com/product/computer-organization-and-
architecture-10th-edition-stallings-test-bank/
testbankmall.com
Solution manual for Supply Chain Logistics Management
Bowersox Closs Cooper 4th edition
https://testbankmall.com/product/solution-manual-for-supply-chain-
logistics-management-bowersox-closs-cooper-4th-edition/
testbankmall.com

Solution manual for Intermediate Accounting Kieso Weygandt
Warfield Young Wiecek McConomy 10th Canadian Edition
Volume 1
https://testbankmall.com/product/solution-manual-for-intermediate-
accounting-kieso-weygandt-warfield-young-wiecek-mcconomy-10th-
canadian-edition-volume-1/
testbankmall.com
Basic Statistics for Business and Economics Canadian 5th
Edition Lind Solutions Manual
https://testbankmall.com/product/basic-statistics-for-business-and-
economics-canadian-5th-edition-lind-solutions-manual/
testbankmall.com
Test Bank for Advanced Accounting, 14th Edition, Joe Ben
Hoyle, Thomas Schaefer, Timothy Doupnik
https://testbankmall.com/product/test-bank-for-advanced-
accounting-14th-edition-joe-ben-hoyle-thomas-schaefer-timothy-doupnik/
testbankmall.com
Test Bank for Financial Accounting in an Economic Context,
10th by Pratt
https://testbankmall.com/product/test-bank-for-financial-accounting-
in-an-economic-context-10th-by-pratt/
testbankmall.com
Test Bank Fundamentals Nursing Care Skills 2nd Edition
Ludwig Burton
https://testbankmall.com/product/test-bank-fundamentals-nursing-care-
skills-2nd-edition-ludwig-burton/
testbankmall.com

Test Bank for Marketing, 15th Edition, Roger Kerin, Steven
Hartley
https://testbankmall.com/product/test-bank-for-marketing-15th-edition-
roger-kerin-steven-hartley/
testbankmall.com

2
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.


4. Why is the performance of a computer so dependent on a range of technologies such as semiconductor,
magnetic, optical, chemical, and so on?

SOLUTION

Consider a computer’s memory that uses the widest range of technologies. In an ideal world, a computer would
have a large quantity of low‐cost, very fast, non‐volatile memory. Unfortunately, fast memory such as DRAM is
expensive and volatile. Non‐volatile memory such as magnetic disk is (usually) slow and cheap. Real computers
use a combined memory system that makes the computer appear as if it really did have fast, cheap non‐volatile
memory. That is, by combining memories fabricated with different technologies, the computer manufacturer
can hide the negative characteristics of specific technologies.

3
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.

The fastest memory is cache (usually fast static semiconductor RAM) used to hold frequently‐used data. The
bulk of the immediate access memory is normally DRAM (typically 4 Gbyte today). This semiconductor dynamic
memory holds data and working programs, but is volatile and DRAM must be loaded from disk. A hard disk that
stores data by magnetizing the surface of a platter holds programs that are archived and that have to be loaded
when the user requires them. The hard disk drive is very slow but non‐volatile.

Flash memory is non‐volatile semiconductor memory used to hold semi‐fixed data (e.g., the BIOS) and CD/DVD
is optical memory designed to allow interchangeable media.

Semiconductors themselves are the result of complex technological processes. Even the structure and chemical
composition of transistors change. New materials are constantly emerging for use in display systems.

5. Modify the algorithm used in this chapter to locate the longest run of non‐consecutive characters in the string.

SOLUTION

At any instant you are either in a run of consecutive elements or you are not. If the current element differs from
the previous element, you are in a run of non‐consecutive elements so you increment the counter and
continue. If the current element is the same as the previous element, you are no longer in a sequence of non‐
consecutive elements and you clear the non‐consecutive element counter.

The following presents the code both as ARM assembly language and pseudocode (to the right of the semicolons).

START
AREA NonSequential, CODE, READONLY

ADR r8,Sequ ;Point to sequence
MOV r1,#0xFF ;Dummy old element ($FF is not a legal element)
MOV r3,#1 ;Preset longest non-sequential element length to 1
MOV r2,#1 ;Preset current non-sequential element length to 1

Rep LDR
CMP
r0,[r8,#4]!
r0,#0xFF
;Repeat: read element and point to next
; If terminator
BEQ Exit ; THEN exit
CMP
BEQ
ADD
r1,r0
Same
r2,r2,#1
;Are new and

;If not same
the last element the same?

THEN increment non-sequential counter
MOV r1,r0 ;Old element becomes new element
CMP r3,r2 ;Compare current sequence length with highest
BGE
MOV
B
Rep
r3,r2
Rep
;
;
;
IF lower than or same repeat (goto line ‘Rep’)
ELSE save new longest run
and repeat

Same MOV r2,#1 ;Clear current not-in-sequence count
B Rep ; then repeat

Exit B Exit ;Termination point

Sequ DCD 1,2,3,3,3,2,2,4,5,3,2,1,1,1,1,1,4,0xFF ;List for testing
END

6. I was once criticized for saying that Charles Babbage was the inventor of the computer. My critic argued that
Babbage’s proposed computer was entirely mechanical (wheels, gears, and mechanical linkages) and that a real
computer has to be electrical. Was my critic correct?

SOLUTION

I believe not.

4
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.

There is no fundamental rule that states that a machine such as a computer must have a preferred
embodiment. A computer can be mechanical, electronic, quantum mechanical, biological, or chemical. What is
required to implement a computer (as we understand the term) is a means of:

• storing information (memory),
• reading information from memory,
• decoding the information,
• executing the instructions corresponding to this information,
• writing back the information.

Moreover, for a computer to perform general‐purpose tasks, it must be capable of conditional behavior; that is,
the result of one operation must select between two or more alternative courses of action. Otherwise, the
computer would always execute the same sequence of operations irrespective of the data.

Of course, a practical computer cannot be mechanical because of the slowness of moving parts compared to
electrons in solids. However, one day mechanical computer may be created by using movement at the atomic
level (e.g., changing the position of atoms in a crystal or moving nanotubes).

7. What is the effect of the following sequence of RTL instructions? Describe each one individually and state the
overall effect of these operations. Note that the notation [x] means the contents of memory location x.

a. [5] ← 2
b. [6] ← 12
c. [7] ← [5] + [6]
d. [6] ← [7] + 4
e. [5] ← [[5] + 4]

SOLUTION

[5] ← 2 The value 2 is loaded into (memory) location 5
[6] ← 12 The value 12 is loaded into location 6
[7] ← [5] + [6] The sum of the contents of locations 5 and 6 are loaded into location 7. In this case, the value
2 + 12 = 14 is loaded into location 7
[6] ← [7] ‐ 9 The contents of location 7 (i.e., 14) minus 9 are loaded into location 6; that is, location 6 is
loaded with 5.
[5] ← [[5] + 4] The contents of location 5 are read and then 4 is added to the result. This new value (i.e., 2 +
4 = 6) is loaded into memory location 5. The contents of 6, i.e., 5, are loaded into location 5.
At the end of this code fragment [5] = 5, [6] = 5, [7] = 14

8. What are the differences between RTL, machine language, assembly language, high‐level language, and
pseudocode?

SOLUTION

RTL (register transfer language) is an algebraic notation used to define machine‐level operations such as the
transfer of data between registers. Consider the notation:

[r6] ← [r3] + 4

This means that the contents of register r3 are read and 4 added to that value. The total is then copied into
register r6.

5
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.

Machine language is the actual binary code executed by a computer. For example, the binary sequence
1100101000000001 might mean increment the contents of register r1. However, this meaning would apply only
to a specific computer.

Assembly language is the human‐readable form of machine language; that is, it is a representation of machine
language in terms of mnemonics; for example, in a specific assembly language, MOVE.B D3,(A4) means add
the byte pointed at by register A4 to the contents of register D3. However, an assembly language normally has
special or additional features that make it easier for a programmer to generate code (e.g., the ability to
integrate libraries of functions in a program).

High‐level language is a computer language that has been designed to facilitate programming. There is no link
between a high‐level language and the underlying machine code. (However, it would be possible to design a
specific architecture that executed a high‐level language directly). All programs written in high‐level languages
have to be compiled into machine code prior to execution (or interpreted line‐by‐line by an interpreter during
execution). Typical high‐level languages are C, Java, LISP, and Python.

Pseudocode is an informal high‐level language used by programmers to express algorithms. Pseudocode is
often a sequence of operations expressed in almost plain English. For example:

Repeat
Add a new number to the total
Until all numbers have been added

9. What is a stored‐program machine?

SOLUTION

A stored program or von Neumann machine is a general‐purpose digital computer that stores programs and
data in the same memory. Instructions are processed in a two‐phase cycle called fetch and execute; that is, the
instruction pointed at by the program counter (also called the instruction pointer) is read from memory,
fetched into the computer, decoded, and then executed. Since an instruction might be of the form LOAD X or
STORE Y, or ADD Z,5, a second memory access may take place to read or write to the operand in memory.

10. I would maintain that conditional behavior is the key element that makes a computer a computer. Conditional
behavior is implemented at the machine level by operations such as BEQ XYZ (branch to instruction XYZ) and
at high‐level language level by operations such as IF x == y then do THIS else do THAT. Why are
such conditional operations so necessary to computing?

SOLUTION

Without conditional behaviour, each program would consist of a sequence of operations that were always
executed in the same way every time the program was run. For example; you could build a computer to
evaluate π to 50 decimal places by using a sequence of arithmetic operations without conditional operations.

Conditional operations allow a computer to change the sequence of operations it will execute, according to the
outcome of a test. For example, when simulating a game of chess, a computer may first move each chess piece
onto a different square and then evaluate the goodness or figure of merit of that position. That calculation can
be done without conditional behavior. Suppose at a given stage of play there are seven possible moves, and the
figures of merit of the moves are 2, ‐3, ‐10, 20, 1, 0, 9 with the highest number signifying the best. In this case
the computer would select the move with the figure of merit 20 as best and then continue from that point. It is
this conditional behavior that gives the computer its great power.

6
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.

11. What are the relative advantages of one‐address, two‐address, and three‐address computer architectures?

SOLUTION

From a programmer’s point of view the difference is between elegance and verbosity. For the purpose of this
question we will assume that an address refers to a location in memory (I make this point because you could
also regard a register as an address, for example, r3, r5, r12).

A three‐address machine allows you to specify three operands in a single instruction, which lets you implement
an operation like P = Q + R in the form ADD P,Q,R. Here, P, Q, and R are the three addresses of the three
operands in memory (or they could be registers). Such an instruction would access memory three times during its
execution phase.

A one‐address machine specifies only one address, which means that all operations must take place between
the contents of a memory location and an implicit internal register (sometimes called the accumulator). To
execute P = Q + R we would force you to write something like

LDA P ;Load accumulator with P
ADD Q ;Add Q to P in the accumulator
STA R ;Store accumulator in R

This is inelegant code and the accumulator is a bottleneck because you have to keep loading and storing as all
data goes through the accumulator.

A two‐address machine allows you to specify two operands, which means that one operand acts as a source
that is overwritten by the result. For example, ADD P,Q adds P to the contents of Q. The old contents of Q are
lost.

Although there are no three‐memory‐address machines, RISC processors like MIPS or ARM use a three‐address
instruction format and specify three registers, for example, ADD r1,r2,r3.

Most real computers fall into one of two categories; those that have three register addresses (like ARM and MIPS),
and those that have two addresses (like Intel’s IA32 architecture). Three‐address machines must also provide two
memory access instructions, load and store, that transfer data between registers and memory.

Some two‐address computers are called one and a half address machines because they use one memory
address and one register address. You could say that such a machine is essentially a one‐address machine with
multiple accumulators (e.g., Intel’s IA32 series).

One‐address machines are simple devices and are implemented as 8‐bit microcontrollers in low‐cost applications.
This course does not deal with these devices.

The relative advantages of two‐ and three‐address machines are debatable and both processor architectures
continue to thrive. Some would argue that a three‐address (RISC‐style) processor should be faster than a two
address machine because all data processing operations are applied to registers that have a far faster access time
than memory.

12. What is the difference between a computer’s architecture and its organization?

SOLUTION

A computer’s architecture is an abstraction; that is, it is the assembly language programmer’s view of the
computer in terms of its instruction set. A knowledge of a computer’s architecture is necessary to write
(machine‐level) programs that run on the computer.

7
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.

A computer’s organization is the actual organization or structure of the hardware that implements the
architecture. Any given architecture can be implemented by many different computer organizations. A computer’s
organization determines its price‐to‐performance ratio. In short, architecture tells us what a computer does and
organization tells us how it does it. Today, the term microarchitecture is sometimes used in place of organization.

13. Can you think of other systems besides computers that may be said to have both an architecture and an
organization?

SOLUTION

The clock or watch falls into this category. Its architecture is determined by its dial and functions (date,
stopwatch etc.). Its organization determines how it calculates the time; for example, mechanical clockwork,
analog electronics driving a stepper motor to move the hands, or digital electronics.

Automobiles are another example: some automobiles have identical functionalities. However their organization
(gasoline or diesel, turbocharged or normally aspirated engine) determines their size, speed, and price.

14. What is the difference between an exo‐ and an endo‐architecture?

SOLUTION

Dasgupta popularized the terms exo‐architecture and endo‐architecture. The exo‐architecture of a computer is
the external view (or black box view) of its architecture. The endo‐architecture is a description of a computer’s
architecture at the level of its implementation. For example, the exo‐architecture refers to the add instruction
and the endo‐architecture refers to what an adder does. These two terms correspond to ‘architecture’ and
‘organization’ as used in this text.

15. Over the years, has more computer progress been made in computer architecture or computer organization?

SOLUTION

It is difficult to precisely quantify progress in these two aspects of the computer. The question should be
interpreted to mean greater relative progress. It appears to me that greater progress has been made in the area
of organization rather than in architecture. For example, the programmer’s model of Intel’s IA32 architecture
has not changed greatly since the 80386. However, the performance of this family has changed massively in the
same period. Much of this performance is due to technological advances in manufacturing, and in organization
(e.g., the use of on‐chip cache memory, pipelining, branch predication, parallel processing, and so on).

16. What is the semantic gap and what is its importance in computer architecture? You will need to use the
Internet or library to answer this question.

SOLUTION

Humans write code in high‐level languages like C and Java. Computers execute code in low‐level languages like
the Intel IA32 instruction set. The compiler translates a high‐level language into low‐level language (in machine
code form) that can run on an actual processor. The difference between high‐ and low‐level languages is called
the semantic gap. If a computer were constructed that directly executed C code, then there would be no semantic
gap.

7
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.
17. What is the difference between human memory and computer memory?

SOLUTION

A computer’s random access memory is normally accessed by applying an address to interrogate the contents
of a specific location within the memory. Human memory appears to be associative. That is, it is searched by
providing data as a key rather than address. Memory cells containing that key then respond. For example, the key
might be “red” and responses might be “sunset”, “color”, “rainbow”, and so on.

Associative memory is accessed in parallel with a key that is fed to all locations simultaneously. In other words,
you access associative memory rather like a web search, by means of a query. Currently, we cannot construct
large semiconductor associative memories, because it would mean accessing millions of locations
simultaneously and matching the contents of each location with the key. Associative memory is also called CAM
(content accessible memory). Small amounts of associative memory are used in specialized applications such as
high‐speed address translation in memory management units.

18. What is the von Neumann bottleneck?

SOLUTION

The von Neumann machine operates in a fetch/execute cycle with a common memory holding both instructions
and data. This means that memory must be accessed (typically) twice for each instruction – once to read the
instruction and once to access the operand used by that instruction. Consequently, the path between the
computer and memory becomes a bottleneck. The use of separate data and instruction caches can help
overcome some effects of the bottleneck.

19. Suppose Intel did not develop the first microprocessor. Was the microprocessor inevitable?

In my view yes. At the time microprocessors appeared, everything that was needed was in place: microtechnology
and semiconductor manufacturing were growing, the computer and minicomputer existed, calculators existed.
Small and medium‐scale logic elements were being produced. There was a need for the microprocessor. All these
factors made the microprocessor inevitable.

SOLUTION

20. Identify as many enabling technologies as you can that were required before the computer could be
constructed.

SOLUTION

In order to design a mechanical computer of the type envisaged by Babbage, you need chemistry and
metallurgy to create the working parts (moving cog wheels and levers and linkages), and engineering
technology to create the machines required to build the computer.

For an analog computer you need the development of the theory of electronics, the construction of active
(amplifying) devices such as vacuum tubes and transistors, and the availability of components such are
resistors, capacitors, inductors, diodes, etc., that are the basic elements of all analog circuits.

For the construction of electromechanical computers (i.e., those using relays) you need some of the same
components as general analog circuits plus relays that require the construction techniques of the watch‐maker
(a relay has moving marts actuated by electromagnets).

For the construction of the electronic digital computer, you need the development of active devices (vacuum
tubes or transistors) that can be used to make gates and bistable elements (flip‐flops). Of course, to construct
practical computers, you need to develop a wide range of technologies: electronics to process signals and

8
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.
transmit data from point‐to‐point over both short and long distances. You need the development of magnetic
and optical technologies as these form the basis of many storage systems. You need the development of display
technologies (the CRT, LCD, printer, and so on). Note that many of the technologies are ‘universal’ in the sense
that using a technology in one field means that it can be applied in other areas; for example, the technology
used to build a CPU is almost identical to that used to create an LCD display.

I asked this question because some introductory texts on computer architecture and organization seem to
imply that the computer suddenly emerged. The typical discussion of computers goes something like ...abacus...
Babbage analytical engine … ENIAC… PC.

In fact, rather a lot happened between Babbage and ENIAC. Much of the driving force behind the computer was
the result of the development of the telegraph and telephone networks. These required the development of
metallurgy (metals and wires, magnetics), chemical processing (insulators for wires), fabrication and
manufacturing, battery technology, and the development of circuit theory and transmission lines (the behavior
of signals in networks).

The design of mechanical and electromechanical switching networks for telephone exchanges gave rise to the
body of theory that would later be used to create binary and logic circuits. The vacuum tubes that were used as
amplifiers in switching circuits and memories required the development of complex chemistry (cathodes), high‐
vacuum technology, and a theory of the behavior of electrons in electrostatic fields. Even cosmology played a role
in the history of the computer because circuits developed to detect cosmic rays in high‐altitude balloons were
later adapted as pulse counters in the first generation of vacuum‐tube‐based computers. The development
of the computer required a massive amount of progress across numerous fronts.

21. Suppose Babbage had succeeded in creating a general‐purpose mechanical computer that could operate at,
say, one operation per second. What effect, if any, do you think it might have had on Babbage's Victorian society?

SOLUTION

Technology is often interlinked. A development in one area is made because there is a need for that development.
Technology often develops across a broad front (chemistry, materials science, engineering, electronics and so on).
Had Victorian society developed mechanical computers (of the form envisaged by Babbage), engineering and
scientific calculations may have been improved, but I doubt whether there would have been a major impact on
society. It was the development of the chemical industries and the beginning of electronics that led to our modern
society.

22. Use the method of finite differences to calculate the value of 15
2


N N
2
Δ1 Δ2
1 1
2 4 3
3 9 5 2
4 16 7 2
5 25 9 2

SOLUTION

In the above table we’ve provided the integers 1 to 5 and their squares. The Δ1 column contains the differences
between successive squares and the Δ2 column contains the difference between successive differences (this is
called the second difference). You can see that the second difference is always 2. Using this and addition we can
build up the following table. Below is the table from 4 onward with the seconds and first differences. We can
add the second differences to the N
2
column to complete the table.

9
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.

N N
2
Δ1 Δ2

4 16 7 2
5 25 9 2
6 36 11 2
7 49 13 2
8 64 15 2
9 81 17 2
10 100 19 2
11 121 21 2
12 144 23 2
13 169 25 2
14 196 27 2
15 225 29 2

23. Extend the method of finite differences to calculate the value of 8
3
and 9
3
.

SOLUTION

N N
3
Δ1 Δ2 Δ3
1 1
2 8 7
3 27 19 12
4 64 37 18 6
5 125 61 24 6
6 216 91 30 6
7 343 127 36 6
8 512 169 42 6
9 729 217 48 6

In this case we’ve written the values of the cubes up to 5. Observe that the third difference is a constant 6. Now
the table can be continued by constructing the third, second, and first difference columns to generate the column
of cubes without multiplication.

24. Suppose you decided to try and make computers more ‘human’ and introduce the ‘random element.’ How
would you do that?

SOLUTION

It is possible to make computers random in the sense that we can create random numbers and then use a random
number as a means of choosing the outcome of a decision; that is, creating a random element. Random numbers
can be generated by taking random noise and converting it into 1s and 0s (random noise is the background hiss
present on some radio signals). Random numbers can also be created mathematically by starting with a seed (an
initial number) and then applying successive mathematical operations to create a sequence of numbers that
appear to be random. These are called pseudo‐random numbers because the same seed always generates the
same sequence.

It would be possible to model some aspects of human thought processes by using random numbers to ‘make a
guess’; for example, to model a decision that is 90% certain you could create a random number in the range 0.0
to 1.0 and then take the decision if the random number is less than 0.9. This speculation belongs to the world of
artificial intelligence.

10
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.

25. Computers always follow blind logic. Executing the same program always gives the same results. That’s what
the computer books say. But is it true? My computer can appear to behave differently on different occasions.
Why do you think that this might be so?

SOLUTION

In principle, you would think that computers are entirely predictable and you always get the same response to
the same actions. In practice, clicking on an icon may sometimes work and sometimes cause a crash. Why?

Of course, it is true that basic computer operations always yield the same results using the same data; for example,
if you perform the operation a = f(b,c) you will always get the same value of a for data b and c and operation f.

However, computers are complex systems and are not entirely synchronous; for example, the state of a signal
from an external device may be sampled (read) and it may be read as a 1 or 0, depending at which instant it is
sampled. In a sophisticated system with memory management, data may sometimes be in memory and
sometimes on disk. If data is read from cache it may be available in 1 clock cycle, getting it from main store may
take 50 cycles before it is available. If the data is on disk, it may take more than 20 million clock cycles to
retrieve it. Whether data is immediately available or requires a very significant wait is dependent on the current
job load. The interaction between individual jobs, asynchronous events such as interrupts and data
transmission, means that it is difficult to predict the operation of a computer in many circumstances.

Note that, under certain circumstances, the sampling of digital signals can lead to transitory, random errors called
glitches.

The study of systems that require guaranteed behavior (industrial process controls, fly‐by‐wire aircraft, and
nuclear reactors) is a branch of computing called real‐time systems. In real‐time systems the hardware and
software are constructed to take account of the effect of the problems we have highlighted and to minimize
them. In the 1980s a processor called the Viper was designed in the UK (sponsored by the UK Ministry of Defence)
for applications that required predictability.

26. The value of X is 7. Some computer languages (or notations) interpret X+1 as 8 and others interpret it as Y.
Why?

SOLUTION

In everyday life (i.e., natural language), we do not distinguish between the name of a variable, its address, and
its value. When we say, X = X + 1, we mean that the value we have given the variable X is incremented by 1 to
become 8. X is the name of the variable whose value is 7.

If we regard X as the representation of the character X, then X is 0x58 (the ASCII code for X). Adding 1 to X gives
us 0x59 which is the ASCII code for Y.

Some computer languages allow you to operate on the name of a variable. This question demonstrates that it is
important to appreciate the difference between name, address, and value.

27. Carry out the necessary research and write an essay on the history of the development of computer memory
systems (e.g., CRT memory, delay‐line stores, ferrite core stores, etc.)

SOLUTION

This is an open‐ended question. Some professors might require a short note highlighting the details and others
may require an extended essay covering memory technologies and the biographies of those involved. Historically,
the first form of computer memory was the punched card. This was used in the Jacquard loom in
1801 to control the weaving of patterns in textiles – a hole or no hole at a point in a card could be used to cause

11
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.

the horizontal thread to go in front of or behind the vertical threads. Babbage proposed the punched card as a
storage mechanism in his analytical engine.

Early EDVAC and ACE computers used mercury delay lines to store data. Information was converted into pulses in
columns of mercury and the pulses were continually recirculated. Mercury delay lines are impractical
because you have to wait for the data you want to reach the end of the tube where it is read and recirculated.

One of the very first random access fully electronic storage devices was the Williams tube that stored data as an
electrostatic charge on the surface of a cathode ray tube. These had small storage capacities but they made
possible some of the first computers at the end of the 1940s and the beginning of the 1950s.

Drum memories appeared in the late 1940s. These used a drum or cylinder as a magnetic recording device; that
is, it was rather like a 3‐dimensional hard disk (instead of coating a flat platter with a magnetic material, the
surface of a rotating drum was coated with a magnetic material). Data was written along tracks and the disk
rotated. This was also a non‐random access device, but it could store more data than previous technologies.

Jay Foster investigated the properties of ferromagnetic materials at MIT in 1949 and this work led to the
development of the ferrite core memory used by the Whirlwind I computer in 1953. The ferrite core stored binary
data as clockwise or anticlockwise magnetization in a tiny ferrite bead. This allowed random access and relatively
high speeds (e.g., 1 µs). Ferrite core memory dominated computing for three decades.

Today’s mainstream semiconductor memory is constructed with DRAM, dynamic memory that stores data as an
electrostatic charge in a transistor. DRAM was first commercially produced by Intel in 1970. It is still the dominant
form of main store in computers today.

Secondary storage has been implemented as paper tape (obsolete) magnetic tape (still going strong in its modern
forms), and disk drives. Magnetic tape recording was invented in Germany in 1928. The first use of tape to record
data was in 1951 on the UNIVAC I.

The disk drive uses a flat rotating platter with data recorded in concentric tracks on a magnetized surface. It is the
same as tape in principle. The first disk drive was introduced by IBM in 1956 in their RAMAC computer. The first
relatively low‐cost hard disk drive appeared in 1973 as the IBM 3340 Winchester drive. Today, the hard disk drive
has evolved into small, low‐cost systems with capacities of the order of 3 TB.

The hard‐disk drive is contrasted with the floppy‐disk drive. The floppy disk drive (now virtually obsolete) used
low‐cost plastic disks to store data in the early days of the PC revolution (e.g., capacities of 360 KB, 720 KB, 1.4
MB and 2.88 MB). These capacities are miniscule today and the flash drive has totally replaced the floppy disk
drive. Although the PC revolution owes everything to the floppy magnetic disk, this recording medium is now
almost entirely forgotten.

28. Of all the early computers, which do you think should be called the first computer if you are judging the world
by today’s standards?

SOLUTION

This question is difficult, if not impossible, to answer. The person closely associated with an invention in the
public’s mind is not necessarily the person who really made the invention. For example, Edison didn’t invent the
incandescent light. Similarly, many now believe that Bell didn’t invent the telephone. In 2002 the US Congress
recognized the Italian‐American Antonio Meucci as the true inventor of the telephone. It is said that Meucci
demonstrated the telephone in New York in 1860, sixteen years before Bell took out a patent. I was surprised to
find that the transistor was not invented at Bell labs in 1947. Julius Lilienfeld filed a patent for the transistor in
1925.

Claims to the development of the computer are as convoluted and controversial as claims to any other
invention. Claims are often influenced by national chauvinism or economic pressures (e.g., in the UK many

12
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.

believe that John Logie Baird invented television, even though very few people in the USA have heard of Baird).
The invention of television is analogous to the invention of the computer. Baird demonstrated a means of
displaying moving images at a distance. However, the quality of the image and the resolution were very poor,
because his scanning process was entirely mechanical. A year or so later, Vladimir Zworkin demonstrated
moving images using the iconoscope, an electronic device that became the basis of modern television. Baird’s
invention was a dead end. So, does Baird or Zworkin deserve the credit?

In the world of computing we have a similar problem. When did the computer emerge? If you regard a
computer as a concept, Babbage deserves the credit because he suggested the storage of instructions in memory,
a mill or processor that performed operations, a means of storing intermediate results, and a mechanism for
conditional computation. Babbage never built his mechanical system. However, we should note that today we
often view Babbage’s analytical engine through modern eyes as if it were conceived of as a computer (Babbage
certainly did not see it that way).

Konrad Zuse is now given credit as one of the inventors of the computer. He designed an electro‐mechanical
computer and even had a binary ‐floating point unit in 1936. Because he was in Germany in WW2, the outside
world learned little of his work until historians re‐evaluated his contribution. Zuse’s Z1 computer (1938) was the
first program‐controlled computer and his Z3 (1941) was the world’s first fully functional programmable
computer.

Atanasoff and Berry claim to have invented the first digital computer in 1937. This was an electronic computer,
but not a stored program computer. It was a calculating engine designed to solve linear equations and was not
a computer in the current sense of the word (electronic calculator would have been a better term). Many
regard the ENIAC as the first digital computer. This was also an electronic machine built at the University of
Pennsylvania and completed in 1964. The ENIAC was not programmable and you created a program by
rearranging the hardware.

However, in 1973 ENIAC’s patent of 1963 was ruled invalid in favor of Atanasoff‐Berry. Basically, two giants of
computing, Sperry Rand and Honeywell, sued each other because Honeywell alleged that Sperry Rand had an
illegal monopoly as Sperry Rand held the ENIAC patent and Honeywell was championing Atanasoff. Atanasoff
won the case. However, many historians feel that the judgment was flawed; not least because the ABC (Atanasoff‐
Berry Computer) computer was not programmable.

It appears that the first true stored‐program computer (if we forget Zuse) was the so‐called Manchester Baby
built at the University of Manchester in the UK in 1948. The EDSAC at Cambridge University, also in the UK, was
completed in 1949 and is also frequently credited with being the first stored‐program computer.

The computer (as we know it) resulted from gradually accelerating developments during the 1930s and 40s. Its
development was inevitable given the need for high‐speed computation, the widespread notion of an electronic
brain and the availability of technology.

29. In what applications have computers been most successful and in what applications have they been least
successful or even useless?

SOLUTION

Computers are ubiquitous today in both control systems, and human systems. The microprocessor has brought
low‐cost controllability to almost any system, from the washing machine to the automobile. Microprocessors
are at the heart of digital cameras, mobile phones, MP3 players, iPads/tablets and GPS systems.

Probably the first really successful popular use of the computer was word processing. It allowed countless millions
to create and manipulate documents at home. With the growth of communications technology, the
microprocessor gave us the web and distributed information – not to mention computer games and
multimedia. All these are successes. One of the most surprising and unanticipated products of the microprocessor
revolution was the spreadsheet. That revolutionized commerce.

13
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.

Computers have probably been least successful in the field of artificial intelligence; that is, the mimicking of
human behavior. Certainly, the humanoid robot (e.g., Asimov’s robots) that has a very long history in SF has not
emerged. Nothing remotely like it has appeared. Operations that are apparently simple to humans, such as speech
understanding, have not been fully achieved (there are, of course, some respectable speech recognition and
understanding systems such as Apple’s Siri, but these are not yet perfect). Similarly, robots cannot generally
perform operations that we regard as easily; for example, climbing stairs. We have created excellent special‐
purpose robots (e.g., in the automobile world) but nothing that comes close to a machine with human‐ like
capabilities.

30. Why is the bus so important to a computer?

SOLUTION

The bus distributes data in a computer between functional units and between the computer and peripherals.
The bus provides a computer with connectivity. The bus is to a computer what a highway is to a human.
Without highways we would not be able to go from one place to another with great ease. Every journey would
have to be strictly point‐to‐point. We share roads with others and have protocols (traffic signals, driving
conventions, and laws) to ensure the smooth and orderly flow of traffic. The same is true of computers and buses.
Processors, memory units, displays and countless peripherals have to be interconnected. Buses allow this to
take place. There are fast buses between a computer (CPU) and its external memory (DRAM). There are slower
buses between computers and peripherals (e.g., USB). Protocols exist so that information flows in an orderly
fashion in a computer; for example, one device can request the bus, another device currently controlling
the bus can give it up, and the would‐be bus controller take control in an orderly fashion.

31. It is common to hear the argument that the development of the CPU (microprocessor) in terms of its size,
power, and speed has driven the computer revolution. What other aspects of the computer system have driven
the computer revolution?

SOLUTION

The previous question pointed out the importance of the bus. Without USB/FireWire and WiFi/Bluetooth,
interconnectivity would not be possible and mobile Internet applications would not exist. Similarly, the
development of low‐cost peripherals such as printers, scanners, displays, mice and keyboards has made the
personal computer an almost essential household item.

Three other developments that have been vital to the growth of the computer are:

a. The display. Portable computing would be impossible without low‐cost, high‐resolution, energy‐efficient
color displays.

b. The development of the disk drive provides large quantities of low‐cost data storage. Although
performance has increased relatively little (time to read and write data), storage capacity has risen from
about 5 MB to about 5 TB which represents a million‐fold increase in capacity.

c. The development of flash‐memory. The hard disk is relatively bulky and has high power consumption. Flash
memory now provides the non‐volatile storage required by MP3 players, digital cameras, and some
notebook/netbook computers.

14
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.

32. Where do you think the bottlenecks (limitations or barriers) to the growth of the computer, in terms of its
computational power and its abilities/application, lie?

SOLUTION

This is partially answered by other questions on, for example, Moore’s Law.

Limitations depend to some extent on the nature of the user. This answer is largely aimed at the home or office
computer user, rather than the scientific or government user, because scientific/government users can spend
their way out of bottlenecks (e.g., by means of massive parallelism).

In terms of data storage (capacity) we are doing well. The greatest storage requirement comes from high
definition moving images. At the moment personal computers and tablets can hold a reasonable amount of
data; for example, hundreds of hours of video. As the resolution of displays increases, there will be a continued
need for more storage capacity (and some will wish to carry their entire video storage with them).

Processing power is not usually an issue in desktop computing. However, those working on very high resolution
still and moving images continue to require more power. The same is true for high‐resolution dynamic games.
High‐performance games computing will probably be a driving force for years to come.

AI applications will continue to soak up computing power as fast as it can be generated for the foreseeable future.
For example, face recognition could be used to compile databases of all scenes and actions across many movies,
a gigantic task.

A practical limitation to computing is bandwidth, either for a fixed computer (e.g., via cable modems) or for mobile
computers (via WiFi). It may well be that the lack of bandwidth will prove to be the single most limiting factor for
the average user.

Another limitation is power. This manifests itself by limiting computing speed (the need for more energy) and
displays (the need to provide backlighting). Another power limitation is dissipation in terms of the need to remove
heat from a computer. This is a particular problem in mobile computing. Finally, when the public electricity supply
is not available (e.g., mobile computing), the principal limitation is battery life.

In non‐home and office computing (commercial, military, government, medical) it is hard to see any limit to the
demand for both storage capacity and computing power. Medical imaging alone has increasingly larger and larger
storage requirements. Simulation also has endless requirements from the simulation of nuclear explosions, to the
simulation of weather systems, to the simulation of molecular processes in physics. There is simply no foreseeable
limit to computational requirements.

33. Is Moore’s law a law?

SOLUTION

No, not in the sense of a physical law. It is based on an observation that has been turned into a prophecy or
conjecture. Because it has appeared to hold (or at least approximately so) for four decades, manufacturers have
used Moore’s Law to begin designing the next generation of microprocessors before the current generation is in
production; that is, the manufacturer can start to design a system with twice the number of transistors as the
current generation without the technology needed to fabricate the device being currently available. I call it
‘Mr. Micawber’s Law’, because it relies on something turning up. In recent years, many have stated that
Moore’s Law has indeed come to an end because we have reached (or are very close to) the physical limits to
computer performance.

15
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.

34. Why do you think that Moore’s law exists? What drives it or makes it possible?

SOLUTION

There are several versions of Moore’s Law and corollaries of it. The basic law states that the number of transistors
on a chip doubles every 18 months. This is similar to saying that the size of individual transistors will be reduced
by a factor of 0.7 every 18 months. A popular corollary is that processing power double every 18 months. The fact
that Moore’s Law has worked for so long indicates that there may be several factors driving it.

Moore’s Law has been kept afloat by the astonishing progress in semiconductor manufacturing technologies
that are able to fabricate smaller and smaller transistors, year by year. In turn, this requires progress in many
different areas – semiconductor manufacture, encapsulation, the development of new materials such as the high‐
k metal gate, new transistor structures (different geometry) and, above all, progress in the
photolithography used to fabricate chips. Moreover, as technologies improve they can themselves be used to
create better chip‐manufacturing tools.

Moore’s Law will eventually come to an end. That is not an observation from recent trends or a guess or a
conjecture; it’s a certainty. Semiconductors are constructed from real materials that have an atomic structure.
There is a limit to how small things can be made in the atomic world. By about 2020, transistors will be reaching
the atomic limit. Once interconnections between transistors chips become just a few atoms wide, the
conventional rules of electronics will no longer hold and quantum mechanical effects will begin to dominate.

Some believe that Moore’s Law will continue beyond 2020 by exploiting three‐dimensional circuit design, or other
forms of computing that take place at the atomic level using quantum mechanical effects or magnetism.

Other documents randomly have
different content

The Project Gutenberg eBook of Nuovi studii
sul genio vol. II (Origine e natura dei genii)

This ebook is for the use of anyone anywhere in the United
States and most other parts of the world at no cost and with
almost no restrictions whatsoever. You may copy it, give it away
or re-use it under the terms of the Project Gutenberg License
included with this ebook or online at www.gutenberg.org. If you
are not located in the United States, you will have to check the
laws of the country where you are located before using this
eBook.
Title: Nuovi studii sul genio vol. II (Origine e natura dei genii)
Author: Cesare Lombroso
Release date: May 2, 2019 [eBook #59417]
Language: Italian
Credits: Produced by Claudio Paganelli, Carlo Traverso, Barbara
Magni and the Online Distributed Proofreading Team at
http://www.pgdp.net (This file was produced from
images
generously made available by Biblioteca Nazionale
Braidense
- Milano)
*** START OF THE PROJECT GUTENBERG EBOOK NUOVI STUDII
SUL GENIO VOL. II (ORIGINE E NATURA DEI GENII) ***

NUOVI STUDII SUL GENIO
II
ORIGINE E NATURA DEI GENII

NUOVI STUDII SUL GENIO
VOLUME II
ORIGINE E NATURA
DEI GENII
DI
C. LOMBROSO
(con 3 tavole e 6 figure nel testo).
MILANO — PALERMO — NAPOLI
REMO SANDRON
Editore brevettato di S. M. il Re d'Italia

1902.

PROPRIETÀ LETTERARIA
(mc) Torino — Tipografia G. Sacerdote.

INDICE

ORIGINE E NATURA DEI GENII
"Quelques difficultés qu'il y ait
à découvrir des vérités
nonvelles en étudiant la
nature, il s'en trouve des plus
grandes encore à les faire
reconnaître".
Lamarck .
CAPITOLO I.
Sull'unità del genio.
Fra i cento e più critici che tartassarono la mia teoria sul Genio, uno
solo mi ha segnalata una vera, capitale lacuna: il Sergi: quando mi
obbietta, nel Monist, che io ho sì illustrata e, forse, rivelata, la natura
del genio; ma non ho spiegato come sorgano le varietà così
differenti dei genî. Non già — egli intendeva — che i genî
differiscano essenzialmente fra loro per qualità. L'eccellere nella
pittura piuttosto che nella matematica o nella strategia, non cambia
punto la natura dei genî; come il variare nel sistema di
cristallizzazione romboedrica o esaedrica non cambia la natura
chimica del carbonato calcare, essendo in tutti comune l'esplosione,
l'intermittenza, la creazione del novo e, sopratutto, l'estro.

Ciò, per quanto le parvenze vi fossero contrarie, ci venne
chiaramente provato anche dai più insigni pensatori.
Così il Mach
[1] notava: "Come già Giovanni Müller e Liebig
affermarono arditamente, le operazioni intellettuali degli scienziati
non differenziano sostanzialmente da quelle degli artisti. Leonardo
da Vinci può esser posto tra gli uni e gli altri. Se l'artista, con pochi
motivi, compone la sua opera, lo scienziato scopre i motivi che
penetrano nella realtà. Se uno scienziato, come Lagrange, è in
qualche modo un artista quando espone i risultati ottenuti, a sua
volta un poeta, come Shakespeare, è uno scienziato nella visione
intellettuale che presiede all'opera sua. Newton, interrogato sul suo
metodo di lavorare, rispose che meditava a lungo sullo stesso
argomento; e così risposero D'Allembert e Helmoltz. Scienziati e
artisti raccomandano il lavoro tenace e paziente. Quando la mente
ha più volte contemplato lo stesso soggetto, aumentano le
probabilità di occasioni favorevoli alla creazione; tutto quanto può
plasmarsi alla idea dominante acquista rilievo, mentre quanto le è
estraneo fugge nell'ombra. Così spicca di luce improvvisa
quell'immagine che esattamente risponde all'idea; e mentre è effetto
di lenta selezione, sembra il risultato di un atto creativo; così si
comprende come Mozart, Newton, Wagner affermino che le idee, le
armonie e le melodie affluissero loro spontanee ed essi non
facessero che ritenerne il meglio".
A sua volta Carlyle disse: "Non v'ha differenza sostanziale tra artista
e scienziato. Molti poeti furono insieme storici, filosofi e statisti;
Boccaccio e Dante furono diplomatici", e noi aggiungeremo che
Leonardo da Vinci, Cardano, come negli ultimi tempi D'Azeglio,
Humboldt, Goëthe, abbracciarono i campi più svariati dello scibile
umano.
È un fatto notorio che molti grandi matematici furono o nacquero da
artisti; così vedo nella Biografia di Beltrami, redatta con tanto amore
dal Cremona (Roma, 1900), che il Beltrami ebbe avo un abilissimo
musico, e padre e zio pittori di merito, e madre nota per belle
composizioni musicali; egli stesso era pianista abilissimo, come lo

furono Sylvester, Codazzi e come lo sono Porro, Sciacci, D'Ovidio; lo
stesso Beltrami
[2] dettò una specie di teoria sui rapporti tra la
musica e la matematica, pretendendo che il processo mentale
applicato alla musica fosse identico, o poco meno, a quello delle
matematiche; quasi che nell'uno e nell'altro fossero posti in azione
gli stessi organi. Codazzi, grande matematico e insieme pazzo
morale ed alcoolista, era un vero melomane: stava intere notti al
piano; più volte mi diceva che era sulla via di trovare un metodo per
comporre musica col mezzo della matematica; in fatto, però, soffriva
e morì di delirium tremens.
Meyerbeer, a sua volta, era un buon matematico.
E non citiamo Haller, Swedemborg, Cardano (Vedi sopra, vol. I), che
percorsero, scoprendovi del nuovo, i campi più disparati dalla
matematica e dalla chimica alla teologia e letteratura; perchè ci si
potrebbe obbiettare: che era facile allora abbracciare le regioni più
lontane dello scibile e anche trovarvi del nuovo, essendone la
materia ancora così circoscritta.
Se non che: se ai nostri tempi questo pare inverisimile, gli è perchè
si riflette anche nella concezione del genio quell'eccessiva divisione
del lavoro che si è infiltrata nella vita; per cui non riconosciamo
abbastanza i meriti dei genî multiformi e non ne accettiamo che
alcune delle doti unilaterali più appariscenti. Così nessuno ai suoi
tempi, anzi nemmeno ora, ha riconosciuto abbastanza il merito di
Goëthe nella filosofia naturale.
Una volta ammesso in Goëthe il grande poeta, ripugnamo a crederlo
grande naturalista e grande ottico. Così nessuno di noi riconosce o
ricorda le profonde attitudini politiche e scientifiche di Dante, nè le
letterarie e tattico-militari di Macchiavelli, nè le musicali di Rousseau;
e nessuno sa vedere in Leonardo da Vinci il geologo, l'idrologo, il
balistico, l'anatomico, o in Cardano il letterato, il filosofo e il
teologo
[3]. Pure in nessun di questi casi la grandezza del genio nei
rami più disparati era giustificabile dalle condizioni dei tempi: nè in
questi casi vale più la scusa della divisione del lavoro, nè l'obbiezione
che lo scibile si riduceva a così poco da potersi facilmente tutto

abbracciare: perchè quei genî non solo avevano percorsa tutta la
scienza contemporanea, ma prevennero quella dei nostri tempi, e
alcuni, anzi, furonci coevi, come Goëthe, Humboldt, Hæckel,
Leopardi, D'Azeglio e Arago.

CAPITOLO II.
Cause note della varietà dei genî.
Se non che, ripeto, notava giustamente il Sergi che la comune
natura dei genî non ispiega affatto la ragione della loro varietà, come
la composizione identica dei cristalli di calce non spiega perchè
ciascuno cristallizzi in un sistema speciale: acqua e ghiaccio hanno
pure la stessa formola molecolare; ma perchè l'una abbia aspetto
d'acqua e l'altra di ghiaccio, ci vuole una condizione speciale, che è
nota essere la termica.
Ora, come può spiegarsi la varietà così diversa dei genî?; perchè l'un
genio si specializza nel drizzone artistico e più propriamente della
pittura, e l'altro diventa un genio storico, archeologico, ecc.? Qui è
veramente il nuovo problema.
Eredità. — Nè basta a spiegarlo l'eredità. Recentemente Möbius
faceva notare la strana frequenza ed intensità dell'eredità nei
matematici, riscontrata tra padre e figlio in 215 e in 35 con più figli:
17 volte tra padre, figlio e zio; 5 col nonno e con lo zio; 20 tra zio e
nipote; 131 tra affini; in più di due fratelli 23 volte; 3 volte tra sorelle
e fratelli
[4].
Ciò pare anche più diffusamente abbia luogo per la musica, forse
perchè qui l'ambiente può agire più precocemente, poichè noi
sappiamo, dagli studi del nostro Garbini sui bambini, che essi
cominciano a 13 mesi ad avvertire le note cromatiche e nel 5º anno i
suoni.

Perosi ebbe non solo il padre e il nonno musicisti, ma anche l'avolo e
il bisavolo, e crebbe in mezzo a un'atmosfera di musica e di religione
come Mozart. Ed è nota la discendenza dei Bach, dei Mozart, dei
Gabrielli, dei Palestrina e dei Bellini.
Anche Wagner ebbe fin dalla seconda generazione maestri di musica
in famiglia: un nonno coltissimo, un padre giurista, è vero, ma
appassionato dell'arte drammatica e del teatro; e il padrigno,
successo alla morte del padre, era nientemeno che il comico Ludwig
Geyer. Anche lo zio era appassionato dell'arte, e come
commediografo sviluppava in alcune sue monografie le idee che
furon tanto care poi al nipote. Finalmente un fratello e tre sorelle del
Geyer si erano date al teatro. Si capisce quindi che, benchè egli si
fosse dato alla pittura fin dalla giovinezza, divenisse poi il più grande
poeta e musicista del suo tempo.
Raffaello era di famiglia di scultori e pittori: il padre, poeta e pittore,
gli insegnò la sua arte.
Nelle scienze naturali eccelsero i Darwin, gli Hooke, i Jussieux, i
Geoffroy de Sant-Hilaire, ecc.
Eredità dissimilare. — Ma a chi ben studi questi casi, specie pei genî
scientifici, essi sono più l'eccezione che la regola.
Se per molti altri genî l'esser nati, come Darwin, come Musset,
Raffaello, Geoffroy, Bach, Saint-Hilaire, Bernouilli in mezzo a parenti
pittori, astronomi o naturalisti, fu circostanza a loro favorevole,
perchè alle predisposizioni, alle trasmissioni ereditarie che influirono
sulle loro speciali tendenze si aggiunse l'azione dell'ambiente, sicchè
trovarono nelle tendenze ataviche, fin dai primi anni, la ragione
d'ispirarsi alla mèta definitiva, — regola più comune
[5] è invece la
mancanza di eredi nel genio, più di frequente presentandosi quella
che io vorrei chiamare "eredità dissimilare" o "contraria" e che noi
vediamo così spesso nel mondo, per cui i figli degli avari sogliono
essere prodighi, i figli dei coraggiosi vilissimi, ed inerti i figli degli

uomini d'azione. Così il genio disordinato di Poë gli venne, forse per
dissimilarità, dal puritanismo del generale Poë, che era di tanto
austero di quanto il nipote era scapigliato.
Hoffmann, il disordinatissimo Hoffmann, ebbe, come l'ancora più
scapigliato Verlaine (V. vol. I), zii e madre compassati como
macchine; e così D'Azeglio, Heine ed Alfieri nacquero da parenti
tutt'altro che amici dell'arte; Colombo nacque da volgari mercanti e
tessitori.
Io conosco il figlio di un grande oculista italiano che aveva tutte le
ragioni per seguirne la carriera, eppure divenne invece grande
otoiatra, per una ripugnanza insormontabile alla bellissima scienza
paterna.
Pare che in questi casi avvenga una specie di saturazione, per cui ai
figli non rimane che l'incapacità o la ripugnanza per gli studi paterni.
Così molti poeti e artisti nacquero da negozianti, da notai o avvocati,
avversari accaniti dell'arte e di ogni idealità, e molti santi da gente
viziosa.
Ambiente. — E così dicasi di quelle circostanze economiche o sociali
che circondano la vita del genio, specialmente ai suoi albori, e che si
chiama l'"ambiente", in cui i pensatori mediocri tanto si cristallizzano.
Così si capisce come un paese tutto ravvolto in guerre, come il
Piemonte, non abbia dato nei primi periodi nemmeno un artista, nè
un poeta, poichè qualunque genio, che non eccellesse nell'armi, vi
rimaneva sconosciuto e sprezzato. E così si capisce che in un paese
come la Spagna, in cui il libero pensiero era soffocato col rogo,
mancassero completamente i filosofi ed i naturalisti e non sorgessero
che teologhi ed artisti. Si capisce, eziandio, perchè in Italia, dove i
delitti sono così abbondanti, sorgano tanto numerosi gli avvocati e
criminalisti geniali, quali un Beccaria, un Romagnosi, un Ferri, un
Garofalo, un Pagano, un Ellero, un Carmignani, un Carrara.

Così si spiega come negli Ebrei, tanto dediti al commercio, fossero e
siano tuttora numerosi i grandi economisti. Basti citare Marx,
Lassalle, Ricardo, Loria, Luzzatti. Ricardo non fu certo inspirato dal
padre, nè può dirsi che abbia avuto eredità geniale; ma è certo che,
avendo preso parte ai commerci e alle speculazioni del padre,
banchiere olandese, partì dalle pratiche commerciali alle applicazioni
economiche, e questo ci spiega come correggesse gli errori degli
economisti teorici contemporanei e come tutte le sue opere
sentissero le origini e le ispirazioni pratiche, sfuggendo in seguito a
grandi avvenimenti commerciali, come la crisi monetaria del 1800.

CAPITOLO III.
Vantaggi dell'agiatezza e della miseria.
Così dicasi della ricchezza. Spesso il benessere favorisce il genio.
Pascal riteneva che una nascita distinta conferisca a venti anni, nella
stima e nel rispetto degli altri, una posizione che i diseredati mal
riescono a raggiungere a quaranta.
Che cosa sarebbe avvenuto di Meyerbeer senza la ricchezza, di
Meyerbeer che aveva una produzione così laboriosa ed il cui genio si
esplicò solo viaggiando e vivendo in Italia?
Ma tutto ciò va inteso con molta circospezione, perchè quanti genî,
invece, non furono guastati dalla ricchezza e dalla potenza!
Jacoby ha dimostrato che il potere illimitato precipita la
degenerazione, rende facilmente megalomane e demente chi lo
impugna.
E noi vediamo la deputazione averci rapiti uomini geniali, diventati
poi, al più, mediocri ministri.
Chi sa dirci quanti fra quelli che si pompeggiano nelle nostre vie, fieri
di un bel sauro e di una occhiata di qualche clorotica duchessa, non
sarebbero diventati grandi uomini? Un esempio ce ne offre
l'aristocrazia piemontese. Per molto tempo avendo tenuto a gloria il
brillare nella milizia e nella politica, essa ci diede più uomini celebri
che non il patriziato di Toscana insieme e di Napoli; ed ora non
emerge che nelle sacrestie e nelle regie anticamere.

Di più: bisogna ricordare che fu spesso la miseria, l'infelicità, che,
servendo da stimolo, da pungolo al genio, ne fecero spicciare la
vocazione; il che spiega quanto dimostrò la mia Paola: essere
l'infelicità uno dei caratteri più frequenti della storia del genio
[6].
Così: senza la miseria non avremmo avuti i romanzi di George Sand
e della Becher-Stowe, nè le commedie di Goldoni.
Non rare volte, è vero, parve l'occasione aver dato luogo allo
sviluppo del genio.
Così, per un rimprovero che Muzio Scevola fece a Servio Sulpizio di
ignorare le leggi del proprio paese, somma vergogna per un oratore
e per un patrizio, quest'ultimo divenne un grande giureconsulto.
Spesso i tagliatori di pietre, da lavoranti nelle cave intorno a Firenze,
sin dai più felici tempi della Repubblica riuscivano scultori di vive
figure, quali Mino da Fiesole, Desiderio da Settignano e il Cronaca. E
Giovanni Brown, scalpellino, datosi a studiare i fossili delle pietre che
picchiava, riuscì uno de' più grandi geologi.
Andrea Del Castagno, stando a guardia degli armenti nel Mugello,
rifugiatosi un giorno, dal diluviar della pioggia, entro una cappelletta
ove un imbianchino stava scombiccherando una Madonna, si sentì
attratto ad imitarlo; cominciò col carbone a disegnare figure
dappertutto e si acquistò fama tra i paesani; messo poi a studiare da
Bernardino de' Medici, riuscì pittore insigne; e Vespasiano da Bisticci,
libraio o cartolaio a Firenze, dovendo pel suo negozio maneggiare
molti libri e aver da fare con uomini di lettere, divenne letterato egli
stesso.
Ma la storia dei genî è più ricca di circostanze contrarie che di
favorevoli, come in Boileau, Lesage, Cartesio, Racine, La Fontaine,
Goldoni, costretti a soffocare la musa sotto la toga pesante di Temi
o, peggio, sotto la stola del prete. Metastasio fu sarto, Socrate
scalpellino.
I parenti di Poisson volevano farne un chirurgo, quelli di Bochax un
prete, quelli di Lalande e di Lacordaire degli avvocati. Vauclin era un
contadino, Herschell un suonatore ambulante. Per Cellini tutto era

disposto perchè divenisse suonatore di flauto e non scultore. E
Michelangelo, secondo i parenti, doveva divenire un sapiente, un
classico, mai, come diceva il padre, uno scarabocchiatore
d'immagini; e quando un grande scultore vide le inclinazioni e i primi
tentativi del giovane, ed esortò il padre a metterlo nel suo studio,
questi per acconsentirvi si fece pagare da lui una somma che
aumentava di anno in anno.
Berlioz (Memorie) era figlio d'un medico geniale che aveva fatti lavori
molto importanti sull'agopuntura e, sperando di avere in lui un
successore, l'aveva educato a questo scopo e l'aveva indotto a
sorpassare le prime ripugnanze della sala anatomica, dove gli aveva
aperte le più care amicizie coi cultori di questa scienza (Gall,
Amussat, ecc.); a diciasette anni, non appena sentì le Danaidi di
Salieri, abbandonò tutto, per divenire maestro compositore.
Galileo ebbe una lunga serie di antenati filosofi, magistrati,
pensatori, che rimontano fino al 1538
[7]. Anche il padre Vincenzo,
oltre l'attitudine alla musica, in cui era originalissimo, ebbe attitudini
alla geometria e alla mercatura, ed il figlio Benedetto, fratello di
Galileo, era pure rinomatissimo nella musica, la quale, con occhio
naturalistico, era stata insegnata ai due figliuoli; ma evidentemente
questa eredità non ebbe una influenza diretta, e poca, anzi nulla, vi
ebbe l'educazione, che in quei tempi portava alla retorica ed al
classicismo, così che — attesta il Nelli — "in quei tempi in Toscana
solo i padri Scolopi tenevano scuola di geometria e di matematica,
non apprezzandovisi allora che gii Umanisti; e nemmeno gli
giovarono gli studi medici, allora tutto affatto teorici e senza alcun
rapporto con l'esperimentazione".
Budda, Cristo e Comte ebbero un ambiente sì sfavorevole, che le
loro dottrine si propagarono solo fuori del loro paese d'origine.
È vecchia l'osservazione:
A cui natura non lo volle dire,
Nol dirian mille Ateni e mille Rome.

Le circostanze, dunque, e lo stato di civiltà al più fanno accettare e
rivelano i genî e le loro scoperte, che in altre condizioni sarebbero
passate inosservate o derise, e, peggio, perseguitate.
Quindi si comprende come le grandi scoperte siano assai di rado
completamente nuove all'epoca in cui sono accettate.
"La vapeur — Fournier — était un jouet d'enfant au temps de Héron
d'Alexandrie et Anthemius de Tralles. Il faut que l'esprit humain et
les besoins de notre race travaillent des millions de fois par
l'expérience avant de tirer toutes les conséquences d'un fait".
Nel 1765 Spedding offerse il gas portatile già bell'e pronto al
municipio di Witchaven, che lo rifiutò; vennero poi Chaussier,
Minkelers, Lebon e Windsor, che non ebbero altra abilità se non di
appropriarsi la scoperta e fruirne. Il carbon fossile era stato scoperto
nel secolo XV, la nave a ruota nel 1472, quella ad elice prima del
1790; quando nel 1707 Papin fece navigare una nave a vapore, non
ne ritrasse che scherni e lo trattarono da ciarlatano.
Il Sauvage, che finalmente potè applicare il vapore alla navigazione,
lo vide in opera... dal carcere, dov'era imprigionato per debiti.
La dagherotipia venne intravveduta nel secolo decimosesto in
Russia, fra noi nel 1566 dal Fabricio e di nuovo scoperta dal
Thiphaigne de la Roche.
Il galvanismo fu prima scoperto dal Cotugno e poi dal Du Verney. La
teoria stessa della selezione non appartiene a Darwin
esclusivamente. Questa idea, come tutte le altre, ha nel passato
profonde radici. "Le specie attuali non sussistono che in grazia della
loro astuzia, forza e velocità; le altre sono perite" — diceva già
Lucrezio —; e Plutarco, interrogato perchè i cavalli, che furono
inseguiti dai lupi, fossero più rapidi degli altri, adduceva per ragione
che essi soli erano sopravvissuti, essendo stati gli altri, più pigri,
raggiunti e divorati.
La legge d'attrazione di Newton era già intuita nelle opere del secolo
decimosesto, specialmente di Kopernico e Keplero, e fu quasi
tracciata da Hooke.

E così dicasi pel magnetismo, per la chimica, per la stessa
antropologia criminale, come dimostrava Antonini
[8]. Dunque non è
la civiltà che sia causa dei genî e delle scoperte; ma essa ne
determina l'evoluzione, o, meglio, l'accettazione. Quindi è probabile
che genî siano comparsi in tutte le epoche, in tutti i paesi; ma come,
grazie alla lotta per l'esistenza, una quantità di esseri nasce solo per
soccombere, invendicata preda dei più forti, così moltissimi di quei
genî, quando non trovarono l'epoca favorevole, restarono
misconosciuti, o, peggio anzi, puniti. E se vi hanno civiltà che
aiutano, ve ne hanno anche di quelle che danneggiano la produzione
dei genî; per esempio in Italia, dove la civiltà è più antica e dove se
ne rinnovarono parecchie, una più forte dell'altra; ivi, se la tempra
del popolo è più aperta, in genere tutto il mondo colto è più restìo
ad ogni novità ed innamorato e quasi incatenato nell'adorazione del
vecchio, quindi nemico dei novatori, e li abbatte o reprime col
disprezzo o col silenzio e coll'abbandono. Invece: dove la civiltà è più
recente, come in Russia e in America, le idee nuove si accolgono con
un vero furore.
Quando il ripetersi della stessa osservazione ha reso meno ostica
l'accettazione dei nuovi veri, o quando le circostanze rendono utili e,
meglio, necessari un dato uomo od una data scoperta, esse si
accettano, finendo, poi, col portarle all'altare.
Il pubblico, che vede la coincidenza tra una data civiltà ed il
manifestarsi del genio, crede che l'una dipenda dall'altra, confonde la
leggera influenza nel determinare lo sgusciamento del pulcino con la
fecondazione che rimonta invece alla razza, alla meteora, alla
nutrizione, ecc.
E non è a dire che ciò non accada nei nostri tempi; l'ipnotismo è lì
per dimostrare quante volte, anche quasi sotto i nostri occhi, si
rinnovò e fu presa per nuova una sempre uguale scoperta. Ogni età
è egualmente immatura per le scoperte che non avevano od
avevano pochi precedenti; e quando è immatura, è nell'incapacità di
accorgersi della propria inettitudine ad adottarla. Il ripetersi di
un'analoga scoperta, preparando il cervello a subirne l'impressione,

vi trova man mano sempre meno riluttanti gli animi. Per sedici o
venti anni in Italia si è creduto pazzo dalle migliori autorità chi
scopriva la pellagrozeina; ancora adesso il mondo accademico ride
dell'antropologia criminale, ride dell'ipnotismo, ride dell'omeopatia.
Chissà dunque che anch'io ed i miei amici, che ora ridiamo
dell'incarnazione spiritica ed astrale, non commettiamo un altro di
quei crimini contro il vero, poichè noi siamo — come gli ipnotizzati,
grazie al misoneismo che in tutti noi cova — nell'impossibilità
d'accorgerci quando siamo nell'errore; e proprio come molti alienati,
essendo noi al buio del vero, ridiamo di quelli che non lo sono.
Finchè l'età sua non sia giunta, finchè l'umanità non vi sia matura,
ogni scoperta, ogni idea nuova è, dunque, come non fosse mai nata.

CAPITOLO IV.
Vantaggi della libertà.
Ed è perciò che solo nei paesi più liberi vegeta rigogliosa la genialità.
Io l'ho dimostrato graficamente nell'Uomo di genio col parallelo tra i
dipartimenti più liberali nelle elezioni di Francia e i dipartimenti più
ricchi di genî, come il Varo, la Senna, il Rodano, la Saona e Marna, la
Meurthe, la Vandea, il Morbihan; mentre i Bassi ed Alti Pirenei, il
Gers, la Dordogna, il Lot — reazionari — danno pochissimi genî. È
così grande e completa questa analogia, che spesso maschera e
confonde quella della razza, della densità, della ricchezza, ecc.
Ginevra, che nel 1500 era detta la città dei malcontenti, certo era la
più geniale della Svizzera, e così dicasi di Atene, la quale, nel più
fiorente periodo della sua libertà o, meglio, anarchia, giunse a
contare 56 grandi poeti, 21 oratori, 12 storici e letterati, 14 tra
filosofi e scienziati e 2 sommi legislatori, come Dracone e Solone,
mentre Sparta oligarca ebbe poche o punto rivoluzioni, ma
pochissimi ingegni famosi (non più di sei, secondo lo Schoell); — la
lotta per la libertà in Olanda, in un'epoca in cui il senso della libertà
era quasi sconosciuto in Europa, ci spiega come questo popolo abbia
dato, appunto allora, un così grande numero di genî politici e
artistici.
Fu sopratutto grazie al lungo periodo di libertà — 700 e più anni —,
periodo superiore a quello goduto da tutti i popoli d'Europa, che
Venezia riuscì a superare tutti gli altri in grandezza politica, come ho
dimostrato nel Perchè fu grande Venezia?
[9]; e così Firenze e Roma
diedero i loro più grandi genî nell'epoca della loro maggiore libertà,

anzi dell'anarchia. E qui ricordo di nuovo come debba sfatarsi l'idea
che all'aristocrazia chiusa di Venezia negli ultimi secoli fa merito della
sua grandezza; così come quell'altra, pure erronea, che attribuisce la
ricchezza in Roma ed Atene ad Augusto o a Pericle. Tale ricchezza,
formatasi durante i periodi di libertà anche eccessiva, non avendo
avuto tempo di scomparire nelle prime epoche della tirannide, si
volle attribuire a questa invece che a quella; ma la tirannide non fece
che accogliere gli ultimi frutti della libertà per vantarsene e per
disperderli.
Tacito lo nota pei genî romani: "Postquam bellatum apud Actium
atque omnem potentiam ad unum conferri paci interfuit magna illa
ingenia cessere"; come altrettanto affermava Leonardo Bruni per
Firenze nella Laudatio urbis Florentinæ (Livorno, 1789, pag. 16)
contro la leggenda che ne attribuisce la grandezza al mecenatismo
mediceo.
E ciò ben si comprende perchè il governo di molti, anche se troppo
libero, mette in opera tutti gli ingegni e ne accoglie le nuove idee;
mentre la tirannide, nemica, fin dal tempo dei Tarquinî, di ogni
elevatezza individuale, tenta sopprimerla e soffocarne ad ogni modo
i conati; e quindi è più facile che giovi allo sviluppo dell'arte e della
politica una libertà anche sfrenata che non un governo dispotico, sia
pure inspirato da un uomo di genio.
Chi può paragonare la produzione letteraria ed artistica sorta a Parigi
sotto Napoleone con quella della grande epoca fiorentina e ateniese?
Ed ecco spiegato anche, così in gran parte, quel fenomeno, che sarà
rimasto difficile a comprendersi, della grandezza fiorentina in
confronto a quella di Napoli e di Palermo, dove poche opere
grandiose d'arte lasciarono traccia di sè e dove la somma dei genî
non raggiunse il livello toscano; eppure non mancò nè all'una, ne
all'altra il clima favorevole di mite temperatura, di collina e mare che
io ho dimostrato essere il più opportuno pel genio; nè vi mancò
l'innesto etnico, nè la razza intelligente, etrusca negli uni, grecolatina
negli altri, con mistione di Normanni, ecc.

La genialità è un carattere dell'evoluzione e della libertà, e ne è un
indizio; e non tanto perchè essa ne sia originata, ma perchè solo
l'evoluzione e la libertà servono a metterla in onore e diffonderla.
Carlyle, negli Eroi, scrisse che il miglior indice della coltura
d'un'epoca è il modo con cui essa accolse i suoi genî.
È perciò assai probabile che di genî ne siano sorti o ne sorgano in
tutti i tempi e in tutti i paesi; ma non sopravvivono, perchè non sono
compresi, che dove il fermento di libertà renda loro meno aspra la
strada, domando l'odio del nuovo che tende sempre a soffocarli nel
nascere; e così nel Nord d'America Whiteman, Longfellow, Edison
sono dappertutto acclamati, e in Italia, dove la libertà è inceppata da
ogni parte, i veri genî trovano, sì, copia di onori e monumenti, ma...
dopo la morte.
Per comprendere meglio quest'influenza, basti l'esempio delle
sventure di Galilei per una semplice teoria astronomica, che non
intralciava, nè offendeva interessi mondani.
Nei paesi poco liberi l'odio del nuovo trova naturali alleati nei
reggitori, e quindi è irremissibilmente soffocato e punito.
Io ne vedo, fino ad un certo punto, una prova nella sorte della nuova
Scuola penale da me iniziata e che trova, per esempio, in America ed
in Svizzera, Olanda e in Svezia un pubblico favorevole che la
propugna, mentre è irremissibilmente respinta da ogni cattedra,
come da ogni ufficio, come da ogni progetto di legge nei paesi come
l'Italia, in cui il popolo è ancora schiavo dei vecchi e vieti pregiudizi e
governato semi-asiaticamente.
E quest'azione negativa è così grande, che fa credere ad un'azione
diretta dell'ambiente favorevole al genio.
Si vede, dunque, che le condizioni ereditarie e d'ambiente, su cui più
si faceva assegnamento per l'origine delle varietà geniali, o
mancano, o sono contraddittorie.

Memoria visiva, tipo immaginativo, ecc. — Basterà egli a
determinarle la particolare tempra dell'organismo geniale, secondo
che vi predomini, cioè, la memoria visiva o l'acustica, secondo che
sia più viva la fantasia, più rapida che precisa la percezione e
viceversa; fatti questi che noi abbiamo potuto fissare nel genio
[10],
con lo studio della grafologia, nella scrittura così nitida e calma,
quasi a stampatello, nei chimici e nei matematici, così aggrovigliata e
precipitosa in quelli in cui predomina la fantasia.
E qui giova l'osservazione sperimentale di Binet e Lecler
[11] che in
ogni gruppo d'uomini vi ha il tipo immaginativo — poeta — e quella
di osservazione minuta, arida, ma precisa; il che dividerebbe
nettamente la scienza dall'arte.
Sì, queste condizioni hanno un'enorme influenza sulla direzione
generale del genio, ma più ancora sul colorito, sull'aspetto delle sue
opere. Così lo smagliante stile di Victor Hugo si deve certo al
predominio eccessivo dei centri visivi, all'esser egli un visivo per
eccellenza, lui che si ispira nei primi versi de Les orientales ai
tramonti di Parigi; e così dicasi degli abbaglianti, luminosi quadri del
Segantini, che, a quattro anni, cadendo in un fiume, non resta
colpito che dal bagliore dell'acqua e dalla ruota del mulino; come il
predominio dei centri olfattivi entra nelle opere di Zola per molta
parte, come il predominio dei centri acustici che fan discernere ad
Helmoltz i toni musicali nella cascata del Niagara, dev'essere entrato
per molto nella scelta e nella condotta delle sue ricerche tanto
originali d'acustica, elevata da lui a nuova scienza. Ma oltre che vi
sono genî, come il Leopardi, in cui l'ottusità e la depressione nei
centri visivi, olfattivi, ecc., non solo non impedirono di dare, ma anzi,
dando insueto predominio ai centri chenestetici, impressero alle
opere loro quel singolare colorito che ci strappa una così nuova ed
universale commozione come quando ammiriamo i quadri dei
notturni Norvegesi, bisogna pur aggiugnere che il campo della
genialità è troppo vasto e insieme troppo suddiviso, perchè vi
predomini solamente quell'influenza. Date pure una parte
d'influenza, e grande, all'essere uno visivo piuttostochè auditivo; ma
se un visivo può divenire scultore, come poeta, o istologo, o statista,

o magari calcolatore-prodigio, che vede allineate nella mente le cifre
da calcolare, questo predominio non basta da solo a determinare la
scelta della varietà geniale.
Di più: dato un genio matematico puro (e spesso, come vedemmo
sopra, il grande matematico è anche un forte musico), egli ha
sempre da scegliere fra la fisica, la chimica, la zoologia, ecc., mentre
il genio immaginativo può scegliere fra poesia, musica, pittura, ecc.
Per ciò, pur tenendo conto di queste varie attitudini come di una
causa predisponente grandissima della varietà geniale, dobbiamo
studiare di trovarne ancora quella che ne è la causa più specifica, più
diretta.

CAPITOLO V.
Influenza della pubertà.
Ora, chi analizzi le biografie dei grandi uomini, di cui si conosce la
prima giovinezza, trova la causa predominante della loro speciale
genialità nell'immensa influenza che viene dal combinarsi di una data
fortissima impressione sensoria, di una data forte emozione,
consona, ben inteso, alle tendenze organiche e al grande sviluppo
mentale dell'individuo geniale col momento vicino alla pubertà, in cui
il genio, essendo in istato nascente e per ciò più soggetto agli stati
emotivi, ha la maggiore tendenza a fissarsi per sempre in una più
che in altra direzione,
E qui le prove sovrabbondano.
Così, per esempio, di Segantini bimbo, seppellito in un riformatorio, i
superiori, nella loro sapienza burocratica, volevano fare un calzolaio;
fortunatamente, egli fugge dai suoi singolari patroni nella nativa
montagna, dove, pastore, ritrae inconscio, e senza darvi alcuna
importanza, montoni e casolari; ma quando a 12 anni vede morire
una bambina e sente la madre straziarsi per non poterne conservare
l'immagine, egli si sente ispirato a farne il ritratto e da quel giorno
diventa il grande Segantini. Il combinarsi di una forte impressione
morale e fisica nell'esordire della pubertà in un ingegno visuale così
poderoso ha fatto di lui un pittore geniale.
Così Proudhon era un povero figlio di un boscaiolo; il curato gli aveva
insegnato un po' di latino e i Benedettini di Cluny qualche po' di
disegno: a 14 anni, mentre egli tentava di copiare da sè alcuni brutti
quadri del convento, fabbricandosi i colori col succo delle piante e i

pennelli coi crini di un mulo, fu avvertito da un frate che con quei
suoi strani mezzi a nulla sarebbe riuscito, perchè quei quadri erano
ad olio: bastò ciò perchè egli ritrovasse da sè la pittura ad olio, come
Pascal trovò la geometria.
Stuart Mill è a 12 anni così colpito dallo studio della Storia dell'India
del padre suo, che da quel giorno data la sua genialità.
Arago, figlio di un avvocato, precoce nel leggere la musica, si
occupava di autori classici; la passione per le matematiche gli sorse
tutta a un tratto nel sentire da un ufficiale del genio com'egli fosse
giunto rapidamente al suo grado, uscendo dalla Scuola politecnica,
dove si studiava matematica. Abbandona allora Corneille per darsi
alle matematiche, che studia da sè, e a 16 anni era pronto per
l'esame al Politecnico.
Tommaso Joung, precoce sì che a due anni leggeva e a cinque aveva
imparato un gran numero di poemi inglesi e latini che recitava a
mente, vede a otto anni presso un agrimensore gli strumenti per
misurare le distanze e l'elevazione dei corpi lontani: tosto si mette a
studiare un trattato di matematica per capire la struttura di siffatti
arnesi: e finisce a costrursi da sè un microscopio per studiare la
meccanica e imparare il calcolo differenziale
[12].
Galileo, fino al 17º anno, non aveva fatta alcuna rilevante scoperta:
si sentiva, sì, inclinato alle scienze esatte, e per ciò aborriva le
inesattezze dei metafisici e dei medici di quell'epoca; fu solo quando,
al 18º anno, il terzo dei suoi studi in medicina, egli vide nella chiesa
maggiore di Pisa una lampada, mossa dal vento, percorrere lo spazio
in tempo uguale, che pensò subito ad uno stromento — il pendolo —
per studiare l'isocronismo del tempo e stabilire con grafiche e precise
leggi la maggiore o minore velocità del polso; e da questo passò agli
altri studi fisici.
Lioy, nel Primo passo di Martini, confessa che aveva 8 anni quando,
essendogli nato un fratellino, fu chiuso in una biblioteca, perchè non
disturbasse la madre, e gli fu dato a leggere un volume di Buffon. Fu
questo la scintilla del suo ingegno: "Mi par di vedere ancora — egli

scriveva — quegli uccelli; io li sognava tutta la notte; il mio grado di
aiutante naturalista era raggiunto".
Di Poisson
[13] i parenti volevano fare un chirurgo-flebotomo e lo
affidarono ad uno zio, che pretendeva educarvelo, facendogli
pungere con la lancetta le venature delle foglie dei cavoli; ma egli
sbagliava sempre: quando un giorno, fra gli 8 o 9 anni, trova un
programma della Scuola politecnica e sente che può sciogliere e
scioglie immediatamente alcuni di quei quesiti; la sua carriera era
trovata.
Lafontaine era figlio di un burocratico e scribacchiava versi di poca
importanza, quando gli cadde sotto mano la bella ode di Malherbe
sulla morte di Enrico IV. Allora comprese di essere poeta e lo fu.
Gianni (Biografia universale) divenne poeta quando lesse l'Ariosto;
egli allora, poco più in là dell'età della pubertà, improvvisò versi
prima ancora di aver imparata l'arte di comporli.
Lagrange non aveva grandi attitudini per gli studi: il suo genio si
rivelò al secondo anno di liceo quando lesse uno scritto di Halle;
gettò giù allora il suo Primo saggio sul metodo delle variazioni.
Rusckin, dall'aver veduto a 15 anni, una sera d'estate del 1833, da
un elevato giardino di Sciaffusa, come confessa nel suo volume del
Præterita, gl'illimitati, alti, affilati contorni delle Alpi disegnarsi sul
cielo rosso, ebbe l'ispirazione di quella nuova estetica che sviluppava
più tardi.
In questi casi non è che la sensazione abbia provocato il genio, ma
fu l'occasione, perchè si rivelasse e s'incanalasse in un dato indirizzo;
essa ha determinato, insomma, un individuo, predispostovi
organicamente, a rivolgersi, a salpare per quella mèta, d'onde le
circostanze, l'educazione, ecc., tendevano forse a deviarlo.
Così Darwin, come dicemmo, era predisposto alle grandi sintesi
naturalistiche dall'eredità atavica, essendo parecchi dei suoi avi
indirizzati verso la stessa sua strada, e l'ingegno suo già
precocemente se ne era rivelato, fino a un certo punto, con l'idea di