CsNataturales5to-TomoII.pdf

gallardoyonaiker5 6,640 views 99 slides Jan 26, 2024
Slide 1
Slide 1 of 131
Slide 1
1
Slide 2
2
Slide 3
3
Slide 4
4
Slide 5
5
Slide 6
6
Slide 7
7
Slide 8
8
Slide 9
9
Slide 10
10
Slide 11
11
Slide 12
12
Slide 13
13
Slide 14
14
Slide 15
15
Slide 16
16
Slide 17
17
Slide 18
18
Slide 19
19
Slide 20
20
Slide 21
21
Slide 22
22
Slide 23
23
Slide 24
24
Slide 25
25
Slide 26
26
Slide 27
27
Slide 28
28
Slide 29
29
Slide 30
30
Slide 31
31
Slide 32
32
Slide 33
33
Slide 34
34
Slide 35
35
Slide 36
36
Slide 37
37
Slide 38
38
Slide 39
39
Slide 40
40
Slide 41
41
Slide 42
42
Slide 43
43
Slide 44
44
Slide 45
45
Slide 46
46
Slide 47
47
Slide 48
48
Slide 49
49
Slide 50
50
Slide 51
51
Slide 52
52
Slide 53
53
Slide 54
54
Slide 55
55
Slide 56
56
Slide 57
57
Slide 58
58
Slide 59
59
Slide 60
60
Slide 61
61
Slide 62
62
Slide 63
63
Slide 64
64
Slide 65
65
Slide 66
66
Slide 67
67
Slide 68
68
Slide 69
69
Slide 70
70
Slide 71
71
Slide 72
72
Slide 73
73
Slide 74
74
Slide 75
75
Slide 76
76
Slide 77
77
Slide 78
78
Slide 79
79
Slide 80
80
Slide 81
81
Slide 82
82
Slide 83
83
Slide 84
84
Slide 85
85
Slide 86
86
Slide 87
87
Slide 88
88
Slide 89
89
Slide 90
90
Slide 91
91
Slide 92
92
Slide 93
93
Slide 94
94
Slide 95
95
Slide 96
96
Slide 97
97
Slide 98
98
Slide 99
99
Slide 100
100
Slide 101
101
Slide 102
102
Slide 103
103
Slide 104
104
Slide 105
105
Slide 106
106
Slide 107
107
Slide 108
108
Slide 109
109
Slide 110
110
Slide 111
111
Slide 112
112
Slide 113
113
Slide 114
114
Slide 115
115
Slide 116
116
Slide 117
117
Slide 118
118
Slide 119
119
Slide 120
120
Slide 121
121
Slide 122
122
Slide 123
123
Slide 124
124
Slide 125
125
Slide 126
126
Slide 127
127
Slide 128
128
Slide 129
129
Slide 130
130
Slide 131
131

About This Presentation

Espero que les sirva este libro es muy bueno y de mucha utilidad a mi me ha servido mucho en el liceo


Slide Content

AÑO
to
5
to
AÑO
CONSTRUYAMOS EL FUTURO
Ciencias Naturales Tomo II

5
to
AÑO
CONSTRUYAMOS
EL FUTURO
Tomo II Ciencias Naturales

Índice
15. Lo grandioso de la vida: la gestación y el nacimiento de una nueva persona ............... 6
- El desarrollo de la vida humana en nueve meses
- El nacimiento: momento del parto
- Observando el desarrollo del feto y el parto
- Cómo la tecnología puede ayudar a cuidar la vida de la madre y el feto durante el embarazo
- Embarazo sano y feliz en nuestra comunidad
- Cuando la vida en el vientre materno deja de ser segura
- El embarazo: cuestión de conciencia y responsabilidad
- Actividades de autoevaluación
16. Formación de tejidos y órganos: bioingeniería natural................................................ 20
- Formación de los primeros tejidos
- Observando las primeras etapas después de la fecundación: la formación del blastocisto
humano y la gastrulación básica
- ¿Qué órganos y tejidos surgen de las distintas capas de tejido embrionario?
- Las tres capas germinales originan todos los órganos de un individuo humano
- Representando el desarrollo de tejidos y órganos
- La regeneración: mitología o realidad
- Herramientas de hoy y para el futuro
- Observando a un animal capaz de formar un nuevo individuo a partir de un trozo de su cuerpo
- Trasplantes: solidaridad y vida
- Actividades de autoevaluación
17. Permaneciendo constante frente a un ambiente cambiante ....................................... 38
- Manteniéndose fresco y conservando el calor
- Cuando la termorregulación falla
- La termorregulación es un ejemplo de regulación del medio interno
- Contribuir al mantenimiento de la homeostasis nos ayuda a mantenernos saludables
- Diseña y elabora un microambiente con temperatura controlada
- ¿Cómo afecta el ejercicio la temperatura del cuerpo y de la piel?
- Actividades de Autoevaluación
18. La homeostasis a nivel planetario… ¿Gaia es un planeta vivo?.................................. 56
- ¿Cómo evolucionó el pensamiento sobre la Madre Tierra?
- James Lovelock y Lynn Margulis, los padres de la hipótesis Gaia
- La hipótesis Gaia, una descripción del proceso de autorregulación planetaria
- Gaia y el mundo de las Margaritas
- ¿Qué tanto ha crecido Gaia?
- La venganza de Gaia y el futuro de la humanidad
- Ética ambiental inspirada por Gaia
- Explorando a Gaia en tu aula de clase
19. Compuestos halogenados .............................................................................................. 70
- Nomenclatura de los haluros de alquilo
- Propiedades físicas de los haluros de alquilo
- Obtención de haluros de alquilo
- Reacciones químicas de los haluros de alquilo
- Importancia tecnológica e impacto ambiental y social
- El gas mostaza, otro compuesto peligroso
- El gas propelente de los aerosoles, ¿producto engañoso?
- Actividades de Autoevaluación
COLECCIÓN BICENTENARIO
Hugo Chávez Frías
Comandante Supremo
Nicolás Maduro Moros
Presidente de la República Bolivariana de Venezuela
República Bolivariana de Venezuela
© Ministerio del Poder Popular para la Educación
Tercera edición: Abril, 2014
Convenio y Coedición Interministerial
Ministerio del Poder Popular para la Cultura
Fundación Editorial El perro y la rana / Editorial Escuela
ISBN: 978-980-218-341-8
Depósito Legal: lf51620123702599
Tiraje: 400.000 ejemplares
Corrección, Diseño y Diagramación
EQUIPO EDITORIAL
COLECCIÓN BICENTENARIO
Coordinación Editorial de la Serie Ciencias Naturales
José Azuaje
Autoras y autores
Aurora Lacueva
Carlos Buitrago
Carmen Álvarez
Hilda Herrera
Ini Ojeda
Itzel Chaparro
Dalia Diez
Francisco Rivero
Juan Linares
Luis Vásquez
María Luz Castellanos
María Maite Andrés
Miguel Ríos
Milagro Pino
Noris Caraballo
Said Gómez
Lecturas Adicionales
Adriana Marchena
Carmen Hidalgo
Dubravska Torcatti
José Azuaje Camperos
Lilia Rodríguez
Francisco Rivero
Said Gómez
Revisión de Contenido y Lenguaje
Aurora Lacueva Teruel
Carmen Álvarez
Carlos Buitrago
Gloria Guilarte
Ini Ojeda
Miguel Rios
Ilustración y Edición Fotográfica
Arturo Goitía
Brayan Coffi Cedeño
César Ponte Egui
Darwin Yánez Rodríguez
Eduardo Arias Contreras
Gilberto Abad Vivas
Héctor Quintana De Andrade
José Alberto Lostalé Chacón José Luis García Nolasco Julio César Aguiar Leidi Vásquez Liendo Nicolás Espitia Castillo Victor Silva Mendoza

20. Aldehídos y cetonas: descubriendo aromas .................................................................. 86
- Aceites esenciales
- Generalidades de aldehídos y cetonas
- Nomenclatura IUPAC
- Propiedades físicas
- Obtención de aldehídos y cetonas
- Reacciones químicas de aldehídos y cetonas
- Aldehídos y cetonas en nuestras vidas
- Keratina: Lo alisa pero…
- ¡Destilando aromas!
- Actividades de Autoevaluación
21. La química de la vida ..................................................................................................... 102
- Grupos funcionales
- Alcoholes
- Aminas
- Ácidos carboxílicos
- Ésteres
- Amidas
- Biomoléculas
- Los recuerdos de graduación
- Actividades de Autoevaluación
22. El enigmático magnetismo ........................................................................................... 122
- El magnetismo
- ¡Se unieron la electricidad y el magnetismo!
- Campo magnético
- Fuerza ejercida sobre una carga en movimiento
- Actividades de resolución de problemas
- Movimiento de una carga en un campo magnético uniforme
- El magnetismo y sus aplicaciones en el mundo contemporáneo
- Explorando el magnetismo
- Una línea de tiempo sobre el magnetismo
- Actividades de Autoevaluación
23. Fuentes de Campo Magnético ...................................................................................... 146
- Campo magnético creado por un conductor rectilíneo
- Circulación del campo magnético : Ley de Ampère
- Acciones entre corrientes paralelas
- La definición de la unidad de corriente Ampere
- El campo magnético sobre la superficie
- Observando campos magnéticos
- Actividades de Autoevaluación
24. Inducción electromagnética ........................................................................................ 164
- Un poco de historia
- Algo más sobre las aportaciones de Michael Faraday
- La inducción magnética: ley de Faraday y ley de Lenz
- Autoinductancia
- Autoinductancia de un solenoide
- Generación de corriente alterna
- Transformadores eléctricos
- Los circuitos de corriente alterna
- ¿Dónde brillará más?
- La corriente eléctrica para el vivir bien
- Sintonizando la radio
- Laboratorio Electromagnético de Faraday simulado
- Genera, transforma y usa la corriente alterna
- Actividades de Autoevaluación
25. El descubrimiento de las oscilaciones rápidas: las ondas electromagnéticas ........... 190
-Los campos que se inducen y se autosustentan
- No necesita de un medio material para viajar: onda electromagnética
- ¡Eureka! La luz es una onda electromagnética
- La confirmación experimental esperada
- De las ondas de radio “hertzianas” a los rayos gamma (γ)
26.La controversia onda partícula y el nacimiento de la cuántica ................................... 204
- Naturaleza ondulatoria de la luz
- La luz además es una partícula
- La materia además es una onda
- Historia sin fin: problemas que generan nuevas ideas y problemas
- Actividades de Autoevaluación
Algo más para saber sobre ciencia y tecnología ............................................................... 218
- El Albert Einstein científico: Teoría de la relatividad especial
- El Albert Einstein pacifista, sabio y humanista
- ¡Aviva tu chispa científica! Oportunidades de estudio en el área de las Ciencias Naturales
- Venezuela un territorio de ciencia, tecnología e innovación
- Ciencia y tecnología para un modelo de sociedad… con más sentido común
- Ética en la investigación científica y social
- Milagros de la ciencia y la tecnología para dar vida
- Marie Curie: una científica con principios humanistas
- La Gaia y los humanos, ¿qué pasa cuando se pierde el equilibrio?
- ¡La Tierra nos cuenta sus secretos!
- Los fósiles son una lotería
- Ciencia indígena y la ciencia del futuro

6 7
Es común para nosotros observar a nuestro alrededor mujeres embarazadas
y bebés recién nacidos y, si avanzamos por la vida de las personas, nos daremos
cuenta de las distintas etapas que transcurren: la infancia, la adolescencia, la adultez,
hasta llegar a ser ancianos. Todo este recorrido por la vida tuvo y tiene su inicio en la
reproducción, que condujo al desarrollo de un embrión durante los nueve meses de la
gestación humana y por el que todos hemos pasado.
Muy pocas veces tenemos la oportunidad de reflexionar acerca del hecho de
haber estado en el vientre de nuestra madre y cuántos obstáculos y vivencias hemos
compartido con ella.
El recorrido por los nueve meses de embarazo está centrado en el desarrollo de
la increíble arquitectura humana, donde muchos agentes externos e internos pueden
causar fuertes inconvenientes e incluso provocar la inviabilidad de la criatura. El hábito
de fumar, consumir alcohol y drogas, así como el efecto de algunos medicamentos, o
la acción de los virus y bacterias en el organismo, entre otros factores, pueden actuar
en contra de la gestación.
En esta lectura podrás conocer qué sucede en cada una de las etapas del
desarrollo del embrión y del feto humano a lo largo de la gestación. También estudiarás
sobre los efectos que causan algunos factores externos e internos al embarazo. Vamos
a detallar la fecundación, la formación del embrión y el parto natural.
La arquitectura humana representada en un embrión, un feto y la visión de Da Vinci de las medidas corpo-
rales, basada en los escritos del arquitecto romano Vitruvio.
El desarrollo de la vida humana en nueve meses
En lecturas anteriores, pudiste conocer sobre los diferentes tipos de reproducción
que existen en la gran diversidad de seres vivos; también sobre el proceso de la fecundación,
las etapas del desarrollo donde comienzan a multiplicarse las células y cómo se forman los
primeros tejidos que dan inicio a la diferenciación celular.
¿Qué hace posible la incorporación y fijación del embrión en las primeras capas del útero
materno? El proceso comienza después de la fecundación en las trompas de Falopio, cuando el
cigoto resultante comienza a dividirse y a migrar hacia el útero. El cigoto da paso a la mórula,
resultante de las primeras mitosis celulares. La mórula forma una cavidad y se transforma en
blastocisto o blástula, la cual se encuentra dividida en dos grupos de células; uno, más interno,
que se convertirá en el embrión, y otro más externo, que dará origen a la membrana que lo
protegerá y nutrirá durante el embarazo.
La nidación o implantación, que es la adhesión y posterior invasión de la blástula al
endometrio (capa interna del útero), unos 14 días después de la fecundación, originará al em-
barazo propiamente dicho. (Ver figura 15.1).
Figura 15.1. Movimiento del embrión por el aparato reproductor femenino desde la fecundación (izquierda). Implanta-
ción del embrión en el revestimiento interno del útero (derecha).
Esta etapa es delicada y, de no ocurrir, traería como consecuencia abortos espontáneos
o la posibilidad de que ocurra un embarazo ectópico, que tiene lugar en estructuras diferentes al útero, por lo que el nuevo ser no podrá desarrollarse y morirá. Después de siete días de haber ocurrido la implantación y avanzada la etapa de la gastrulación, entre la segunda y tercera semanas del embarazo, continúa el desarrollo del embrión.
La conexión vital entre madre e hijo
La conexión biológica entre la madre y el embrión es única, ya que de ella depende la
vida y la salud del futuro niño o niña que deberá nacer. En esta conexión es clave el papel de la placenta, que al final de la tercera semana (ver figura 15.2) ya cubre una pequeña porción de la cavidad uterina y se forma a partir del endometrio (revestimiento interno del útero) y el corion. Todos los intercambios entre la madre y el embrión se dan a través del tejido de la placenta y, de esta forma, la madre aportará de su sangre los nutrientes necesarios para alimentar al feto y, a su vez, tomará los desechos producidos por él. Además, la placenta es la que permite el intercambio de los gases respiratorios entre la madre y su hijo.
Lo grandioso de la vida: l a gestación
y el nacimiento de una nue va persona15

8 9
Para saber más…

La sangre materna no se mezcla con la
sangre del feto, porque la membrana
llamada corion está en el medio y los
separa por escasos milímetros.
Para saber más…

En algunas sociedades asiáticas es común
el consumo de la placenta, después del
parto, por parte de la madre. Según la tra-
dición, evita la depresión posnatal y mejo-
ra la leche, entre otras cualidades.
Nos preguntamos entonces, ¿de qué for-
ma llegan los nutrientes al feto? Y, ¿cómo llegan
los desechos desde el feto a la madre?
Para dar respuesta a estas preguntas, de-
bemos conocer sobre el cordón umbilical, estruc-
tura que se forma entre la cuarta y octava semanas
de la gestación humana y que está formada por
dos arterias y una vena. Estos vasos sanguíneos se extienden del bebé hasta el revestimiento
del útero y forman prolongaciones llamadas vellosidades coriónicas, que deben su nombre a
que están recubiertas por la membrana llamada corion. Las vellosidades coriónicas entrarán
en contacto con las lagunas o espacios llenos de sangre materna, donde tomarán los nutrien-
tes y adonde enviarán los desechos (ver figura 15.2).
Figura 15.2. A la izquierda, ilustración que muestra la conexión entre el feto y la madre a través del cordón umbilical y
la placenta. A la derecha se muestra una placenta humana y el cordón umbilical.
Otra de las funciones de la placenta
durante el embarazo es producir hormonas
femeninas que evitarán que el revestimien-
to del útero se degenere y se produzca un
aborto espontáneo.
Un corazón que empieza a latir en el primer trimestre de gestación
hasta el fin de nuestras vidas
¿Alguna vez has sentido tu corazón o lo has escuchado? ¿Has tenido la oportunidad de
escuchar los latidos del corazón de un feto humano? ¿Cómo describirías este hecho?
Los eventos más destacados en el primer trimestre de vida de un ser humano en el
vientre materno, son la formación del sistema nervioso y del corazón. A las dos semanas y
media del embarazo se forma la placa neural que dará origen al sistema nervioso. En la lectura
siguiente podrás detallar cómo ocurre la formación de este importante sistema. Al mismo
tiempo que ello ocurre, comienza a diferenciarse el tejido que dará origen al corazón del bebé.
También es importante que recuerdes que en este tiempo el saco vitelino produce células
sanguíneas junto con el corion.
Entre la tercera y cuarta semanas ocurre uno de los hechos más impresionantes de
la vida, pues un nuevo corazón comienza a latir y los vasos sanguíneos se desarrollan (ver
figura 15.3). Otro hecho importante es la formación del tubo neural, que dará origen a la
médula espinal y al encéfalo a través de los procesos de diferenciación celular que hemos
tratado anteriormente.
Durante este tiempo también se pueden ver las estructuras iniciales o yemas de los
brazos y piernas, es decir de las extremidades, así como los ojos, las orejas, el hígado, entre
otras partes del cuerpo en desarrollo y crecimiento. Entre la quinta y la sexta semanas se for-
man los dedos de los pies y de las manos, recuerda que la apoptosis es uno de los mecanismos
Figura 15.3. Imagen del embrión donde se evidencia la posición y
forma del corazón, varias semanas después de la fecundación.
involucrados.
A los dos meses del desarrollo,
al embrión se le denomina feto, sus músculos están en formación y puede empezar a moverse. El cerebro continúa desarrollándose y comienza la formación de la corteza cerebral.
Al final de este trimestre se
puede saber el sexo del nuevo ser, se forman las vértebras, los huesos están bien definidos y los pequeños pulmones comienzan a realizar los primeros movimientos bombeando líquido. Los rasgos que tú y yo po- demos reconocer en las demás per- sonas, y que nos definen como seres humanos, ya son reconocibles en el pequeño feto a pesar de tener un tamaño menor a los 6 cm.

10 11
Desarrollo del feto durante el segundo y tercer trimestre del
embarazo humano
En esta etapa de la gestación se produce el avivamiento, que permite a la madre percibir
los movimientos de su bebé. En estos meses los latidos del corazón del feto se pueden escuchar
con un estetoscopio, el sistema nervioso sigue desarrollándose, se establecen los lóbulos
cerebrales y aparecen las circunvoluciones o arrugas en la corteza cerebral. Gracias al desarrollo
de dicho sistema, el feto comienza a experimentar y se pueden detectar movimientos como:
apertura de la boca, el feto puede estirarse y bostezar, succión (muchas veces se puede observar
al bebé mamarse el dedo), movimientos de la cabeza y la cadera, parpadear, entre otros. Los
ojos se abren al séptimo mes y el crecimiento del cuerpo es constante (ver figura 15. 4).
Figura 15.4. Esquema que representa el crecimiento del bebé desde la semana nueve hasta la semana cuarenta.
El nacimiento: momento del parto
Recuerda por un instante todo lo que has podido presenciar con el nacimiento de un
bebé, o pregunta a alguna mujer de tu familia o vecina los momentos que vivió con el parto. Es
probable que describa cómo son las etapas previas al nacimiento. Después de aproximadamente
38 semanas o 266 días, y con un bebé que ha adquirido entre 3 y 4 kilos, con una longitud entre
40 y 55 centímetros, llega el momento del parto, el cual podemos dividirlo en tres fases:
1. La dilatación: se caracteriza por el inicio de las contracciones que varían de frecuencia
según avance el proceso de parto, van de 20 a 1 o 2 minutos (son más seguidas cuando
se acerca la fase de expulsión) y por la dilatación del cuello uterino. También, se libera
el líquido amniótico.
2. La expulsión: es la segunda fase y consiste en la máxima dilatación del cuello uterino
y la aparición de la cabeza del bebé. Esta etapa culmina con la salida completa del
cuerpo del infante. Su duración es variable, algunos expertos le asignan entre 30 y 60
minutos, otros, entre 2 y 60 minutos.
3. Después de la salida del bebé, sigue una fase de contracciones donde se expulsa la
placenta, a esta etapa se le llama alumbramiento o placentaria (tercera y última fase).
(ver figura 15. 5).
Figura 15.5. Proceso de parto.
Observando el desarrollo del feto y el parto
Aunque no poseamos los sofisticados aparatos para ver las imágenes del desarrollo
fetal y el parto, se puede utilizar la red de internet para observar virtualmente el desarrollo fetal
y el parto humano. Indaguemos: ¿cuáles serán los principales eventos que se dan a lo largo de
los nueve meses de gestación hasta el día del parto? ¿Cómo son los movimientos del bebé en
la salida? y ¿a qué se deben dichos movimientos?

12 13
¿Qué necesitas?
Computadora. Cuaderno y lápiz. Animaciones y videos.
¿Cómo lo harás?
Entra en las siguientes páginas web y visualiza las animaciones y los videos que
éstas contienen.
http://www.elnonacido.info/desarrollo_embrionario.html, este enlace contiene subtítulos
en castellano y tiene animaciones, ecografías (2D, 3D y 4D), videos reales desde el
vientre de la madre y fotografías. (El siguiente enlace contiene los mismos videos en
español: http://es.ehd.org/movies-index.php).
http://www.thevisualmd.com/health_centers/obstetrics_and_gynecology/weekly_
pregnancy_calendar/pregnancy_video
http://www.prenateperl.com/childbirth-normal-vaginal-delivery-with-pelvic-outlet-
view/view-item?ItemID=16144•


Toma nota de las palabras que no conoces y consulta distintas fuentes de información
(la red de internet, libros, otros) y esclarece su significado. Trata de identificar etapas,
procesos, diferencias y similitudes entre la información que te aportan las animaciones
y los videos. Toma en cuenta los movimientos que realiza el bebé para salir y busca la
razón de éstos. Detalla bien los momentos del desarrollo desde la fecundación.
Elabora un cuadro informativo, tríptico, cartel, entre otros, y preséntalo a tus compañeras
y compañeros.
Cómo la tecnología puede ayudar a cuidar la vida de la madre y el
feto durante el embarazo
La tecnología en la ginecobstetricia ha permitido a los especialistas desarrollar técnicas
de observación e intervención, que pueden salvar la vida de los fetos y de las madres durante
los nueve meses de embarazo, esto ha promovido el bienestar en una de las etapas de la vida
humana más vulnerables. ¿Conoces algunas técnicas e instrumentos tecnológicos que permiten
cuidar la salud de la embarazada y su hijo? ¿Qué tecnologías son usadas para el desarrollo de
imágenes en 3D, 4D, entre otras, que han mejorado la calidad de vida de la mujer en gestación?
Consulta prenatal.
Figura 15.6. Ecosonograma transabdominal.
Una de las primeras pruebas que se apli-
ca a la mujer, es aquella que mide la presencia de la hormona llamada gonadotropina coriónica humana (GCH), que sólo se produce durante el embarazo. Esta hormona aparece en la sangre y en la orina de las mujeres embarazadas hasta 10 días después de la concepción.
Dependiendo de cuándo se haga y de la posición del bebé, es posible ver las manos,
las piernas y otras partes del cuerpo, así como conocer el sexo. A la mayoría de las mujeres se les hace un ultrasonido entre las 18 y 20 semanas de embarazo. Es posible que se le haga el ultrasonido del primer trimestre (llamado ultrasonido temprano) para confirmar el embarazo, es decir, chequear que la mujer esté embarazada y averiguar la posible fecha del parto.


Otro de los exámenes comunes que se aplican a la embarazada es el ultrasonido o
ecosonograma, técnica que utiliza ondas sonoras de alta frecuencia, lo que permite obtener
imágenes en tiempo real de algunos órganos del cuerpo, sin someterlos a radiaciones. Las
imágenes son captadas por un dispositivo manual llamado transductor, que el operador des-
plaza de un lado a otro sobre el órgano o región del cuerpo que se desee examinar. Los barri-
dos de ultrasonido emplean ondas sonoras de alta frecuencia para producir una imagen sin
que la persona sea expuesta a la radiación, el procedimiento es indoloro y seguro.
El ecosonograma es una prueba prenatal
que se le ofrece a la mayoría de las embarazadas.
Las ondas sonoras permiten mostrar una imagen
del bebé en el útero o matriz, y permite a los
profesionales de la salud controlar el desarrollo
adecuado del feto. (Ver figura 15.6).

14 15
¿Cuáles son las razones para hacer un ultrasonido o ecosonograma a una embarazada?
Conocer la edad y el crecimiento del feto, lo que permite calcular la fecha posible
del parto.

Monitorear el ritmo cardíaco, el tono muscular y movimientos del bebé.
Supervisar el desarrollo general mes a mes.
Identificar la posibilidad de que exista un embarazo múltiple: gemelos, trillizos o más.
Comprobar la ubicación de la placenta en relación con el cuello del útero.
Detectar a tiempo posibles defectos de nacimiento, como espina bífida.
Prevenir complicaciones en el embarazo, incluidos aborto espontáneo y
embarazo ectópico.
¿Hay diferentes tipos de ultrasonido?
El tipo de ultrasonido dependerá de lo que el profesional de la salud deba chequear y
de cuántas semanas de embarazo se tenga. Todos los ultrasonidos usan un dispositivo llamado
“transductor” que emite ondas sonoras para crear imágenes del bebé en una computadora.
Los tipos más comunes son:
Ultrasonido transabdominal. Es el que con más frecuencia se emplea durante todo
el embarazo, se aplica cuando el profesional de la salud mueve el transductor por el abdomen
de la mujer embarazada. Para lograr una mejor imagen, le cubre el abdomen con una capa
delgada de gel. La aplicación del ultrasonido dura unos 20 minutos y es posible que se solicite
a la embarazada tener la vejiga llena durante la prueba para obtener una mejor imagen. El
ultrasonido es indoloro, pero puede resultar incómodo tener la vejiga llena.
Ultrasonido transvaginal. Se hace en la vagina, es decir en el canal de parto. También
dura unos 20 minutos, pero a diferencia del ultrasonido transabdominal, la embarazada debe
tener la vejiga vacía o parcialmente llena. Es indoloro, pero puede molestar sentir cierta presión
del transductor.
En casos especiales, la médica o médico que atiende y supervisa el embarazo puede
conseguir más información con otros tipos de ultrasonido como:
Ultrasonido Doppler. Que se utiliza para chequear el flujo de sangre del bebé, si no
está creciendo normalmente, por ejemplo.







Ultrasonido 4-D. Es similar al ultrasonido 3-D, pero también muestra los movimientos
del bebé.
En la siguiente dirección electrónica puedes observar imágenes de ultrasonidos
mostrando fetos de tres meses y más: http://www.youtube.com/watch?v=ly5cBHD637M
¿Usar el ultrasonido o ecosonograma causa riesgos para la madre o el niño?
El ultrasonido es seguro para ambos cuando lo hace su profesional de la salud y, como
éste usa ondas sonoras en lugar de radiación, es más seguro que los rayos X. Los profesionales
han utilizado el ultrasonido por más de 30 años, y no se han encontrado riesgos.
Si el embarazo es sano, el ultrasonido es útil para descartar problemas, pero no tan
bueno para encontrarlos, ya que es posible que no detecte algunos defectos de nacimiento.
A veces, el ultrasonido de rutina puede sugerir que hay un defecto de nacimiento
cuando en realidad no lo hay. Aunque las pruebas de seguimiento suelen confirmar que el
bebé es sano, esas falsas alarmas son motivo de preocupación para los padres. Quizás conozcas
algunos lugares, como tiendas en los centros comerciales, que no están dirigidos por médicas o
médicos, ni otros profesionales, y que ofrecen imágenes o videos de ultrasonido “de recuerdo”
en 3-D o 4-D para los padres.
Muchas asociaciones de obstetricia y ginecología, no recomiendan esos ultrasonidos
que no son médicos. Las personas que los hacen pueden no tener la capacitación médica y es
posible que den información errónea o incluso perjudicial.
Cuidados en el embarazo.
¿Qué sucede después de un ultrasonido?
Para la mayoría de las mujeres, el ultrasonido
muestra que el bebé está creciendo normalmente. Si su
ultrasonido es normal, simplemente se debe evitar faltar
a las consultas prenatales.
Algunas veces, el ultrasonido podrá mostrar que
tanto la madre como el niño necesitan atención especial.
Por ejemplo, si el ultrasonido muestra que existe un pro-
blema en el corazón, quizás se pueda tratar en útero antes
del nacimiento. Si el ultrasonido muestra ciertos defectos
de nacimiento o que el bebé tiene presentación de nalgas
(con los pies hacia abajo en lugar de tener la cabeza hacia
abajo), alerta al médico o médica a tener que utilizar una
Figura 15.7. Imágenes de feto a través de ecosonograma
en tercera dimensión.
Ultrasonido 3-D. O tridimensional,
que permite tomar miles de imágenes al mismo tiempo, para crear una imagen tridimensional (3-D) que es casi tan clara como una fotografía. (Ver figura 15.7).
cesárea. Sea lo que el ultrasonido muestre, el profesional de la salud debe informar sobre la mejor atención para la madre y el niño o niña.
En el embarazo, se deben realizar pruebas prenatales de rutina como parte de los cui-
dados antes del parto. Durante la primera visita prenatal, el profesional de la salud pedirá a la mujer que se realice un análisis de sangre y de orina para identificar: (ver figura 15. 8).

16 17


Figura 15.8. Examen de sangre y orina.
Anemia (bajo recuento de glóbulos rojos), lo que podría hacer que se sienta
particularmente cansada y, en algunos casos, aumentar su riesgo de parto prematuro.
Grupo sanguíneo, incluido el factor Rh de sus glóbulos rojos. El factor Rh es una
proteína que algunas personas tienen en los glóbulos de la sangre. Si la persona
no tiene esta proteína, su factor Rh es negativo. Los bebés y las madres que tienen
diferencias en el factor Rh pueden tener un problema de sangre llamado intolerancia
de Rh. Dependiendo del caso y del número de partos de la mujer, el médico o médica
debe suministrar inmunoglobulina a la semana 28 del embarazo.
Bacterias en la orina, ya que la presencia de éstas puede indicar una infección en las vías
urinarias. La mayoría de las mujeres no presenta síntomas, pero incluso una infección
asintomática puede propagarse y llegar a los riñones, donde puede representar un
grave riesgo para la madre y su hijo. Las infecciones de las vías urinarias se tratan con
antibióticos que son seguros tanto para la madre como para el bebé.
Niveles altos de azúcar en la orina, para despistar diabetes. Es posible que ello lleve
a solicitar que la embarazada se realice pruebas adicionales si se le detecta azúcar
en la orina.
Proteína en la orina. Esto puede indicar una infección de las vías urinarias o, en una
etapa posterior del embarazo, una condición relacionada con éste que incluye alta
presión arterial. Es posible solicitar pruebas adicionales si se detecta proteína en
la orina.
Es posible solicitar un análisis de orina en cada visita prenatal y un análisis de sangre
para la anemia, al menos una vez más, durante el embarazo.
Todas estas pruebas son rutinarias pero son importantes para proteger la salud de la
embarazada y del feto.






Embarazo sano y feliz en nuestra comunidad
¿Qué conoce la comunidad a la cual perteneces sobre el cuidado de la salud de
la embarazada?
Tener conciencia sobre el embarazo responsable es prioritario en la población
venezolana, de allí la importancia de estar informados sobre los servicios que el Estado ofrece
a los ciudadanos y ciudadanas, sobre los derechos y deberes de las embarazadas y los centros
de salud que prestan atención a las madres embarazadas, entre otros.
¿Te gustaría realizar un proyecto relacionado con las necesidades que tienen los
miembros de tu comunidad sobre el embarazo?
Organizados en equipos de trabajo y con la
asesoría de tu profesor o profesora, elaboren una en- cuesta que les permita recoger información entre los miembros de su comunidad.
Una vez aplicada, analicen la información y ela-
boren un plan para llevar a cabo una campaña infor-
mativa al respecto.
Maternidad Concepción Palacios, en Caracas.




Condiciones que podrían ser peligrosas para la salud de su bebé (por ejemplo, hepatitis
B, sífilis y otras infecciones de transmisión sexual). El profesional le preguntará si desea
realizarse una prueba de VIH.
Anticuerpos que muestran si la madre es inmune o no a la rubéola y a la varicela
(lechina), enfermedades que pueden causar defectos de nacimiento si la madre las
contrae por primera vez durante el embarazo.
¿Qué necesitan?
Materiales de referencia documental, informativo, educativo sobre el embarazo; ma-
teriales de oficina para elaborar dípticos, trípticos, afiches y otros medios informativos.
Identifiquen las radios comunitarias de su localidad para participar en programas de
información a la comunidad; contacten a: integrantes de su comunidad, educadores,
médicos, enfermeras y otros profesionales de la salud, que puedan participar en las
diferentes acciones que programen.
¿Cómo lo harán?
Busquen información en la prensa, en la red de internet, en los Centros de Salud cercanos
a su lugar de vivienda, sobre:
¿Cuáles instituciones existen en tu comunidad o región para atender a las embarazadas?
¿Qué tipo de servicio se ofrece a la población para la prevención del embarazo
no deseado?

18 19
En los centros respectivos, ¿qué información se otorga a las personas para tener
acceso, de manera gratuita, a los distintos exámenes que permitan un control
prenatal adecuado?
Planifiquen las acciones, tratando de que cada equipo se aboque a un tipo es-
pecífico de necesidad detectada en la comunidad; de esta manera, será posible
ampliar y diversificar sin repeticiones.
Compartan con los especialistas y voluntarios de su comunidad el plan que han
elaborado y decidan la manera de llevarlo a cabo.
¿Qué otras maneras efectivas habrá para realizar la experiencia?
Elaboren materiales de difusión que llevarán a los centros de salud, a las mesas
de salud de los consejos comunales, a las escuelas y a liceos. Especialmente sobre los
mecanismos que ofrece el Estado para atender a las embarazadas.




Cuando la vida en el vientre materno deja de ser segura
A lo largo de la lectura reflexionamos sobre los eventos que se suscitan en el tiempo de
gestación y cómo, al final, el parto es el comienzo de la independencia del bebé, cuando tiene
que realizar por sí solo aquellas funciones biológicas para las que se fue formando, como lo son:
respirar, digerir su alimento, eliminar sus desechos en la orina, entre muchas otras. Pero existen
casos en los que el bebé nace con problemas y sus funciones, después del nacimiento, pueden
verse afectadas. ¿Cuáles pueden ser las causas de tales complicaciones? ¿Cuándo la vida en el
vientre materno deja de ser segura?
Los factores que pueden perturbar el desarrollo normal de un bebé son variados, la
mala nutrición de la madre puede reducir los aportes de proteínas al feto y afectar su sistema
nervioso, por ejemplo. Algunos medicamentos, a los cuales no se les ha comprobado su efecto
sobre el embarazo, pueden causar deformaciones en el feto o problemas de retardo (te invito
a leer el caso de la talidomida en la red de internet: http://www.ejournal.unam.mx/rfm/no44-
5/RFM44506.pdf). La placenta que protege al bebé no es infalible, muchos virus y bacterias
pueden atravesarla y causar daños en el embrión, por ejemplo, la rubeola puede generar
ceguera y problemas cardíacos en el bebé. Otro caso es el VIH que puede infectar al no nacido.
El tabaquismo, el alcoholismo y la drogadicción afectan fuertemente la viabilidad y la salud del feto..
Los hábitos sociales de las bebidas alcohólicas, el tabaquismo y la drogadicción, son
causantes de problemas de desarrollo en los bebés de las embarazadas consumidoras. Niños
o niñas que nacen con alcoholismo fetal o son adictos o adictas a la cocaína y a la heroína al
nacer, presentan bajo peso, desarrollo intelectual afectado, deformaciones, entre muchas otras
afecciones que pueden evitarse con dejar estos vicios. La desintoxicación de los nuevos nacidos
adictos es traumática, sufren de dolores, ansiedad, temblores, vómito, diarrea, llanto constante,
entre otros síntomas, por la abstinencia, y deben pasar meses en los hospitales después del
nacimiento para librarlos de la dependencia a la droga.
La reproducción es un acto de responsabilidad social, psicológica y biológica. La for-
mación y mantenimiento de un hijo o hija es un compromiso que se debe asumir con toda la
seriedad desde la gestación, continuando con el nacimiento y el posterior desarrollo del bebé.
Sé un joven responsable, una vida no es un juego, una vida es un hecho increíble.
Actividades de autoevaluación
1.- Entra en el siguiente portal web y descarga la Ley de promoción, protección y apoyo a
la lactancia materna: http://www.inn.gob.ve/modules/nosotros/pdf/leylactancia.pdf , e indaga
sobre lo siguiente: ¿qué relación tiene el desarrollo embrionario con la lactancia materna? ¿Qué relación tiene la lactancia materna con el desarrollo del bebé nacido? ¿Cómo protege dicha ley a la madre, al feto y al neonato?
3.- Elabora una línea de tiempo desde la fecundación hasta el nacimiento de un nuevo bebé.
El embarazo: cuestión de conciencia y responsabilidad
En grupo y con las orientaciones de su docente, elaboren un video educativo, con
entrevistas, actuaciones, preguntas en la calle, hablando con expertos, imágenes, entre otros aspectos que consideren. Edítenlo; para esto existen muchos programas gratuitos que se pueden bajar de la red de internet y son fáciles de manejar, o pidan la ayuda de algún medio de comunicación comunitario alternativo que pueda estar cerca de su escuela o comunidad. Posterior a la edición y revisión, proyéctenlo a otros liceos y comunidades cercanas, con el fin de informar al colectivo sobre el embarazo y la responsabilidad que debemos tener en torno al mismo.

20 21
Cuando en el periódico, en la televisión, la radio o en la red de internet informan
sobre personas que padecen alguna enfermedad, o que sufren algún accidente
que debilita o genera un mal funcionamiento en su organismo o que simplemente
no funciona alguno de sus órganos, a menudo añaden que se hacen necesarios los
donantes de órganos y tejidos. Desde el punto de vista individual, es posible que
conozcas a alguien que requiera alguna solución en el campo de la Medicina y la
Biología para atender problemas como los mencionados anteriormente.
Mundialmente los trasplantes de órganos constituyen un medio que permite
la sobrevivencia de muchas personas, pero los escasos donantes alargan las listas de
espera y muchos no logran acceder a esta solución. Una posible alternativa que surge
y brinda una esperanza para esta problemática, es el cultivo de tejidos y la utilización
de “células madres” con capacidad de formar nuevos tejidos y posibles órganos, que
puedan ser trasplantados.
La base de estas técnicas de bioingeniería o biomédicas, reside en los conoci-
mientos que se tienen, hasta el momento, de los procesos biológicos naturales como
la fecundación, la expresión genética, el desarrollo embrionario, la diferenciación ce-
lular, la regeneración, entre otros; algunos de los cuales has podido conocer en las
lecturas previas.
En ellas te mostramos de manera global el proceso de fecundación, control, de-
s
arrollo y nacimiento de una nueva vida humana. En esta lectura, profundizaremos sobre
las células de los tejidos embrionarios primarios, producidas en el proceso de la gas-
trulación, y en dicho proceso como centro de formación de nuevos tejidos y órganos.
También podrás leer acerca del poder de regeneración que tienen algunos animales.
Formación de los primeros tejidos
Como vimos en lecturas anteriores, el ci-
goto se forma a partir de la unión del óvulo y del
espermatozoide, también pudiste leer sobre las
etapas que se llevan a cabo después de la fecun-
dación, es decir, la segmentación, y cómo a par-
tir del cigoto, la primera célula se divide en dos,
cuatro, ocho, dieciséis, treinta y dos células (ver
la figura 16. 1) y así sucesivamente hasta llegar a
las etapas del desarrollo embrionario: mórula,
blástula y gástrula.
Figura 16.1. Primeras divisiones celulares del cigoto
después de la fecundación.
En la gástrula se forman las llamadas capas germinales que darán origen a los distintos
tejidos y órganos del individuo. La gastrulación varía de un organismo a otro, pero algunos
principios son comunes a la mayoría de los seres vivos, por lo que podemos decir que lo que
ocurre en esta etapa es aplicable tanto a una estrella de mar, a una rana, un ave, como al propio
ser humano.
En las estrellas de mar, por ejemplo, durante el proceso de gastrulación se forma una
cavidad interna a partir de la movilización de las células de la blástula (ver figura 16.2). Para
comprender cómo se da este proceso, vamos a utilizar como ejemplo lo que ocurre cuando
llenamos parcialmente de aire un globo y luego tratamos de introducir el dedo por una de las
paredes sin romperlo. La porción del globo inflado que es impulsada por el dedo representaría
a la capa externa de células de la blástula que se movilizan al interior.
Figura 16. 2. Secuencia de fotografías mostrando la gastrulación (arriba). Esquema que representa la
gastrulación (abajo).
Formación de tejidos y órganos:
bioingeniería natural16

22 23
La capa más externa de la gástrula es el ecto-
dermo, que significa piel externa, y la más interna el
endodermo, que significa piel interna. Siguiendo con
el ejemplo del globo, la zona que ingresó, gracias a la
fuerza que ejerce el dedo, es el endodermo y la porción
de globo que quedó fuera representa el ectodermo.
A medida que el desarrollo del individuo
avanza, se forma el mesodermo o piel media debido
a la multiplicación celular del ectodermo; al orificio
que se formó con la entrada de las células para generar
el endodermo se le llama blastoporo. De estas tres
capas se originarán distintos órganos llamadas capas
de tejido embrionario primario o tejidos germinales
(ver figura 16. 3).
Figura 16. 3. Capas germinales formadas
a partir de la gastrulación.
¿Cómo ocurre el proceso de gastrulación en las personas?
En las personas, al poco tiempo de formarse la mórula, se lleva a cabo la primera
diferenciación celular que da origen al blastocisto que tiene dos capas, la más externa es el
trofoblasto que se origina por la múltiple división mitótica de las células más externas de la
mórula y que permite la implantación del embrión en el útero. Las pocas células restantes que
están en el interior del blastocisto son la masa celular interna, que dará origen al embrión y
que se ubica en uno de los extremos junto a las paredes del trofoblasto; el espacio restante
que está lleno de líquido se llama blastocele (ver figura 16. 4).
Figura 16. 4. Microfotografía del blastocisto. Al lado esquema del blastocisto: a.- masa celular
interna; b.- trofoblasto; c.- blastocele.
Luego de esta diferenciación y antes de la gastrulación, se comienzan a formar un
conjunto de membranas, a partir del trofoblasto y de la masa celular interna, que rodearán al
embrión y permitirán que se fije definitivamente al vientre de la madre. También, formarán la
futura placenta que dará protección al feto. Estas membranas extraembrionarias son: corion,
amnios, alantoides y saco vitelino.
De la masa celular interna se originan dos capas: el epiblasto y debajo de ella el hipo -
blasto (ver figura 16.5); ambas son aplanadas, con pocas células de grosor y forman un peque-
ño disco. Del epiblasto se formará el amnios, que rodeará al embrión y la cavidad amniótica que
se llenará de líquido amniótico que brindará el medio acuoso necesario para el desarrollo del
nuevo ser. Del hipoblasto se origina la membrana llamada saco vitelino, que en las personas,
no contiene vitelo (yema como en el caso de los huevos de gallina) y dará origen, en algún
momento y de forma temporal, a células sanguíneas. El corion se genera del trofoblasto y es la
membrana que tiene contacto directo con el útero de la madre y que nutrirá al embrión (ver fi-
gura 16. 6). La alantoides es una membrana que se forma a partir del saco vitelino y en el futuro
será parte de los vasos sanguíneos del cordón umbilical del feto.
Figura 16. 5. Disco embrionario que se divide en
epiblasto e hipoblasto.
Figura 16. 6. Saco vitelino que se forma a partir del
hipoblasto y la cavidad amniótica a partir del epiblasto.
Observando las primeras etapas después de la fecundación
Ante la interrogante: ¿Cuáles son las características que están presentes en los procesos
de segmentación y gastrulación de los seres vivos?, te invitamos a realizar la siguiente actividad de investigación.
¿Qué necesitas?
Computadora, conexión a la red de internet, cuaderno y lápiz.

24 25
http://www.solociencia.com/videos/online/desarrollo-embrionario-hasta-
blastocisto/q97JH-LZovg&feature=youtube_gdata/
http://www.curtisbiologia.com/node/1489
http://recursos.cnice.mec.es/biosfera/profesor/animaciones/Desarrollo_
embrionario.gif





•Observa con detenimiento cada una de las animaciones y el video.
Toma nota de las palabras que no conoces y consulta cualquier fuente de información
(la red de internet, libros, otras) para esclarecer su significado. Trata de identificar
etapas, procesos, diferencias y similitudes entre la información que te aportan las
animaciones y el video.
Construye un cuadro informativo, tríptico, cartel, entre otros, y preséntalo a tus
compañeras y compañeros.
¿Qué órganos y tejidos surgen de las distintas capas de tejido
embrionario?
El proceso de la gastrulación comienza en el epiblasto (éste será el ectodermo en el
embrión) que tiene forma de disco aplanado. El primer evento que se da es la formación de
un engrosamiento lineal, desde el centro del disco hacia la zona que formará las extremidades
inferiores (piernas y pies), por el movimiento de las células del epiblasto, esto es similar a tomar
un disco de plastilina y con los dedos desplazar porciones de ésta hacia el centro, hasta formar
una línea. El abultamiento de plastilina en el centro es similar a lo que se llama línea primitiva.
En dicha línea se forma un surco o canal, llamado surco primitivo, por donde se desplazarán las
células del epiblasto, en dirección al hipoblasto, y formarán dos nuevas capas (el mesodermo
y el endodermo). La línea primitiva es similar al blastoporo en la gastrulación de la estrella de
mar. (Ver figura 16. 7).
Figura 16 7. A la izquierda una microfotografía en la que puedes observar el disco embrionario con la línea primitiva
y el surco primitivo, visto desde arriba. A la derecha un esquema que muestra cómo migran las células del ectodermo al
espacio interno.
En la lectura anterior, de este mismo año, titulada “Los genes controlan el desarrollo
en los seres vivos”, pudiste estudiar cómo el conjunto de las capas germinales dará forma a las
distintas partes de nuestro cuerpo; entonces tuviste la oportunidad de conocer cuáles sistemas
y órganos se originan de las capas germinales del embrión. En esta lectura vamos a describir,
como ejemplo, la formación del sistema nervioso.
La zona que dará origen al sistema nervioso, en el embrión de aves y en los humanos,
se ubica antes de la línea primitiva, es decir, en la parte superior del epiblasto que formará
la cabeza. El proceso inicia cuando un grupo de células del ectodermo (antes epiblasto) se
diferencian tomando un aspecto engrosado y forman la llamada placa neural, los bordes de ésta
comienzan a elevarse y el centro de la misma a hundirse. Avanzado este proceso, los bordes de
la placa se encuentran y se unen, formando un tubo hueco que se llama tubo neural, que en un
futuro formará el encéfalo y la médula espinal del organismo. Dicho tubo se desprenderá del
resto del ectodermo y este último dará origen a la piel, entre otras estructuras. (Ver figura 16.8).
Figura 16. 8. Al lado izquierdo se representa al embrión visto desde arriba; ubica la placa neural y la línea primitiva. A
la derecha puedes ver otro esquema donde se indica cómo se forma el tubo neural.
En la siguiente imagen (ver figura 16. 9) podrás observar los tejidos que darán origen a
distintos órganos en el embrión en crecimiento. Toma en cuenta que el color azul representa el
ectodermo, el color rojo o rosado al mesodermo y el amarillo al endodermo.
¿Cómo lo harás?
Visualiza las animaciones y el video que contienen las siguientes direcciones
electrónicas.

26 27
Figura 16. 9. Observa las distintas capas de tejido germinal y los órganos que en un futuro se formarán en el
pequeño embrión.
Las tres capas germinales originan todos los órganos
de un individuo humano
¿Qué te parece el hecho de que una sola célula después de varias divisiones produzca
una persona completa? Seguro te parecerá extraordinario, fascinante o increíble, pero esto
es una realidad.
Una vez que hemos conocido los procesos de segmentación, gastrulación y cómo, a
partir de esta última etapa, se producen las capas germinales primarias: ectodermo, mesodermo
y endodermo, que se diversifican para constituir los diferentes órganos, vamos a describir a la
organogénesis, es decir, el proceso que da origen a los órganos en distintos animales.
Al igual que las otras etapas y procesos del desarrollo, la diferenciación celular se
fundamenta en la expresión de los genes. En épocas pasadas, se pensaba que la diferenciación
se debía a la pérdida de genes y que esta pérdida impedía la transformación de una célula en
otra. Más adelante se realizaron investigaciones que comprobaron lo contrario, es decir, que
todas las células diferenciadas mantienen todos los genes, lo que sucede es que algunos se
expresan y otros no; en esto radica la diferenciación.
La clonación es un ejemplo de la expresión de la información contenida en los genes.
En el siguiente esquema puedes observar el proceso de clonación de una rana, que demuestra
cómo el aporte de la información contenida en el genoma del núcleo donante de una célula
ya diferenciada, es determinante en la formación de todo un nuevo e idéntico individuo (ver
figura 16.10).
Figura 16. 10. Esquema del proceso de clonación de una rana. De la rana verdosa se obtiene un óvulo al que se le extrae
el núcleo. Del renacuajo de otra rana, se extrae el núcleo del intestino y se coloca en el óvulo vacío. El resultado es una
rana albina igual a la que aporta el núcleo (material genético).
Otro proceso importante demuestra cómo las células se comunican y se diferencian es
el de la producción celular de sustancias químicas llamadas morfógenos, y que están dirigidas a
otras células. El efecto
de estas sustancias es hacer que la célula receptora active los genes que
la transformarán en el mismo tipo celular que la emisora de la sustancia.
Este hecho se comprobó con un experimento muy ingenioso, que consistió en injertar
un trozo de embrión de rana a otro embrión de la misma especie. El trozo injertado creció
(formó una doble gástrula) e influyó a las células de sus alrededores formando un individuo
dentro del otro. Como resultado se obtuvo un renacuajo doble, con dos cabezas y dos colas
(ver figura 16.11).

28 29
Figura 16. 11. Procedimiento llevado a cabo para obtener renacuajos dobles en el que
se evidencia la actividad de los morfógenos.
La influencia de los morfógenos tiene un gradiente de acción, es decir, mientras más
cerca esté una de estas sustancias de la célula, mayor va a ser la influencia, y mientras más aleja-
da se encuentre, el efecto será diferente por la poca concentración de la mencionada sustancia.
Esta idea es similar a acercarse a una fogata, mientras más cerca más caliente y a mayor
distancia menos caliente. Los resultados de ciertos experimentos han demostrado que algunos
genes requieren concentraciones altas de morfógenos para activarse, mientras que otros genes
pueden activarse incluso a bajas concentraciones. Esto reviste importancia en la diferenciación,
porque a lo largo del área donde tienen influencia estos compuestos químicos se producirán
así variados tipos de células, que darán origen a distintos tejidos y órganos. Notemos que los
morfógenos actúan como señales celulares de largo alcance.
Otro mecanismo que contribuye a la agrupación de células del mismo tipo y a su
desplazamiento, son las señales de corto alcance que requieren el contacto y la cercanía
entre las células. Estas señales activan genes que producen proteína de reconocimiento y de
adhesión (unión), que les permiten a las células unirse a tipos iguales o separarse de tipos
diferentes. También, generan un efecto de cambio de forma sobre las células que les permite a
estas movilizarse en la dirección deseada, gracias a pseudópodos como los de la ameba.
Un ejemplo de lo antes señalado es la formación de los nervios en un embrión, que
ocurre por las señales de corto alcance, donde las células se van desplazando, alargándose y
se fijan en los lugares de ubicación del nervio en el adulto. Es por ello que los médicos pueden
conocer en nosotros la anatomía, porque si fuese diferente en cada persona serían complicadas
las operaciones y tendría que estudiarse desde cero a cada uno de nosotros.
Recuerda que los patrones están establecidos en el material genético, es decir en el
genoma de cada individuo.
Figura 16. 12. En la figura A puedes observar la posición en la que se encuentran los órganos normalmente.
En la figura B observa la inversión en la posición de los órganos.
Esto no significa que no puedan existir errores e influencia del ambiente externo en la
ejecución de estos mecanismos, un ejemplo es el trastorno llamado situs inversus (ver figura
16.12) en el que el estómago, el hígado y las vísceras, entre otros órganos, se ubican al lado
contrario de donde normalmente están, si es el hígado, que está ubicado del lado derecho,
ahora estará del lado izquierdo.
Este trastorno se origina cuando los morfógenos no actúan correctamente y los órganos
que deberían formarse al lado derecho del cuerpo en el embrión, se forman al lado izquierdo,
debido a señales químicas que son enviadas al lugar incorrecto.
¿Recuerdas el significado del término morfogénesis?: proceso que permite al embrión
tener las estructuras y formas adecuadas para cada tipo de ser vivo. La morfogénesis permite
el alargamiento o acortamiento de los tejidos, así como el crecimiento o decrecimiento de
diferentes zonas. El proceso se basa en la diferenciación de las células, su desplazamiento,
formación de grupos, crecimiento o división celular, cambios de forma, entre otros, y tiene su
origen en la información genética.
Para que se logre la formación de cada uno de los órganos y estructuras del cuerpo de
un organismo en particular, se debe además llevar a cabo la apoptosis, que significa muerte
celular.Te invitamos a conocer cuál es el papel de la apoptosis durante la morfogénesis. Para
entender este proceso, veamos cómo ocurre la formación de las manos en los seres humanos.
El proceso se inicia en las estructuras del embrión que darán origen a las manos, dichas
estructuras tienen forma de remo o abanico, debido a que los dedos están unidos entre sí por
una membrana. Las células que forman dicha membrana reciben información de otras células
a través de sustancias químicas, que las inducen a producir enzimas que las autodigieren y al
final le producen la muerte. De esta manera, la membrana se va reduciendo de tamaño hasta
dejar libres a los dedos entre sí (ver figura 16.13).

30 31
Figura 16.13. Secuencia de imágenes que muestran cómo se forma la mano de un embrión humano, y cómo los dedos
son separados por la apoptosis.
Representando el desarrollo de tejidos y órganos
Cada grupo elaborará el modelo que ha decidido.
Presenten sus trabajos al resto de los compañeros y compañeras de clase, indicándo-
les cómo ocurre el proceso representado, a qué partes darán origen las estructuras re-
presentadas, qué mecanismos participan en la formación de dichas partes, entre otros
aspectos que consideren necesarios.
Un ejemplo que pueden representar se muestra en la siguiente figura (ver figura 16.14).
La regeneración: mitología o realidad
¿Alguna vez has leído la historia de la Hidra de Lerna y del héroe Hércules de la
mitología griega?
Hércules fue un héroe mitológico de la antigua Grecia que se enfrentó a poderosos
monstruos, uno de ellos fue la Hidra de Lerna. Este monstruo tenía la capacidad de regenerar
su cabeza perdida y reemplazarla por dos cabezas nuevas aún más peligrosas (ver figura 16.15).
La historia mitológica cuenta que Hércules tuvo que enfrentarse a esta Hidra y cuando
descubrió su particular poder regenerativo, solicitó la ayuda de su sobrino y de la sabia diosa
Atenas para poder vencerla. Fue entonces, cuando el héroe armado con su espada y su sobrino
con el fuego, batallaron y cada vez que Hércules cortaba una de las cabezas, el sobrino quemaba
la herida del cuello y así no se volvía a regenerar ese maléfico tejido, venciendo a una de las
criaturas más curiosas de la mitología griega.
Figura 16.15. Hércules frente a la hidra de Lerna.
Pintura al óleo de Gustave Moreau, hacia 1870.
La regeneración es un proceso que permite re-
poner partes perdidas en algunos organismos, así como
formar seres completos a partir de alguna parte, similar
a la historia mitológica sobre la Hidra de Lerna. Algunos
animales tienen la capacidad de regenerar partes de su
cuerpo. Las salamandras, por ejemplo, son capaces de
formar una nueva pata después de perderla, también
los tuqueques y las lagartijas pueden formar una nueva
cola. Otros animales pueden formar un cuerpo entero a
partir de un fragmento de sí mismos, como por ejemplo,
las planarias y las estrellas de mar.
Los seres humanos no tenemos la capacidad de
recuperar un brazo u otra parte del cuerpo después de
haberlo perdido durante un accidente, pero sí tenemos
la capacidad de cicatrizar y recuperar algunos tejidos.
Vamos a elaborar un modelo de los procesos que permiten la formación de los tejidos o
de parte de éstos, utilizando masa flexible para realizarlo y con el fin de identificar sus etapas y
los acontecimientos que en ellos se dan.
¿Qué necesitan?
Para que lleven a cabo este trabajo, pueden buscar información en la red de internet, en
libros y revistas de manualidades; también pueden consultar a personas con experiencia en la
elaboración de masa flexible. O revisar la lectura de mitosis en el libro de tercer año.
¿Cómo lo harán?
En grupo y con la asesoría del docente, acuerden cómo van a diseñar y elaborar el
modelo que van a representar. Tomen en cuenta las partes, su ubicación, la formación de los
diversos tejidos, órganos y estructuras que se generan durante la gastrulación.



Si ocurre un error en este proceso, se originará una formación incorrecta de tejidos,
órganos y partes en los nuevos individuos, por ejemplo, algunas personas nacen con los dedos
unidos, lo que refleja fallas en la morfogénesis a consecuencia de una apoptosis incorrecta.
Figura 16.14. Esquema que muestra el proceso de formación de un ojo en humanos.

32 33
Para saber más…

Se cree que los humanos pueden re-
novarse por completo, es decir cambiar
todas sus células y formar nuevas en
diez años.
La base de la regeneración de los organis-
mos es la diferenciación celular y la potencialidad
de las células de activar y desactivar genes, que
permiten dicha diferenciación.
La capacidad que tienen las salamandras,
las planarias, o los tuqueques de formar nuevos
miembros, responde a la habilidad de sus células
para activar la información de los genes y así
formar nuevos tejidos y órganos, es decir, las células comienzan a desdiferenciarse volviendo
a un estado parecido al de las células embrionarias. De esta manera, las instrucciones y la
arquitectura del miembro en formación se llevan a cabo y se ejecutan de manera precisa.
Figura 16.16. Proceso de crecimiento de una de las extremidades de la salamandra, animal que posee poder de
regeneración en la cola, patas y mandíbulas.
Herramientas de hoy y para el futuro
Como señalamos en la introducción de la lectura, la falta de donantes de órganos en
el mundo es un problema que dificulta atender a las personas con enfermedades que afectan
el funcionamiento de alguna parte de su cuerpo, así como atender la pérdida de órganos y
tejidos en los seres humanos, que por causa de accidentes se han lesionado alguna parte de su
estructura corporal.
Según la Organización Mundial de la Salud (2004) la principal causa de muerte en el
mundo de jóvenes con edades comprendidas entre los 15 y los 19 años, son los accidentes de
tránsito. El conducir borracho, a altas velocidades y la falta de experiencia, entre otros, son los
principales motivos de este problema. A muchas de las personas que sobreviven a estos acci-
dentes debe amputárseles algún miembro de su cuerpo. También es importante señalar los
accidentes laborales, por la falta de aplicación de las medidas de seguridad.
La recuperación de las personas víctimas de esta problemática, requieren de soluciones
a corto y largo plazo, para mejorar su calidad de vida. El cultivo de tejidos y la regeneración de
órganos y estructuras corporales, son dos potencialidades que pueden mejorar las condiciones
de vida de muchas personas. El cultivo de tejidos es una realidad mundial, con ello se puede
producir piel, cartílago, y otros tejidos.
Las investigaciones sobre autoregeneración de extremidades y otras partes han
permitido esclarecer los mecanismos involucrados y cómo hacer posible que ello ocurra en
los humanos. Hasta el momento, las pruebas se llevan a cabo en animales y se estudian los
mecanismos involucrados.
En nuestro país se realizan trabajos que permitirán el funcionamiento del primer banco
de piel para el trasplante a quemados, así como un banco de tejidos, huesos y membranas
amnióticas, además de laboratorios de cultivo celular, para mejorar la condición y calidad de
vida de las personas que lo requieran.
Sin embargo, tú puedes también aportar en la solución de estos problemas, para ello
debes estar consciente de tus acciones, no vives aislado y una inadecuada decisión te afecta a
ti y a los que te rodean. Evitar los accidentes es una tarea de conciencia y de responsabilidad.
Observando a un animal capaz de formar un nuevo
individuo a partir de un trozo de su cuerpo
Como recordarás, las planarias son gusanos planos que pertenecen al grupo de los pla-
telmintos, al cual también pertenecen las solitarias o tenias. Estos animales tienen la capacidad
de formar un nuevo individuo, a partir de un fragmento de su cuerpo.
Te invitamos a estudiar el proceso de regeneración de las planarias, como evidencia
del trabajo colectivo de las ”células madre adultas” en la formación y reemplazo de órganos o
tejidos perdidos.
En la siguiente imagen (figura 16.16) se muestra cómo una salamandra
recupera una de sus patas:

34 35
¿Qué necesitan?
Ejemplares vivos de planarias; frascos de compota o cápsulas de Petri, previamente
limpios y desgrasados, agua reposada, pinceles, hojillas o bisturí, algunos medicamentos de
uso común como: acetaminofén, ibuprofeno y diclofenaco sódico.
¿Qué medidas de seguridad deben seguir?
Los medicamentos que se indican son para uso de la actividad, no deben ser ingeridos y se
debe evitar que entren en contacto con los ojos. Las personas alérgicas no deben manipular estos
medicamentos. Se recomienda informarse sobre las medidas de seguridad y primeros auxilios en
el laboratorio.
¿Cómo pueden trabajar?
El tiempo de regeneración de una planaria puede ser afectado por diversas condiciones
externas e internas, que lo alargan o reducen. Las infecciones, la salinidad, el pH del agua,
entre otros, pueden llevar a estos individuos a la muerte o a un proceso regenerativo lento.
Entre los aspectos a investigar con esta actividad, te proponemos:
¿Cómo se lleva a cabo el proceso de regeneración en las planarias?,
¿Cuáles son las condiciones necesarias para la regeneración de las planarias?
¿Cómo afectan algunos medicamentos el tiempo de regeneración de estos animales?
Las condiciones de mantenimiento de dichos animales deben corresponder con las
existentes en su entorno natural, ya que ellas viven en aguas claras y limpias, sin cloro, y con
suficiente oxigenación, libre de hongos, a temperatura ambiente, entre otras.
Por ello es recomendable trabajar con agua reposada, que se obtiene llenando un reci-
piente con agua de chorro y dejándola tapada por varios días, de esta forma se garantiza la pérdida
de algunas sustancias como el cloro, que son utilizadas para su procesamiento y esterilización.
Has pensado sobre: ¿Qué mecanismos nos permiten explicar el proceso de regeneración
en las planarias?¿Cuánto tiempo tardarán las planarias en regenerar su cuerpo completo, bajo
el efecto de ciertos medicamentos de uso comercial?



En cuanto a la temperatura es importante mantenerlas a la sombra o en un lugar donde
no reciban la luz directa, y a su vez evitar subidas bruscas de temperatura. En nuestra experiencia
vamos a utilizar un grupo control, el cual no estará sujeto a la influencia de los medicamentos y
representará las condiciones normales en las cuales una planaria regeneraría.
Los grupos experimentales van a ser aquellos a los que se les colocarán los medicamentos.
Las disoluciones de los mismos se van a preparar utilizando las dosis prescritas para casi todos
los medicamentos mencionados, es decir, una pastilla que vamos a disolver en 100 partes de
agua (100 mL).
Para orientarnos sobre dónde y en cuántas partes podemos cortar a una planaria para
que se regenere, te presentamos la siguiente figura (ver figura 16.17).
Figura 16.17. Distintos cortes que pueden ser utilizados en el experimento.
Recuerden que el corte que elijan debe ser el mismo, tanto para el grupo control
como para el experimental, y así no influir en el tiempo de regeneración por variantes en los
fragmentos. Si el organismo se mueve mucho, colóquenlo con un pincel en un trozo de hielo
envuelto con servilleta por un instante, esto lo inmovilizará y podrán realizar los cortes con
mayor facilidad.
¿Cómo preparar las muestras para la experiencia? ¿Qué criterios y condiciones deben
respetar?

36 37
Actividades de autoevaluación
1.- Realiza un esquema en el cual se evidencie cómo afectan a la formación de los
tejidos y órganos, los mecanismos genéticos, los movimientos celulares, la apoptosis, entre
otros. Toma en cuenta un tejido u órgano en específico.
2.- Indaga sobre la relación que tiene el trasplante de órganos con los mecanismos de
diferenciación celular y la organogénesis.
3.- Realiza un cuadro comparativo entre la gastrulación de la estrella de mar y el ser
humano. Toma en cuenta: tiempo que tardan en realizarse, etapas previas, formas, estructuras,
otras características.
¿Cómo observarán?
Elaboren tablas que les permitan recoger los datos, tomen fotografías de los fenómenos
estudiados para tener una secuencia de los acontecimientos vividos. Con la orientación de su
docente construyan gráficos comparativos entre las variables trabajadas.
¿Cómo pueden interpretar lo que observaron?
¿Qué diferencias encontraron entre las muestras experimentales?¿Cuál de los grupos
experimentales se regeneró más rápido? ¿Qué diferencias encontraron entre el grupo control
y el experimental? ¿Hubo algún efecto del acetaminofén, el ibuprofeno y el diclofenaco sódico
sobre la regeneración? De haber diferencias, ¿qué evidencia los cambios? ¿Qué explicación dan
a lo sucedido?
Comuniquen a sus compañeras y compañeros los resultados a través de una
exposición que contenga una introducción, el procedimiento que siguieron, los resultados
y las principales conclusiones.
¿Cuál será la cantidad de tiempo necesaria para me-
dir el proceso regenerativo? Como actividad previa que les
permita observar el tiempo que tarda la regeneración de las
planarias, es recomendable hacer un corte en el centro de
una planaria y registrar el tiempo que tardan en formarse
los dos nuevos individuos, esto les dará el tiempo máximo
de regeneración bajo las condiciones normales. Luego que
determinen el tiempo, podrán planificar el intervalo de días
para la observación de la regeneración y hacer las anotacio-
nes necesarias.
Para una observación adecuada, es necesario mantener a cada individuo por separado
y con una cantidad suficiente de agua y disoluciones, que eviten la desecación y permitan una buena visión del trabajo. Las cápsulas de Petri son muy buenas para estas experiencias, porque son poco profundas y al taparlas evitan la pérdida de agua.
¿Qué cantidad de disolución de medicamento se debe colocar a las muestras? Lo
suficiente para cubrir y mantener por varios días al animal en regeneración.
Trasplantes: solidaridad y vida
Organizados en equipos, pueden investigar cada uno distintos aspectos o casos en
torno al tema de los trasplantes de órganos y tejidos.
Algunas actividades que pueden emprender: analizar la legislación venezolana sobre este
asunto, compararla con las leyes de otros países, entrevistar a una persona que haya recibido un
trasplante, visitar alguna institución relacionada con el tema y obtener información, recopilar
estadísticas venezolanas y compararlas con las de otros países, realizar una investigación
documental en la prensa (pueden considerar lo publicado en el último año), hacer una
encuesta sobre lo que saben y lo que opinan sus compañeras y compañeros del liceo sobre
el tema (también pueden seleccionar otras poblaciones, como comunidad en general, padres
y representantes, etcétera), inventar y desarrollar una dramatización que destaque algo
importante sobre este asunto.
Presenten sus investigaciones en clase. Abran un debate sobre lo investigado y aporten
sus reflexiones y tomas de posición en torno al tema de las donaciones y los trasplantes de
órganos y tejidos.

38 39
El medio donde viven los organismos cambia continuamente. Por ejemplo, la
temperatura puede variar a lo largo del día. También, en el mismo lapso puede variar
la presión atmosférica, la humedad relativa, la disponibilidad de alimentos y otros
factores que ejercen efectos importantes sobre los seres vivos.
Para que un organismo pueda sobrevivir debe ajustar continuamente sus
características internas a los cambios en las condiciones ambientales, siempre y
cuando estas últimas no sobrepasen los límites de tolerancia de dicho organismo. Este
ajuste continuo en un mundo cambiante es lo que permite al organismo conservar su
integridad e independencia, y es una de las propiedades que distinguen a los seres
vivos de los objetos inanimados.
Uno de los temas principales de la fisiología (rama de la biología que estudia
las funciones de los seres vivos) es el estudio de los mecanismos que permiten a los
organismos mantener estable su medio interno, lo que se conoce como homeostasis.
En esta lectura conoceremos algunos mecanismos mediante los cuales los
seres vivos controlan la constancia de su medio interno. En primer lugar, veremos
la manera en que algunos organismos regulan su temperatura corporal; mediante
otros ejemplos, introduciremos el concepto de homeostasis y sus características más
importantes.
Manteniéndose fresco y conservando el calor
Los organismos exhiben dos tipos de relaciones entre su medio interno y el medio
externo: pueden cambiar sus condiciones internas cuando su ambiente externo cambia
(conformidad), o bien desarrollar mecanismos mediante los cuales el medio interno permanece
constante a pesar de los cambios externos (regulación). Por supuesto, entre estos dos extremos
existe una variedad de respuestas intermedias. Los organismos que regulan mejor su ambiente
interno son capaces de habitar una mayor diversidad de ambientes externos, como en el caso
de los seres humanos.
En nuestro planeta las condiciones climáticas son muy heterogéneas y fluctuantes.
Estas condiciones oscilan entre rangos extremos tan fríos como -80°C en la Antártida, hasta
temperaturas tan calientes como 55° C en zonas desérticas africanas, sin contar las fuentes
termales de los fondos oceánicos, donde puede llegar a más de 100 °C.
Por otra parte, en una misma área la temperatura puede variar. En el desierto las
diferencias entre las temperaturas diurna y nocturna pueden alcanzar los 40°C y entre el verano
y el invierno, en climas continentales extremos, pueden ser de alrededor de los 60ºC. Incluso en
un país como el nuestro, donde la temperatura permanece más o menos constante a lo largo
del año, puede variar a lo largo del día en más de 10°C.
La vida es posible debido a las adaptaciones de los organismos, tanto a los extremos
de temperaturas antes señalados, como a la variedad de rangos climáticos en las diferentes
áreas del planeta. La temperatura corporal es un indicador importante de las condiciones que
posee el medio interno y es el resultado del balance entre la producción y la pérdida de
energía térmica.
Los seres vivos producen energía térmica debido a las reacciones bioquímicas de los
procesos metabólicos y algunos, como los animales, ganan también dicha energía mediante la
actividad muscular. Por otra parte, pueden intercambiar energía con sus ambientes externos
por radiación proveniente del Sol, conducción y convección de nuestro cuerpo al entorno, y
evaporación a través del sudor, por ejemplo (figura 17.1).
Figura 17.1 Mecanismos de intercambio de
energía entre el ambiente y los seres vivos.
La temperatura es un parámetro fun-
damental de toda actividad biológica, por cuanto afecta la velocidad de las reacciones químicas de los organismos. El límite superior de temperatura para la vida está establecido por el punto en que las proteínas de las célu-
las se desnaturalizan, es decir, comienzan a perder su forma funcional, por causa del calor externo, y quedan inactivas. El límite inferior de temperatura para la vida es aquel en el cual el agua ya no es líquida. Con algunas excep-
ciones, la vida puede existir dentro de un ran-
go de temperatura desde aproximadamente 0°C hasta 50°C, con algunos seres que sobre-
pasan estos límites.
Permaneciendo constante frente a un
ambiente cambiante17

40 41
Los organismos han desarrollado distintas maneras de regular su temperatura para po-
der mantenerse vivos y activos a pesar de las variaciones. Como mencionamos en párrafos ante-
riores, algunos organismos pueden conformar su temperatura con la del medio ambiente, por
lo que se les denomina poiquilotermos (del griego poikilos, «múltiple»). Cuando se trata de
animales, también se les conoce como “animales de sangre fría”. Los llamados “animales de san-
gre caliente” (aves y mamíferos), en cambio, regulan su temperatura de modo que ésta perma-
nece más o menos constante a pesar de las variaciones ambientales; también se les denomina
homeotermos ( del griego homeo, « el mismo »). (figura 17.2).
Esta clasificación tradicional, sin embargo, es bastante ambigua, ya que hay animales
poiquilotermos (como algunas lagartijas) que mantienen su temperatura más o menos
constante, y homeotermos (como marmotas, tejones y murciélagos) que durante el invierno
entran en un estado de hibernación y bajan su temperatura hasta un valor cercano a la
temperatura ambiental.
Para evitar posibles confusiones, actualmente se describe el comportamiento térmico
de los organismos de acuerdo a cómo adquieren su calor corporal:
Los ectotermos (“temperatura o calor desde afuera”) adquieren energía térmica prin-
cipalmente desde el ambiente externo. Tienen tasas bajas de producción metabólica
de esta energía y la pierden rápidamente, por lo que su temperatura está condicionada
por el intercambio con el medio. Ejemplos de ectotermos son los invertebrados, peces,
anfibios y reptiles, además de las plantas. La mayoría de los ectotermos acuáticos man-
tienen una temperatura corporal igual a la temperatura del medio acuoso externo; en
ese caso, se les considera poiquilotermos. Por el contrario, los ectotermos terrestres,
como los reptiles, regulan su temperatura corporal controlando la cantidad de ener-
gía que captan del exterior. Algunos de ellos logran mantener su temperatura corporal
más o menos constante desarrollando diferentes comportamientos, como: buscando
refugio cuando la temperatura es muy elevada o calentándose al sol cuando es muy fría
(figura 17. 3).





Figura 17.3. La lagartija regula su temperatura intercambiando energía con el medio, buscando refugio
en la sombra o calentándose al sol, de modo que la temperatura de su cuerpo se mantiene a 37 °C.
Los organismos endotermos (“temperatura o calor desde dentro”) regulan su
temperatura mediante la producción de energía térmica dentro del propio cuerpo.
Tienen tasas altas de producción metabólica de esta energía, por lo que pueden generar
y mantener su propia temperatura. Son endotermos las aves y los mamíferos, los cuales
son buenos homeotermos.
Los denominados heterotermos son organismos que regulan la temperatura del
cuerpo mediante ectotermia en algunos momentos y endotermia en otros. Podemos
distinguir entre:
Heterotermos regionales: algunos poiquilotermos pueden conseguir elevadas
temperaturas del centro del cuerpo mediante actividad muscular. Es el caso del
atún, el pez espada y el tiburón peregrino, que desarrollan endotermia en regiones
del cuerpo como los músculos nadadores y el cerebro; muchos insectos voladores
grandes que desarrollan endotermia en el tórax; e insectos sociales, como abejas
y avispas, que son capaces de mantener estable la temperatura de la colmena
mediante el esfuerzo de toda la colonia (aleteando o agrupándose).
Heterotermos temporales: algunos homeotermos son capaces de disminuir su
temperatura hasta un valor cercano a la ambiental durante un período de tiempo,
ya sea diario o estacional (letargo, hibernación y estivación). De esta forma ahorran
mucha energía, al evitar la homeotermia temporalmente.
Figura 17.2. En esta imagen infrarroja
se muestra que el tuqueque, un animal
poiquilotermo, tiene una temperatura (en
grados Farenheit) cercana a la del am-
biente, en contraste con el humano que lo
sostiene (un homeotermo), cuya tempera-
tura es mucho mayor.
Los seres vivos se ajustan de diferentes formas a las variaciones
de temperatura

42 43
Para saber más…

Casi todas las plantas son ectotermos poiquilotermos.
Por consiguiente, poseen diversas adaptaciones morfo-
lógicas ante las variaciones de la temperatura ambien-
tal. Por ejemplo, la forma y orientación de las plantas
en el desierto reduce su ganancia de energía térmica
desde el ambiente y facilita su enfriamiento. Sin embar-
go, se ha descubierto heterotermia regional en plantas
como el loto (figura 17.4), el lirio acuático y el dragón
fétido oriental, las cuales son capaces de regular la tem-
peratura de sus flores y alcanzar 10 ºC por encima de la
temperatura externa.
Figura 17.4. El loto (Nelumbo nucifera)
regula la temperatura de sus flores entre
30 ºC y 36 ºC hasta por cuatro días en
ambientes entre 10 ºC y 45 ºC.
La endotermia tiene muchas ventajas. Los endotermos pueden permanecer activos,
buscar comida y defenderse por ellos mismos en un variado rango de temperaturas al aire
libre, mientras que los ectotermos pueden solamente hacer esto cuando están suficientemente
calientes. Es por esto que los endotermos pueden vivir en casi cualquier superficie de la Tierra,
como en las regiones árticas o en altas montañas, donde la mayoría de ectotermos difícilmente
pueden sobrevivir.
Sin embargo, los ectotermos requieren mucha menos energía que los endotermos
para sobrevivir. Los mamíferos y aves requieren mucha más comida y energía que los animales
ectotermos del mismo peso. En contraposición a lo que se pensaba antiguamente, los
ectotermos están tan bien adaptados a su tipo de vida como lo están los endotermos al suyo,
representando así estilos de vida diferentes.
Los endotermos regulan su temperatura a partir de un termostato central
y varios mecanismos efectores
¿Te has preguntado por qué la nevera mantiene siempre fríos los alimentos pero sin
congelarlos? La nevera posee un componente denominado termostato que enciende o apaga
el compresor del equipo en función de la temperatura. Cuando esta sube (como ocurre cuando
abres la nevera) el termostato enciende el compresor que hace que disminuya la temperatura
hasta el valor para el cual está regulada la nevera (unos 4 °C) y entonces se apaga. La nevera
se encuentra bastante aislada del exterior, por lo que el intercambio de energía térmica con el
ambiente a través de sus paredes es despreciable.
Podemos representar el sistema de control de la temperatura de la nevera como un
sistema de retroalimentación negativa. El término “negativa” no significa que sea “malo”, sino
que cuando la variable a controlar (en este caso la temperatura) cambia en una dirección (por
ejemplo, aumenta) existen uno o varios factores que tienden a contrarrestar a dicha variable en
una dirección opuesta (disminuye). La figura 17.5 muestra un esquema general de un circuito
de retroalimentación negativa, en el cual se pueden distinguir los siguientes elementos:
Un sensor o receptor, que puede medir la variable a controlar (temperatura).
Un punto de ajuste o señal de referencia, que le indica al sistema el nivel deseado
para la variable controlada (4 °C en el caso de la nevera). En realidad, ningún sistema
puede mantener la variable justo en el punto deseado, sino en un rango más o menos
estrecho de variación alrededor de éste.
Un integrador o centro de control, que compara el punto de ajuste con el nivel real de
la variable para decidir si ésta (el termostato) es demasiado alta o demasiado baja.
Un efector (o más de uno) que se pone en funcionamiento para retornar la variable a
su punto de ajuste (el compresor).




Figura 17.5. Esquema general de un circuito de retroalimentación negativa.
El sistema de retroalimentación de la nevera correspondería a la parte inferior del
esquema, ya que no posee mecanismos para aumentar la temperatura en el caso de que
disminuya (algo improbable).
Por analogía, podemos describir de la misma forma el sistema de control de la
temperatura de un endotermo, como el ser humano:

44 45
Figura 17.6. Rangos de temperaturas corporales en
personas normales. A la izquierda, temperaturas
tomadas bajo la lengua (oral); a la derecha,
temperaturas tomadas en el recto (rectal).
Nuestros sensores o termorreceptores, captan la temperatura del cuerpo. Hay dos grupos
de receptores: los termorreceptores periféricos, localizados en la piel, y los termorrecep -
tores centrales, en ciertas estructuras corporales de mayor profundidad.
El punto de ajuste o temperatura normal en el ser humano corresponde a 36,7 °C. Sin
embargo, existen variaciones causadas entre otros factores por la edad, sexo, actividad,
temperatura ambiente, hora del día, e incluso del lugar donde se tome la medida, como se
observa en la figura 17.6.




Para saber más…

Una variación interesante de la temperatura “normal”
ocurre en las mujeres debido al ciclo menstrual. Al-
rededor de la mitad del ciclo, la temperatura se eleva
aproximadamente en 0,5 °C a causa de la segregación de
progesterona y se mantiene elevada hasta la proximidad
del inicio del ciclo siguiente. Esta información se ha
utilizado para planificar o evitar embarazos en forma
“natural”. Sin embargo, este método de anticoncepción
natural no es muy confiable si no se combina con otros,
ya que, como hemos mencionado, existen otros factores
que afectan la temperatura corporal (figura 17.7).
Figura 17.7.Variación de la
temperatura durante el ciclo
menstrual. La ovulación ocurre
justo antes del aumento de la
temperatura debido a la segregación
de progesterona.
En la figura 17.8 se resume los principales mecanismos de regulación de la temperatura,
los cuales se explican a continuación:
Figura 17.8. Mecanismos de regulación de la temperatura en los seres humanos.
A) Cuando los termorreceptores detectan un aumento de la temperatura, el hipotála-
mo coordina la reducción de la temperatura corporal de tres maneras:
Los vasos sanguíneos de la piel se dilatan (expanden), de modo que la energía térmica
se transfiere desde la sangre a la piel ocho veces más rápido que lo normal. Tal dilata-
ción es causada por la inhibición de los centros nerviosos en el hipotálamo posterior,
que generalmente causan la constricción de los vasos sanguíneos.
La transpiración aumenta, con el consiguiente incremento de la evaporación de agua,
lo que provoca a su vez una mayor disipación de la energía y una disminución de
la temperatura. La mayoría de los mamíferos, a diferencia de las personas, carecen
de glándulas sudoríparas. Ellos incrementan la disipación de energía térmica, y en
consecuencia una disminución de la temperatura, mediante el jadeo, con el cual
intensifican el flujo pulmonar del aire y la pérdida creciente de agua en forma de
vapor por el tracto respiratorio; también, mediante el lamido, depositan agua en la
piel o en el pelo refrescándose.


El centro integrador para la regulación de la temperatura se localiza en el hipotálamo,
donde hay una serie de neuronas que funcionan como sensores de temperatura. Si la tem-
peratura corporal es muy alta o muy baja, el centro regulador ubicado en el hipotálamo
activa el sistema efector apropiado, retornando la temperatura del cuerpo a la normalidad.
Es por esto que a veces se le denomina termostato hipotalámico.
Tenemos un conjunto de efectores que se encargan de producir y conservar energía
térmica, que se activan ante una disminución de la temperatura, y otro grupo de efectores
que se encargan de aumentar la pérdida de energía térmica cuando la temperatura es
muy alta.

46 47
Se inhibe la acción de tiritar y otras actividades musculares que aumentan la temperatura
corporal (mencionadas más adelante).•
A estos mecanismos involuntarios debemos añadir los cambios en el comportamiento,
como buscar una sombra, disminuir la actividad, ingerir líquidos, etc.
Por otra parte, cuando los termorreceptores detectan una disminución de la
temperatura corporal, el hipotálamo activa los siguientes mecanismos para aumentar y
mantener la temperatura:
Los centros hipotalámicos posteriores causan la constricción de los vasos sanguíneos
periféricos, reduciendo de esta manera la pérdida de energía térmica a través de la piel.
El hipotálamo estimula la acción de “tiritar” (tiritera). Tiritar puede elevar la
producción de energía térmica cinco veces sobre lo normal a través del movimiento
muscular involuntario.
El hipotálamo permite que los pelos de la piel se pongan erectos (piloerección o “piel
de gallina”), lo que hace que se forme una capa de aire aislante, con lo cual se impide o
se reduce la pérdida de energía térmica.
Aumenta la secreción de la hormona liberadora de tirotrofina. Esta hormona acciona
la secreción de hormona tirotrofina de la hipófisis anterior. A su vez, ésta estimula a la
glándula tiroides para que secrete tiroxina, que aumenta el metabolismo celular y, por
ende, la temperatura corporal.
A estos mecanismos “automáticos” de respuesta al frío debemos agregar dos respuestas
voluntarias al frío: la actividad física voluntaria, que aumenta la producción de energía, y,
alternativamente, disminuir el área de superficie expuesta al ambiente, al tratar de compactar
el cuerpo.
Para saber más…

En el ser humano, el vestido es un elemento importante en la regulación de la temperatura, que sustituye el efecto de aislamiento que producen las plumas en las aves y el pelaje en otros mamíferos. Cuando la temperatura es inferior a la del cuerpo, disminuye la pérdida de energía por convección. Pero también el vestido aísla al ser humano de las temperaturas superiores a la del cuerpo, siempre que sea tan amplio que permita el movimiento adecuado del aire a fin de facilitar la evaporación. En la exposición directa al sol, contra lo que se suele creer, los vestidos amplios y de colores claros son mucho más refrescantes que la desnudez. (figura 17.9).
Figura 17.9. La amplia manta que
utiliza la mujer wayúu ayuda a
mantenerla fresca en el ambiente
cálido donde se desenvuelve su vida.
También existen procesos en los que los efectos de una pequeña variación en un
sistema incluyen un aumento en la magnitud de dicha variación en vez de ser reducida, como en la retroalimentación negativa, por lo que tal sistema se aleja de la homeostasis; en estos casos se dice que se activa un sistema de regulación positiva. Un ejemplo es la lactancia, ya
que a medida que el bebé succiona el pezón, hay una respuesta para producir más leche. Este tipo de retroalimentación suele terminar cuando se rompe el lazo; en el ejemplo, la lactancia se detiene cuando el bebé no se amamanta más.
Cuando la termorregulación falla
Los seres humanos toleran un rango muy estrecho de variación en su temperatura
corporal, como puedes observar en la figura 17.10. Cuando los mecanismos de termorregula- ción no son suficientes para compensar un aumento o disminución de la temperatura, puede comprometerse nuestra salud. Entre las más frecuentes situaciones anormales de la regulación térmica se describen:
a) Insolación o hipertermia: cuando la producción o retención de energía térmica
excede la capacidad de pérdida del individuo, entonces, la temperatura corporal se eleva a niveles peligrosos. En los mamíferos una vez que la temperatura corporal excede los 41,5 °C a 42,5 °C se dificultan seriamente las funciones corporales y se pierde la conciencia.
b) Hipotermia: se presenta cuando la pérdida de energía térmica excede a su produc-
ción, de modo tal, que la temperatura corporal comienza a disminuir hacia niveles peligrosos, hasta alcanzar un punto donde no podríamos emplear el mecanismo termorregulador. En esta situación los procesos metabólicos son cada vez más lentos al igual que la frecuencia cardiorrespiratoria, la presión sanguínea disminuye y se pierde el sentido. La función termo-
rreguladora hipotalámica se compromete seriamente a partir de los 29 a 25 °C de tempera-
tura corporal en descenso, ocurriendo paro cardíaco alrededor de los 20 °C. La hipotermia también se manifiesta ante temperaturas ambientales frías si no es posible evitar la pérdida de energía térmica.



48 49
c) Congelación: Es una situación drástica que se produce como continuación
de la hipotermia ante temperaturas ambientales extremadamente frías. La respuesta
vasoconstrictora que se da en las extremidades para la retención de la energía térmica, reduce
la circulación sanguínea, por lo que los tejidos se enfrían por debajo del punto de congelación
del agua y se forman cristales de hielo que comprometen la integridad de tales tejidos, dando
lugar a una gangrena.
Figura 17.10 Escala de tolerancia de
temperaturas en el ser humano.
Figura 17.11. Relación entre el punto de ajuste del termostato hipotalámico y la temperatura
corporal durante una crisis febril.
La fiebre está relacionada habitualmente con la estimulación del sistema inmunitario
del organismo. En este sentido, puede ser útil para que el sistema inmunitario tome ventaja
sobre los agentes infecciosos, haciendo al cuerpo humano menos receptivo para la replicación
de virus y bacterias, sensibles a la temperatura. Sin embargo, por encima de 42°C el organismo
puede sufrir un choque térmico térmico que es fatal si no se toman las medidas adecuadas
oportunamente. Los antipiréticos (como la aspirina o el acetaminofén) bloquean la acción de
los pirógenos sobre el termostato hipotalámico.
La termorregulación es un ejemplo de regulación del medio interno
Hemos visto que incluso los animales ectotermos procuran mantener su temperatura en
rango más o menos estrecho, por lo menos mientras permanecen activos. Pero la temperatura
es solo uno, aunque primordial, de muchos factores a regular.
Posiblemente, una de las ventajas de los organismos multicelulares es el mantenimiento
de las condiciones internas constantes, frente a los cambios del ambiente. Esto es posible porque
en un organismo multicelular complejo como el de los animales superiores, la mayor parte de
las células que lo constituyen no están en contacto directo con el ambiente exterior, sino que
viven sumergidas en el llamado líquido intercelular o intersticial, considerado como el medio
interno de los organismos superiores. En éstos, el líquido intercelular es el medio ambiente de
las células corporales, y desempeña el papel que, en los seres unicelulares, está reservado al
agua en que viven; vale decir, actúa como agente de intercambio de materiales con las células.
Por su intermedio, el oxígeno y los nutrientes pasan desde la sangre hacia las células; a su vez,
el dióxido de carbono y los desechos metabólicos de la célula pasan desde ella hacia la sangre,
para ser finalmente eliminados del cuerpo (figura 17.2).
Figura 17.12. Esquema de células interactuando con el plasma sanguíneo.
El fisiólogo francés Claude Bernard (1813-1878) (figura 17.13), fue el primero en
reconocer la impresionante estabilidad en las condiciones que mantienen los seres humanos
y otros mamíferos en la sangre y los líquidos tisulares. Pensando en el significado de este
equilibrio interno, llegó a la conclusión de que los mamíferos son capaces de funcionar de
modo constante, sin importar la variación de las condiciones externas, porque sus células
disfrutan de condiciones estables. Así postuló la siguiente hipótesis: “El equilibrio del medio
interno es la condición para la vida libre”. Dicho en otras palabras, los animales son capaces
de llevar vidas activas e independientes siempre que conserven sus células protegidas de la
variabilidad del mundo exterior, manteniendo un medio interno estable.
d) Fiebre: Es el incremento de la tempera-
tura corporal producida por agentes pirógenos
químicos, bacterianos o virales. Los pirógenos, son
sustancias que elevan el punto de ajuste del termos-
tato hipotalámico, por lo que la fiebre es producto
de un reajuste de los mecanismos termorregula-
dores para funcionar por encima del nivel normal,
incrementando la producción de energía y redu-
ciendo sus pérdidas. Como puedes ver en la figura
17.11, cuando comienza la fiebre se experimentan
escalofríos, debido a que el hipotálamo activa los
mecanismos de respuesta al frío. Cuando la fiebre
cesa, el punto de ajuste cae bruscamente a su nivel
normal. Después de la fiebre, la termorregulación
es normal.

50 51
Años después de la muerte de Bernard, el fisiólogo estadounidense Walter Cannon
(1871-1945) (figura 17.13) desarrolló esta hipótesis y acuñó en 1929 el término homeostasis
como “Los procesos fisiológicos coordinados que mantienen la mayoría de los estados del
organismo [constantes]”.
Figura 17.13. Claude Bernard y Walter Cannon, descubridores de la homeostasis.
Vamos a definir algunas propiedades de la homeostasis partiendo de lo que hemos
visto de la termorregulación:
Como el mismo Cannon afirmó, esta “constancia” en realidad no es un valor fijo,
sino un rango más o menos estrecho según el organismo, alrededor del cual este
se mantiene activo y “saludable”. Así, la temperatura “normal” del ser humano es de
36,7 °C, pero puede variar entre 35,5 °C y 40 °C según las circunstancias (figura 17.6).
Los mecanismos de regulación son mantenidos por la acción coordinada de los
sistemas nervioso y endocrino, como viste en cursos anteriores.
Los mecanismos de control de la homeostasis se estructuran en base a sistemas de
retroalimentación negativa y en algunos casos de retroalimentación positiva.
Cada organismo tiene la capacidad de vivir en ciertos intervalos de parámetros
ambientales (rango de tolerancia), que a veces pueden ser sobrepasados mediante la
aclimatación, la adaptación y la evolución.
Si un organismo no puede mantener los parámetros biológicos dentro de su rango
de normalidad (es decir, si fallan los mecanismos homeostáticos), surge un estado de
enfermedad que puede ocasionar la muerte (ver figura 17.10).





Ahora puedes comprender las funciones de regulación y control del sistema nervioso
y endocrino que estudiaste en cursos anteriores, considerándolas como una manera del
organismo mantener la homeostasis de diferentes factores. Por ejemplo, la regulación de la
glucosa puede verse como un sistema de retroalimentación negativa que mantiene dentro de
un rango estrecho la concentración de ésta en la sangre (figura 17.14).
Figura 17.14. Homeostasis de la glucosa en la sangre.
Los mecanismos homeostáticos operan ampliamente en la naturaleza, incluyendo
todos los sistemas vivos y sus diversos modos de organizarse; por ejemplo, actúan en una
población, comunidad o ecosistema. La hipótesis Gaia considera la proposición de que operan
mecanismos homeostáticos en el sostenimiento de la biosfera misma.
Contribuir al mantenimiento de la homeostasis nos ayuda a
mantenernos saludables
Hemos visto que el cuerpo humano tiene variados sistemas de control que permiten
mantener la vida y responder ante el estrés. El estrés es una respuesta fisiológica frente a uno
o más factores que constituyen una amenaza a la sobrevivencia. Dado que el organismo se
encuentra permanentemente expuesto a variaciones más o menos discretas de un sinnúmero
de variables físicas y químicas, se puede decir que el estado de estrés es permanente y no un
estado circunstancial o repentino.
A la larga, habrá estrés en la medida en que existan gradientes en el entorno de:
temperatura, acidez, gases, presiones, etc. La respuesta al estrés involucra, por tanto, muchos
mecanismos homeostáticos simultáneos. Hay estrés cuando practicamos un deporte, pero
también cuando recibimos una noticia que nos impacta, cuando nos aplican una prueba o nos
subimos a la montaña rusa.
Debemos aprender a hacerle caso a nuestro cuerpo cuando manda señales de altera-
ción del equilibrio en algún factor. Por ejemplo, la sensación de agotamiento que sentimos cuando hacemos ejercicio intenso, es una señal de que el cuerpo se está sobrecalentando (entre otros factores) y así obligarnos a detenernos antes de que colapsemos, dándonos chance para hidratarnos y compensar la pérdida de líquidos por sudoración.

52 53
Diseña y elabora un microambiente
con temperatura controlada
En el laboratorio de tu liceo tal vez sea conveniente un microambiente, elaborado
con una caja transparente, para mantener las Drosophila, que se utilizan en experimentos
de genética, a una temperatura controlada y evitar exponerlas a variaciones bruscas de
temperatura. O un terrario o acuario para estudiar el comportamiento de diversos animales.
Anímate a diseñar y construir un microambiente con tus compañeros y compañeras de equipo.
Diseñen el sistema de retroalimentación correspondiente.
Elaboren la lista de materiales que necesitarán.
¡Pongan manos a la obra!



¿Cómo afecta el ejercicio la temperatura
del cuerpo y de la piel?
Estudiante 2: hará las lecturas de la temperatura oral del estudiante 1.
Estudiante 3: hará simultáneamente las lecturas de la temperatura de la piel
tomada en la axila del estudiante 1.
Estudiante 4: hará el registro de los datos.
Hagan una lectura previa de la temperatura oral y de la piel del estudiante 1.
El estudiante 1 hará un ejercicio violento, como saltar la cuerda o brincar en el mismo
sitio, durante 15 minutos, mientras el estudiante 4 toma nota de las observaciones.
Hagan una lectura de la temperatura oral y de la piel del estudiante 1 al finalizar
el ejercicio.
Registren sus resultados en una tabla como la presentada en la página siguiente.
Rótense sus asignaciones, de manera que todos realicen cada parte de la actividad. Si
no tienen termómetros individuales, desinfecten el termómetro oral con alcohol y
enjuáguenlo con agua antes de que otro estudiante lo use.









Durante una actividad física intensa, existe una descarga masiva del sistema nervioso
simpático, la cual incrementa el gasto cardíaco y la presión arterial. También hay ajustes
respiratorios, los cuales se traducen en el aumento en la ventilación pulmonar. Esos cambios
implican también un aumento de la temperatura corporal, por lo que deben ponerse en
acción, simultáneamente, diversos mecanismos homeostáticos para restaurar el equilibrio del
organismo. En esta actividad observaremos los cambios de temperatura que ocurren durante
el ejercicio. Formarán equipos de cuatro estudiantes para repartirse el trabajo.
¿Qué necesitan?
Lápiz y cuaderno de registro, termómetros, algodón y alcohol, cronómetro o reloj
con segundero.
¿Cómo lo harán?
Repártanse la actividad de la siguiente manera:
Estudiante 1: será el sujeto de experimentación.
Los mecanismos homeostáticos no sólo operan a nivel de organismo, sino en el interior
de la célula (el control genético) y a nivel de ecosistema, e incluso de toda la biosfera. Esto será
tema de otra lectura.

54 55
Tabla 1. Efecto del ejercicio sobre la temperatura corporal.
Temperatura
Antes del
ejercicio
Después del
ejercicio
Variación Observaciones
Cuerpo
Piel
Traten de explicar cada una de sus reacciones al ejercicio.
¿Existen diferencias entre la temperatura oral y la de la piel? Si es así, traten de explicar
por qué.
¿Cambió la temperatura antes y después del ejercicio? Expliquen.
¿Existen diferencias entre las temperaturas de cada uno de ustedes? ¿Por qué creen que
es así?




Actividades de Autoevaluación
1.- Explica la relación entre irritabilidad, homeostasis y adaptación.
2.- Explica y ejemplifica un mecanismo de retroalimentación negativo.
3.- Explica y ejemplifica un mecanismo de retroalimentación positivo.
4.- Menciona tres tipos de alteraciones termorreguladoras que podría sufrir una persona
con lesiones tumorales en el hipotálamo.
5.- ¿Cuál o cuáles acciones usarías para tratar a una persona con fiebre muy alta? Explica
por qué usarías unas y otras no.
Colocar paños húmedos en el abdomen.
Frotar el cuerpo con alcohol.
Suministrarle aspirina.
Suministrar líquidos abundantes.
Abrigar a la persona para que deje de temblar.
6.- ¿Qué relación puedes establecer entre: homeostasis-medio interno-sistema nervio-
so - sistema endocrino?
7.- Explica los componentes de un sistema de control homeostático típico.
8.- Explica cómo se realiza el mantenimiento del equilibrio interno en el organismo.
9.- Diseña un sistema de control para verificar este proceso.
10.- Indica la importancia de los mecanismos que nos permiten perder energía térmica.
11.- Elabora un esquema donde se relacionen los mecanismos de regulación de
temperatura y las estructuras que los realizan.
12.- Explica cómo hacen algunos animales para mantener constante su temperatura.
Investiga y compara cómo se mantiene la temperatura en un aparato que utilices
(nevera, plancha, aire acondicionado…).
13.- Enumera algunos de los mecanismos que permiten conservar el calor del cuerpo
en un ambiente frío.
14.-¿En qué se diferencian los homeotermos de los poiquilotermos?





¿Cómo lo pueden explicar?

56 57
El proceso de homeostasis ocurre en todos los seres vivos, desde una ameba
como organismo unicelular simple hasta una ballena azul como uno de los organismos
pluricelulares más complejos que existen. Los principios, las estructuras y las respuestas
básicas, así como los estímulos que motivan tal actividad de autorregulación, son relati-
vamente comunes en todas las especies.
En base a lo anterior se puede decir que esta similitud de respuestas está
justificada porque todos los organismos convivimos en un ambiente común (al decir
ambiente común nos referimos a la Tierra, sin tomar en cuenta las particularidades
a las cuales se enfrentan todas las especies) e interconectado, ya que cada especie
depende de su medio externo para sobrevivir y de un plan genético, que define cómo
se desarrolla y funciona la vida.
Cuando analizamos esta interdependencia de las especies con otros seres vi-
vos (lo biótico) y con la dinámica de las condiciones ambientales (lo abiótico), pudié-
ramos preguntarnos ¿es el planeta Tierra un ser vivo?, ¿cómo pudiéramos explicar la
funcionalidad de este sistema?, ¿cómo es la homeostasis planetaria?, ¿cuál es papel de
la materia viva y no viva en este organismo al que algunos llaman Gaia?, ¿qué eviden-
cia hay de esto?
En esta lectura abordaremos esta particular forma de ver al mundo como un sistema
vivo y el trabajo de los diversos científicos que han opinado sobre esta visión de Gaia o de la
Madre Tierra, así como otros temas de interés relacionados con la homeostasis planetaria.
¿Cómo evolucionó el pensamiento sobre
la Madre Tierra?
Figura 18.1. La Pachamama es la Madre
Tierra de los antiguos y sabios pueblos Incas.
Los grandes pensadores de la historia han vi-
sualizado al planeta de distintas formas, desde la visión
mitológica en culturas arcaicas, hasta la más holística
en pleno siglo XXI. La Tierra fue llamada por los griegos
Gaia, para los Incas precolombinos es Pachamama (fi-
gura 18.1) y para los Yorubas africanos era Yemayá, todas
son mujeres encargadas de otorgar la vida y a la vez
representan la vida misma del planeta.
Otra visión histórica de la Tierra como un siste-
ma vivo la tuvo el filósofo Tales de Mileto en el siglo VI
antes de Cristo, quien pensaba que algunos elementos
inanimados podían tomar vida, doctrina denominada
como hilozoísmo. Por el mismo período, se encon-
traban otros filósofos, entre ellos Anaxímenes, quien
planteaba que el aire funcionaba a modo de respira-
ción del mundo, y Anaxágoras quien sostenía que una
mente omnipotente controlaba toda la materia, ani-
mada e inanimada, aún cuando no estaba en toda ella.
Además de los pensadores antes mencionados,
también se encuentran los filósofos Hipócrates y Pitágoras
que de modo general promovían el pensamiento de que
la Tierra es un ser íntegro, vivo e inteligente.
Hace unos doscientos años el científico James
Hutton (figura 18.2), padre de la Geología, afirmó que
la Tierra era un super-organismo y por tal motivo era
un ser que debía ser estudiado mediante la fisiología.
El aporte más significativo de Hutton fue su escrito
sobre la Tierra en 1789, sobre el reciclaje continuo
de la materia orgánica; sin embargo, sus trabajos no
fueron tomados en cuenta por las Ciencias Biológicas y
Geológicas, como consecuencia, no se pudo percibir al
planeta y a la vida desarrollada en él de forma holística.
Figura 18.2. James Hutton, el padre de la Geología
y visionario de la Teoría de Gaia.
Los científicos de la época no lograron entender este planteamiento tan complejo
pues su visión del planeta era limitada, fue en el siglo XX con el desarrollo de la exploración lunar, cuando el ser humano sobrepasó la frontera de la atmósfera terrestre, y pudo obser-
var a la Tierra desde el espacio (figura 18.3). En ese momento, es cuando se abre una nueva brecha en el pensamiento científico, que vislumbra al planeta como ser complejo y digno de ser estudiado desde una perspectiva innovadora.
La homeostasis a nivel planetario…
¿Gaia es un pl aneta vivo?18

58 59
Figura18.3. Primera imagen de la Tierra vista desde la
Luna. Tomada gracias a la misión del Apolo VIII en 1968.
Para saber más…

La huella de Neil Amstrong y su experiencia
lunar marcaron un hito importante en la
observación de nuestro planeta y de los
otros en la galaxia. Al estudiar la atmósfera,
los suelos, y la Geología de
algunos de éstos,
los científicos de los proyectos de exploración
espacial
aprendieron que aún nos queda un
universo muy amplio por analizar y que la
humanidad aún tiene mucho que aprender
sobre su misma especie y el planeta en el
que vive. En ese contexto surge la hipótesis
Gaia de James Lovelock y Lynn Margulis.
James Lovelock y Lynn M argulis,
los padres de la hipótesis G aia
Cuando se iniciaron los viajes al espa-
cio a mediados del siglo XX, las investigacio-
nes en esta área tomaron importancia a nivel
global y participaron una variedad de cientí-
ficos del mundo; entre éstos, uno de los más
particulares fue el británico James Lovelock
(figura 18.4), quien en 1957 creó un detector
de captura de electrones, un aparato que era
capaz de detectar una parte entre un trillón en
el ambiente de determinadas sustancias.
Figura 18.4. James Lovelock (1919), el controversial
científico creador de la hipótesis Gaia.
El científico inicia sus labores en la
agencia espacial estadounidense NASA en
1961, y allí se le encomienda la labor de par-
ticipar en el proyecto de detección de vida en
otros planetas, como Marte y Venus, interesán-
dose en estudiar la composición química de la
atmósfera de ambos planetas cercanos y com-
pararla con la del planeta Tierra.
Este proyecto le permitió diseñar la hipóte-
sis de Gaia junto a la microbióloga Lynn Margulis
(figura 18. 5). Dicha hipótesis fue muy controversial
al estudiar al planeta bajo un enfoque fisiológico, es
decir, ellos proponen observar a la Tierra como un
ser vivo con la capacidad de autorregularse.
Lynn Margulis participó en la hipótesis Gaia y
otras investigaciones importantes para la evolución,
y su aporte más significativo fue plantear que la
química de la atmósfera y la
salinidad de los océanos
no son fortuitas, debido a que están relacionadas Figura 18.5. Lynn Margulis (1938-2011).
La hipótesis G aia, una descripción del proceso de autorregulación
planetaria
Figura 18.6.Fotografía de Marte, tomada por la
NASA con el explorador Opportunity en 2004.
con la actividad vital de trillones de microrganismos que las modifican. La transformación y reutilización de la materia orgánica ha venido modificando a la Tierra, convirtiéndola en un planeta más habitable, ampliando la posibilidad de contener más vida.
La hipótesis de Gaia fue presentada al mundo en 1972 con el título de “Gaia vista desde
la atmósfera”, describiendo la capacidad de homeostasis atmosférica y cómo la materia viva y
no viva tienen una influencia protagónica en este proceso de regulación.
Una de las leyes de la termodinámica plantea que los sistemas cerrados como el planeta
Tierra deben tender a una mayor entropía, y por esto la atmósfera de la misma debería estar en equilibrio químico. Cuando nos referimos a un equilibrio químico atmosférico tendríamos que imaginarnos a un planeta inerte, carente de cualquier reacción química que produzca energía alguna.
Este mundo en equilibrio químico seguiría girando alrededor del Sol pero con
unas reacciones químicas sumamente escasas y espacios similares a desiertos, tendría altas concentraciones de dióxido de carbono y muy bajas de oxígeno, con una constante pérdida de energía térmica, y resultaría incapaz completamente de desarrollar la vida como la conocemos en la Tierra. Tal escenario ha sido observado en planetas como Marte (figura 18.6).

60 61
En sus estudios, Lovelock y otros científicos proponen las condiciones atmosféricas y
oceánicas para dos modelos de planeta Tierra (figura 18.7), uno con una composición química
en equilibrio y otro con la condición actual. La finalidad de este trabajo es destacar que dichas
condiciones planetarias son la base fundamental de sus hipótesis y así poder explicar que este
planeta está en un proceso continuo de autorregulación, gracias a la interacción entre la biota
(elementos vivos) y la abiota (elementos no vivos).
Figura 18.7. Comparación entre la composición de los océanos y el aire del
mundo actual y la que tendrían en un hipotético mundo en equilibrio químico.
Lovelock y Margulis describen que las condiciones tan particulares de la Tierra se deben
a que la vida del planeta ha promovido la constancia de los niveles de temperatura, oxidación y
acidez encontrados en la superficie terrestre y en la composición química de las aguas durante
distintas épocas. Esta homeostasis se obtiene por procesos cibernéticos llevados a cabo de
manera automática e inconsciente por la vida presente en nuestro planeta, es decir la biota y
la abiota se autorregulan.
Para saber más…

La cibernética es una disciplina vinculada a la teoría de control y a la teoría de siste-
mas, es una rama de las matemáticas que
se encarga de los problemas de control,
recursividad e información. Ésta es aplica-
ble a los sistemas físicos, biológicos, quí-
micos y sociales.
La energía solar sustenta las condicio-
nes favorables para mantener la vida y estas
condiciones no sólo son constantes a corto
plazo, sino que han evolucionado en sincronía
con los cambios requeridos por la biota a lo
largo de su desarrollo. La vida y su entorno
están tan íntimamente asociados que la
evolución se da de manera integrada entre
ellos dos.
Este proceso a largo plazo de homeos-
tasis entre la biota y la abiota, es una postura
hipotética que contrasta con las teorías neodarwinistas, debido a que plantea que la vida y su
evolución no están motivadas de manera determinante por factores como la competencia;
sino que propone que la Gaia se ha encargado de generar, mantener y regular el ambiente
ideal para que se produzca una coevolución entre las especies y su dinámico entorno. Enten-
diendo por coevolución al proceso que ocurre cuando dos o más organismos ejercen presión
de selección mutua y sincrónica (en tiempo geológico) y que resulta en adaptaciones específi-
cas recíprocas. Si no hay adaptación mutua, no puede hablarse de coevolución.
Con este planteamiento Lovelock y Margulis describen a la Tierra y la vida en ella como
un sistema, que tiene la capacidad de regular la temperatura y la composición de la superficie
terrestre de manera idónea para los organismos vivos. La autorregulación del sistema es un
proceso activo impulsado por la energía libre proporcionada por el Sol.
En resumen, se pueden establecer los siguientes postulados: (a) la atmósfera planetaria
no está en equilibrio, sino en autorregulación por las interacciones que hay en ella; (b) la variedad
de vida y los elementos abióticos promueven la regulación del clima y de la composición
química a escala planetaria; (c) la regulación biológica sólo es parcial y el mundo real es el
resultado de una coevolución entre lo orgánico y lo inorgánico.
Gaia y el mundo de las M argaritas
La hipótesis de Gaia tuvo un impacto profundo en el ámbito de la ciencia, muchos
fueron los científicos que refutaron el planteamiento de Lovelock y Margulis, entre estos
científicos se encuentra Ford Doolittle (figura 18.8), quien planteaba que los organismos no
tienen la capacidad de regular el clima y menos la composición química de la atmósfera de
forma decisiva.
Figura18. 8. El biólogo molecular canadiense Ford Doolittle (1942).
En sus palabras expresó las críticas
más ácidas a la visión Gaiana y sugirió que “la
autorregulación planetaria requeriría, previ-
sión y planificación por parte de un Consejo
de la Vida”. Él razonó que “no hay comisiones
en las especies que se reúnen con regulari-
dad para determinar la forma de alterar el
clima, por ejemplo, al objeto de producir las
condiciones óptimas para la vida”.
Según Doolittle, “las especies rivales no pueden comunicarse unas con otras y mucho
menos tomar decisiones, basadas en el consenso, sobre la regulación del planeta”. Por ende,
Gaia sería otra teoría vitalista, de las que proclaman una suerte de misteriosa fuerza que
emana de todas las formas vivas, diferente a cualquier otro tipo de energía conocida; mientras
que la ciencia moderna ha sido reduccionista, y ha aplicado las mismas leyes al mundo vivo y
al no vivo.
Junto al planteamiento del biólogo Doolitte surgen otras críticas tales como: (a) se
ridiculiza la teoría por ser considerada como una religión de la nueva era; (b) bajo este enfoque
los fenómenos naturales se consideran causales ya que ocurren por un propósito; (c) no hay
evidencia en los genomas de los organismos individuales que apoyen los mecanismos de
feedback propuestos por los autores; (d) no hay manera de que la evolución por selección
natural lleve a un altruismo a escala global; (e) es considerada una metáfora de los procesos
terrestres; (f) Gaia no es un organismo vivo, ya que no es capaz de reproducirse y pasar su
información genética a otra generación, según lo establecido para definir a un ser vivo.
Componentes principales (por ciento)
Substancia
Mundo actual
(con vida)
Mundo en
equilibrio-(sin vida)
Aire
Dióxido de carbono Nitrógeno Oxígeno Argón
0,03
78 21
1
99
0 0 1
Océano
Agua Sal Nitrato sódico
96
3,5
vestigios
63 35
1,7

62 63
Figura 18.9. Modelo matemático de
Daisyworld, presentado en 1983, para responder
las críticas de Doolittle y otros científicos.
Ante estas críticas, Lovelock y sus colegas dise-
ñaron un modelo matemático que trata de explicar
el proceso de homeostasis de Gaia, el cual bautizaron
como el Mundo de las Margaritas, que en inglés se co-
noce como Daisyworld (figura 18.9).
Al tratar de ilustrar este modelo de Gaia, Love-
lock y Andrew Watson presentan un mundo parecido
al nuestro con las mismas condiciones de temperatura
y radiación solar.
El Mundo de las Margaritas consiste en un
modelo que trata de mostrar cómo el crecimiento y
la competencia por el espacio entre dos variedades
de margaritas, unas blancas y otras negras, pueden
mantener la temperatura de Daisyworld constante
y apta, basándose en la absorción o no absorción
energética, durante un amplio lapso de tiempo, siempre y cuando no sean afectadas por el
incremento de la radiación proveniente de una estrella como nuestro Sol.
La única especie dominante en este modelo son dos tipos de margaritas, unas negras y
otras blancas, unas capaces de tomar la energía solar y calentar el planeta y las otras incapaces
de absorber la radiación solar y que por ende lo enfrían, la competencia entre las dos especies
llega a un clímax coevolutivo, que termina por controlar la dinámica de la temperatura
planetaria. Esta propuesta contradice lo que Doolitte plantea, observándose que para lograr
la homeostasis no se requiere de una comunicación de especies para tomar decisiones
consensuadas, ya que los elementos presentes en el modelo interactúan y se ajustan a una
dinámica en equilibrio de acuerdo con los recursos energéticos que poseen.
Figura 18.10. El primer libro sobre
Gaia fue publicado en 1979 y ha
tenido varias ediciones.
¿Qué tanto ha crecido G aia?
Los planteamientos de Lovelock y Margulis tienen más
de 40 años de haber sido presentados al mundo de la ciencia
y desde ese momento han evolucionado (figura 18.10). Las
críticas expresadas han permitido la adaptación de esta
teoría, promoviendo el desarrollo de modelos matemáticos
que explican la homeostasis planetaria. Con la ayuda de la
cibernética se han creado diseños matemáticos más complejos
con mayor cantidad de variables, obteniéndose los mismos
increíbles resultados, generando una nueva perspectiva de
aquello que se inició como una hipótesis en 1972.
Los descubrimientos hechos por Lovelock y todos sus
colaboradores han transformado una hipótesis en un teoría de
incalculable impacto en el mundo, la visión fragmentada de la
Tierra quedó en el pasado. La Teoría de Gaia describe a la Tierra
como un organismo vivo que se autorregula, compuesto por
los océanos, las rocas de la superficie, la atmósfera, y
los seres vivos, dinamizados por la radiación de nuestra
estrella más cercana, el Sol.
Este sistema vivo evoluciona de forma conjunta
y logra la continua regulación de las condiciones am-
bientales, donde lo vivo y lo inerte están interrelacio-
nados, debido a que (Gaia) cuenta con mecanismos
que permiten la autorregulación climática y química.
La tesis de Gaia ha generado disciplinas científicas,
tanto sociales como experimentales, que se dedican al
estudio de la Tierra considerando aquellos fenómenos
que, de forma aislada, no se habían logrado explicar.

Figura 18.11. James Lovelock es hoy un adulto
mayor; y el protagonista de la Teoría de Gaia.
Atendiendo a los planteamientos de J. Lovelock (figura 18.11) en la Declaración
de Ámsterdam de la Unión Internacional Humanista y Ética (2002), las implicaciones de la
Teoría de Gaia se resumen en: (a) la vida es un fenómeno a escala planetaria, (b) los procesos
atmosféricos no se pueden analizar separados de los fenómenos biológicos, ya que la vida
no es un hecho parcial sino interconectado y muy dinámico, (c) los procesos evolutivos de
todas las especies no se aíslan de los procesos fisicoquímicos globales que ocurren en el
ambiente, (d) la biodiversidad contribuye de forma esencial y prioritaria a la autorregulación,
promoviendo una homeostasis planetaria.
La teoría de Gaia sigue fortaleciéndose y generando nuevas investigaciones. Una de
sus predicciones es que debe haber un compuesto de azufre producido por los seres vivos de
los océanos suficientemente estable como para que el agua no lo oxide y que pueda así ser
transferido al aire.
Figura 18.12. El ciclo del azufre es esencial
para la homeostasis del planeta.
El mismo compuesto o el producto de su
oxidación atmosférica se encargaría entonces de devolver azufre de los mares a la Tierra, cerrando un ciclo. El dimetilsulfuro ha sido el más probable candidato para ese rol. Es de notar que el azufre es el décimo elemento químico más abundante en el Universo.
Como parte de diferentes com-
pu
estos, circula a través de la tierra,
los océanos, la atmósfera y los seres vivos, jugando un rol clave tanto en el clima como en la salud de organis- mos y ecosistemas.

64 65
Figura 18.13. El doctor Harry Oduro, de Ghana,
actualmente trabajando en EE.UU.
La venganza de G aia y el futuro de la humanidad
La venganza de Gaia (2007) (figura 18.14) es una de las más recientes obras de Lovelock; en
ésta, el autor expone los elementos más importantes que promueven su tesis para transformar
a la humanidad en una verdadera aliada de la Tierra.
Figura 18.14 Una reciente obra sobre
Gaia del autor Lovelock (2007).
En este libro el autor describe la visión actual que
tiene sobre su teoría, las críticas y cómo se han superado l
as mismas. También describe algunas propuestas de fuen-
tes
energéticas, que incluyen a la nuclear, como una posible
solución a la dependencia de combustible fósil y sus con
se-
cuencias. Finalmente, en una visión más humana, Lovelock
invita a todas las personas y en especial a los líderes, a buscar
una solución a los problemas que afectan a la Tierra, ya que como experto en la materia tiene sólidas bases para criticar l
as prácticas de la humanidad que han degradado al ambiente.
Desde finales del siglo XX y en el actual siglo XXI,
los científicos se han preocupado por la crisis ambiental y su origen antrópico. El 20% de la humanidad comete el 80% de las agresiones a Gaia ocasionando la desertificación, la deforestación, la contaminación, el cambio climático, las lluvias ácidas, la desaparición diaria de especies, entre otros.
La humanidad se enfrenta a una serie de problemas globales que deterioran la biosfera y
la vida humana de modo alarmante, y que podrían convertirse en irreversibles; además, cuanto más se estudia el asunto, más nos percatamos de que no puede ser entendido aisladamente, dándole a la tesis de Lovelock mayor fortaleza. Se trata de problemas sistémicos, lo que significa que están interconectados y son interdependientes.
Los problemas ambientales que aquejan a Gaia son muy variados, a continuación se
describen de manera puntual algunos de ellos:
1. Cambio climático o calentamiento global, debido a las actividades humanas y al
inadecuado manejo ecológico de nuestro planeta, se presentan varios desajustes en los princi- pales ciclos biogeoquímicos. Además el clima a nivel mundial está atravesando una peligrosa etapa de desestabilización debido a la acción de los seres humanos. Cambios no esperados están afectando gravemente extensas zonas antes climáticamente estables, ¿observas algunos de esos cambios en la localidad donde vives?
2. Gracias a la forma equivocada como el
ser humano ha administrado las tierras que una vez fueron ricas en recursos verdes o trópicos húmedos, que cumplían sus esenciales funciones reguladoras respecto al aire, al agua y al suelo, hoy muchos se han transformado en yermos o estériles, por el efec-
to de la sobrexplotación, trayendo como consecuen- cia la desertificación.
3. El agua dulce en el mundo, disponible para consumo humano, ha empezado a
escasear y frente a ello está la necesidad creciente de parte de una población cuyo crecimiento es acelerado, y que a su vez contamina las aguas y destruye las cuencas hidrográficas.
4. La pérdida de la biodiversidad se debe a la contaminación de los océanos y las
cuencas hidrográficas de agua dulce, a la desertificación y destrucción de los bosques, al uso no sustentable de las especies, a la sobrepesca y la moderna tecnología que rápidamente ponen en riesgo y en peligro de extinción a diversas especies, entre otros factores. Pese a estas advertencias, los humanos más poderosos, que controlan la economía mundial, no se han detenido, sino más bien han acelerado brutal destrucción de nuestra única herencia.
En 2012 los científicos Harry Oduro,
Kathryn Van Alstyne y James Farquhar encon-
traron métodos para rastrear el movimiento
del dimetilsulfuro en el ambiente. Se piensa
que las emisiones de dimetilsulfuro juegan
un papel en la regulación del clima al transfor-
marse en aerosoles que afectan el balance de
radiación de luz solar en la Tierra. Las medicio-
nes indican variabilidad en la presencia de la
sustancia según las condiciones ambientales.
Ser capaces de seguir la circulación de dime-
tilsulfuro en el ambiente permitirá responder
importantes preguntas sobre el clima y, más
allá, seguir comprobando la hipótesis Gaia.

66 67
Figura 18. 15. Obra de Raquel Carson que evidencia
la preocupación por la acción humana sobre la Tierra,
de 1968.
Ética ambiental inspirada por G aia
Figura 18.16. Obra de Arne Naess,
ecólogo promotor de la Ecología
Profunda.
1. La vida de los seres no humanos es un valor en sí.
2. La riqueza y la diversidad de estas formas de vida
son también valores en sí.
3. Los seres humanos no pueden intervenir de ma-
nera destructiva en la vida.
4. La intervención humana actual es eminentemen-
te excesiva.
5. Por consiguiente, las reglas de juego deben ser ra-
dicalmente modificadas.
6. Esta modificación radical debe hacerse tanto a ni-
vel de las estructuras económicas como de las estructuras
ideológicas y culturales.
7. A nivel ideológico, el cambio principal consiste
en apreciar más la calidad de la vida que el goce de los
bienes materiales.
8. Las personas que acepten estos principios tienen
la obligación de contribuir, directa o indirectamente, a la
realización de los cambios fundamentales que aquellos im-
plican.
Estos principios claramente demandan de acciones
profundas y de transformaciones en la conducta, haciendo
que mejore la relación del humano con Gaia, al fin y al cabo
somos parte de ella. Una de las opciones a tomar, es pro-
mover la ética ambiental como una estrategia que conlleve
a la humanidad a una profunda reflexión y sinceración de
valores y redefinición en sus pensamientos, sentimientos y
acciones.
La ética ambiental nace cómo una disciplina de la filosofía aplicada que tiene cómo
objetivo renovar el conjunto de valores, pensamientos y comportamientos que promuevan una convivencia sana entre los humanos y Gaia para supervivencia de ambos.
Para lograr esto las personas deben superar estos dos problemas esenciales:
Éstos son algunos de los tantos problemas que Gaia
debe superar, el humano debe encarar su responsabilidad
por modificar las condiciones naturales que tiene el
planeta y que han promovido la evolución del sistema
terrestre. Los humanos deben cambiar sus conductas
para mantener la homeostasis planetaria y evitar el
letal equilibrio químico, cómo pudo haber ocurrido
en planetas cómo Marte y Venus.
Finalmente, Lovelock establece que los seres
humanos no somos la enfermedad del planeta, aunque el egoísmo de los poderosos le ha subido
la fiebre con peligro mortal. La humanidad, con su
inteligencia y su capacidad de comunicación, es el
sistema nervioso del planeta. Al fin y al cabo es a
través del ser humano que Gaia se pudo ver desde el
espacio. Por consiguiente, deberíamos ser el corazón
y la mente de la Tierra, no su perturbación, nosotros
somos la solución más efectiva.
Antes de la publicación de la Hipótesis
de Lovelock ya había grandes pensadores que buscaban una reconciliación con la Tierra, un aporte significativo lo ofrece la estadounidense Raquel Carson en 1962 (figura 18.15) con su obra titulada La primavera silenciosa. En síntesis, planteó que el humano es culpable del deterioro ambiental, y que su moderno y amplio poder sobre la naturaleza le otorga derecho ilegítimo a degradarla. Esta creencia se sustenta en la tecnología y la ciencia de la modernidad que le permite, supuestamente, tener potestad absoluta sobre el destino de la Tierra y sus recursos.
Además de los aportes de Raquel Carson
y otros ambientalistas de ese siglo, se adicionan los planteamientos de la Ecología Profunda, un movimiento liderado por el ecólogo sueco Arne Naess (1912-2009) (figura 18.16), se pueden resumir en estos ocho aspectos:
1. Redimensionar el concepto de
ética tradicional a una ética ambiental, ya que la primera se ha ocupado sólo de tra- bajar con los valores y las normas propias del ser humano. En base a esto, hay que vincular las necesidades de supervivencia de la humanidad con las del planeta, a fin de aceptar que Gaia tiene un conjunto de valores morales, y así plantearse la posibilidad de establecer normas de convivencia en- tre el humano y el resto de seres vivos, superándose claramente los límites propios de la perspectiva de la ética tradicional.

68 69
2. Replantear el tipo de relación del ser humano con Gaia. Por ello se debe profundizar
y educar a la humanidad en base a los postulados de la Teoría, para así comprender
la importancia de la homeostasis planetaria y que somos parte integral del proceso
de regulación y no una especie desarticulada del mundo, sino todo lo contrario,
participantes del proceso evolutivo global. Toda la sociedad debe movilizarse y
promover los cambios económicos y culturales requeridos.
En este último sentido, Murray Bookchin (1921-2006) habla de la ecología social:
se requiere un cambio hacia una sociedad participativa y una economía que no
esté centrada en la ganancia y en el crecimiento constante, sino en la atención a las
necesidades materiales de modo sencillo, junto al más amplio despliegue de creación
cultural. Ello nos permitiría a todas y todos desarrollar nuestras potencialidades sin
sufrir discriminación, y compartir el poder en un ambiente sano y diverso.
Explorando a Gaia en tu aula de clases
Puedes realizar una actividad directamente en tu aula de clases, sin salir de ella, y que te
permitirá observar el proceso de homeostasis planetaria a menor escala, así como el impacto de las actividades humanas, utilizando microambientes.
¿Qué necesitan?
Un microambiente, una lámpara de luz amarilla incandescente, un vidrio o plástico
transparente, hojas, lápiz, borrador.
¿Cómo lo harán?
Esta actividad se sugiere dividirla en 4 semanas y deben organizarse en grupos de
trabajo. Cada grupo puede diseñar un microambiente distinto (puede ser acuático, acua-
terrestre o terrestre).
a) En la primera semana organícense en equipos de trabajo y diseñen un microambiente,
éstos deben ser distintos entre los equipos y pueden ser terrestres, acuaterrestres o
acuáticos, donde puedan observar la interacción entre la materia viva y no viva, ya que
cada uno representa una parte de Gaia en miniatura.
b) En la semana siguiente observen cómo los microambientes han evolucionado y en es-
pecial detallen cómo son las interacciones que ocurren en ellos. Por ejemplo, pueden
establecer quiénes son los productores, los consumidores y los descomponedores;
cómo son las cadenas tróficas; cuál es la importancia de los elementos abióticos en es-
tos microambientes y cualquier otro detalle de interés para lograr la homeostasis de ese
espacio. Procuren tener en su microambiente organismos de crecimiento y desarrollo
rápidos, como por ejemplo: alpiste, caraotas, entre otros, si es terrestre.
c) En la tercera semana, para modelar el impacto de las actividades humanas en el proceso
de homeostasis, pueden aumentar la temperatura y calentar este espacio; para esto,
pueden usar un bombillo de luz incandescente que incida en el microambiente, cubran
herméticamente con una bolsa plástica o un vidrio para cerrar dicho microambiente
durante una semana.
d) En la última semana, pueden observar el efecto del cambio de temperatura en el mi-
croambiente, establezcan cuál ha sido el efecto directo sobre los seres vivos que allí
interactúan, observen si se han modificado las interacciones entre la materia viva y no
viva y cualquier otro aspecto que les pueda llamar la atención.
¿Qué explicaciones pueden dar a lo observado?
Finalmente, discutan lo observado durante estas semanas, considerando que este
microespacio es un modelo de Gaia. Para esto, pueden responder algunas de estas preguntas:
¿Se logró la homeostasis en el microambiente? ¿Cómo la evidenciaste? ¿Cómo afectó el
calentamiento a tu microambiente? ¿Cómo puede afectar este calentamiento la salud de los
elementos vivos? ¿Este efecto de calentamiento está ocurriendo en nuestro planeta? ¿Cómo
está afectando el calentamiento global a los venezolanos? ¿Qué deberíamos hacer para mitigar
el impacto del calentamiento global? ¿Cómo puedes promover una mejor relación entre el ser
humano y el ambiente? y otras preguntas que te permitan alcanzar el objetivo de la actividad.
¿Cómo pueden comunicar lo investigado?
Organicen alguna actividad creativa que les permita difundir en su liceo o comunidad
lo aprendido sobre Gaia, la ecología profunda y la ética ambiental. Por ejemplo: exposiciones
fotográficas, mini-pieza teatral, foro, comentarios de libros leídos, intervención en un programa
de una radio comunitaria, divulgación de música folklórica sobre fauna, flora y ambientes entre
otras posibilidades.

70 71
Hoy Miguel tiene una cita, va a llevar a su novia a almorzar en el restaurante
que se encuentra ubicado en la esquina de la cuadra de su casa, famoso no sólo por
la rica comida que prepara su chef sino por lo agradable y acogedor que resulta el
lugar. Miguel está cuidando todos los detalles pues tiene pensado pedirle matrimonio
a su novia en ese sitio. Ya sentados en la mesa y habiendo ordenado la comida,
conversan y ambos resaltan la frescura agradable que sienten en el restaurant (menos
mal que Miguel reservó la mesa que está ubicada justo debajo de la salida del aire
acondicionado), por tener un sistema de refrigeración tipo split.
Los aparatos de aire acondicionado se caracterizan por enfriar ambientes.
Ellos tienen esta propiedad por poseer en su sistema un refrigerante, que no es más
que cualquier sustancia que actúa como agente de enfriamiento ganando energía
térmica de otra sustancia. El refrigerante es el fluido de trabajo de un ciclo compresión-
expansión, y de forma alternativa se vaporiza y se condensa absorbiendo y cediendo
calor, respectivamente. Para que un refrigerante sea apropiado y se pueda usar
en el ciclo antes mencionado, debe poseer ciertas propiedades físicas, químicas y
termodinámicas que lo hagan seguro durante su uso.
Los freones son compuestos que se clasifican químicamente como halogenuros o
haluros de alquilo, ya que son hidrocarburos donde los átomos de hidrógeno son sustituidos
por halogenos, como por ejemplo el dicloro-difluorocarbono (R12) o el tetrafluoroetano
(R134a). En la presente lectura, conseguirás información referida a la nomenclatura, métodos
de obtención, reacciones químicas, importancia tecnológica e impacto ambiental de los
importantes compuestos halogenados.
Volvamos a Miguel y su novia: sí, el ambiente estaba frío en el restaurante, pero…
el costo ecológico de ello es alto. Los CFC han probado tener su cara negativa, como aquí
veremos. Y ¿qué decir del consumo sin límite de energía? ¿Habrá otras maneras menos dañinas
de refrescar el ambiente?
Figura 19.1 Organohalogenuros de supervivencia (a) Compuestos sintetizados por el alga roja y
la liebre de mar, (b) Liebre de mar.
Fuente: Bruice Paula, (2001) Organic Chemistry 4
ed
. Pearson PrenticeHall, Cap. 10, pág. 361.

Los compuestos del carbono sustituidos con halógenos están muy difundidos en la naturaleza
y tienen una gran cantidad de aplicaciones, por ejemplo, algunos organismos marinos
incluyendo esponjas, corales y algas, sintetizan organohalogenuros (compuestos orgánicos
que contienen halógenos) que usan para defenderse de sus depredadores.
Las algas rojas sintetizan una toxina que le impide a sus depredadores comerlas, por su
desagradable sabor. Sin embargo, existe un molusco llamado liebre de mar (Aplysia punctata)
que es capaz de comerse al alga roja y biotransformar el compuesto original en uno estructu-
ralmente similar que usa para su propia defensa (figura 19.1).
Hay tres clases principales de compuestos orgánicos halogenados: haluros de alquilo,
haluros de vinilo y haluros de arilo. La principal diferencia que tienen estos compuestos entre sí
está en la hibridación del átomo de carbono al cual se encuentra unido el halógeno.
a) b)
Los freones son una familia de
productos desarrollados desde 1928 co- mo sustitutos estables, no tóxicos y no in-
flamables del amoniaco gaseoso, utiliza-
do hasta ese momento en la refrigeración y que causaba enfermedades cuando se producían fugas del mismo. Ahora bien, los freones son compuestos químicos co-
nocidos como clorofluorocarbonos (CFC).
Compuestos hal ogenados19

72 73
En los haluros de alquilo el átomo de halógeno se encuentra unido a un carbono del
grupo alquilo con hibridación sp
3
. Un haluro de vinilo tiene enlazado el átomo de halógeno
a uno de los átomos de carbono de un alqueno con hibridación sp
2
. Un haluro de arilo tiene
enlazado un átomo de halógeno a un carbono de un anillo aromático con hibridación sp
2
.
Como los haluros de arilo y vinilo tienen enlaces e hibridaciones diferentes a los haluros
de alquilo su química tambien lo es.
En la figura 19.2, se muestran las estructuras de algunos haluros de alquilo, haluros de
vinilo y haluros de arilo representativos, con sus nombres y aplicaciones más frecuentes.
Figura 19.2. Estructuras de algunos compuestos halogenados representativos. Fuente: Wade L.G. (2004) Química
Orgánica 5ed. Pearson Prentice Hall. Cap. 6, Pág 212.
Nomenclatura de los haluros de alquilo
La Unión Internacional de Química Pura y Aplicada (IUPAC) desde el año 1993 permite
nombrar a los haluros de alquilo de dos formas diferentes; como un alcano sustituido y como
un grupo funcional específico.
En el primer caso, los haluros o halogenuros de alquilo se nombran igual que los al-
canos, considerando al halógeno como sustituyente en la cadena principal del alcano, nom-
brando a los átomos de halógenos fluoro, cloro, bromo y yodo , dando como resultado un
haloalcano.
En el caso de que se traten como un grupo funcional, el halogenuro (fluoruro, cloruro,
bromuro o yoduro) y el grupo alquilo se designan como palabras distintas. El grupo alquilo es
nombrado en base a su cadena de origen continua más larga, designando carbono 1 al átomo
de carbono que se encuentra unido al halógeno.
Una característica importante que tienen los halogenuros de alquilo como grupo
funcional, es la polaridad del enlace carbono-halógeno. Por lo cual, la mayoría de sus reacciones
se producen por la ruptura heterolítica de este enlace polarizado.
El mapa de potencial electrostático (MPE) es una representación gráfica de las densi-
dades electrónicas de los átomos que componen un compuesto. En el caso del clorometano
(figura 19.03) se muestra una densidad electrónica más alta (color rojo) alrededor del átomo
de cloro, y una densidad electrónica relativamente baja (color azul) alrededor de los átomos de
carbono e hidrógeno.

74 75
(a) Clorometano (b) MPE del Clorometano
Figura 19.3 (a) Enlace C-Cl polarizado
hacia el cloro en la molécula de
clorometano; (b) Mapa de potencial
electrostático del clorometano, región
azul, baja densidad electrónica; región
roja, alta densidad electrónica.
Las electronegatividades de los halógenos aumentan en el siguiente orden:
I < Br < Cl < F
2.7 3.0 3.2 4.0
Las longitudes de enlace carbono-halógeno aumentan a medida que aumenta el
volumen de los átomos de halógeno (radio atómico) en el siguiente orden:
Enlace C-F < C-Cl < C-Br < C-I
Longitud 1. 38
A

1.78A

1.94A

2.14A

En la medida que aumenta el radio atómico del halógeno, la longitud del enlace
carbono–halógeno aumenta, trayendo como consecuencia la disminución de la polaridad
del enlace.
Figura 19.4. Modelos de esferas de haluros de etilo.
Propiedades físicas de los haluros de alquilo
Cuando se describe el efecto de la estructura de un compuesto químico sobre su punto
de ebullición (temperatura a la cual la presión de vapor del líquido se iguala a la presión
atmosférica) hay que tomar en consideración las diferentes fuerzas de atracción que existen
entre las moléculas.
Hay dos tipos de fuerzas intermoleculares que influyen en los puntos de ebullición de
los halogenuros o los haluros de alquilo. La atracción por fuerzas de London y la atracción
dipolo-dipolo. La fuerza de London es una atracción superficial, que implica que a mayor
superficie de las moléculas mayores serán sus interacciones.
Las moléculas con masas moleculares muy grandes generalmente tienen puntos de
ebullición más altos, ya que son más pesadas, por lo tanto, se mueven más lentamente y tienen
mayor área superficial. Las áreas superficiales de los haluros de alquilo varían con las áreas de
la superficie de los átomos de los halógenos. En la figura 19.4 se pueden apreciar los modelos
de esfera de los haluros de etilo. Los halógenos más pesados son más voluminosos, con áreas
superficiales mucho más grandes, por lo cual tienen mayor punto de ebullición.
Como el bromo, cloro y yodo son más voluminosos que el flúor, tienen mayor área
superficial y los puntos de ebullición de sus haluros de alquilo son más elevados debido a la
mayor intensidad de sus interacciones: cuesta más que pasen al estado gaseoso. En la tabla 1
se muestran los puntos de ebullición de algunos haluros de alquilo.
En cuanto a sus densidades, los fluoruros y cloruros de alquilo con un solo átomo de
halógeno son menos densos que el agua, mientras que los bromuros y los yoduros son más
densos que el agua.
Por otro lado, los haluros de alquilo son insolubles en agua y una mezcla de un haloge-
nuro de alquilo y agua se puede separar fácilmente en dos capas. De acuerdo a su densidad
si se trata de cloruro de metilo estaría en la capa superior y el agua en la capa inferior. La situa-
ción se invierte en el caso de bromuro y yoduro de metilo que estarían en la capa inferior y el
agua en la capa superior. La polihalogenación incrementa la densidad como se muestra en la
tabla 19.1.
Compuesto
Masa molecular
(g/mol)
Pto. Ebullición
(ºC)
Pto. Ebullición
(K)
Densidad
(g/mL)
CH
3
-F 34 -78 195 -
CH
3
-Cl 50.5 -24 249 0.92
CH
3
-Br 95 4 277 1.68
CH
3
-I 142 42 315 2.28
CH
2
Cl
2
85 40 313 1.34
CHCl
3
119 61 334 1.50
CCl
4
154 77 350 1.60
Como puedes apreciar en la tabla 19.1, los
cloruros derivados que tienen en su estructura dos o más átomos de cloro son más densos que el agua y en un embudo de separación se ubicarían en la capa inferior como se muestra en la figura 19.5.
Figura 19.5. Mezcla de cloruros de alquilo y
agua en un embudo de separación.
Tabla 19.1. Propiedades de algunos haluros de alquilo sencillos.
Fase Orgánica

76 77
(a)
(b)
Figura 19.6. a) Producto de hidrohalogenación Markovnikov; b) Producto de hidrohalogenación anti-Markovnikov.
Obtención de haluros de alquilo
Hay una gran variedad de métodos para la obtención de los haluros de alquilo, los
más importantes son la halogenación de alcanos y alquenos vía radicales libres; halogenación
bencílica y alílica con N-bromosuccinimida (NBS); hidrohalogenación de alquenos y halo-
genación de alcoholes.
La halogenación de alcanos y alquenos es un proceso de gran importancia en la química
orgánica industrial, pero su aplicación en la síntesis de compuestos es muy limitada debido a
la gran cantidad de productos que se forman. La halogenación de alcanos es un proceso que
ocurre vía radicales y se realiza con Cl
2
o Br
2
en presencia de un iniciador (luz o peróxido). La
halogenación de alquenos se realiza con Cl
2
, Br
2
o I
2
.
La hidrohalogenación de alquenos es una reacción sencilla y puede ocurrir por dos vías
distintas; una es la adición iónica de HX (X = Cl, Br o I) llamada adición Markovnikov y la segunda
se da en presencia de peróxidos o luz ultravioleta y es llamada anti-Markovnikov.
En la halogenación de un alqueno, la molécula de halógeno se adiciona al doble enlace
carbono-carbono mediante un mecanismo que implica la formación de un ión halogenonio.
Basado en ello, la adición de bromo ha sido utilizada como ensayo para saber si una
muestra presenta sustancias con dobles enlaces.

Para saber más…

La solución de bromo en tetracloruro de carbono tiene un color rojo
intenso. Cuando esta disolución roja se añade a un alqueno, el color
rojo del bromo desaparece (se dice que “se decolora”) y la solución se
vuelve clara e incolora. Por ejemplo, cuando una solución de bromo
(marrón-rojizo) se añade al ciclohexeno, el color del bromo desaparece
rápidamente, debido a que el bromo se adiciona al doble enlace. Cuando
el bromo se añade al ciclohexano (a la derecha), el color persiste.
El método más usado para preparar halogenuros de alquilo es a partir de alcoholes. El
modo más sencillo para convertir un alcohol en halogenuro de alquilo es tratarlo con HCl, HBr
o HI de acuerdo a la siguiente reacción:
ROH + HX RX +H
2
O
En donde el disolvente es el mismo alcohol ya que se usa el HX concentrado.
La reactividad es mayor cuando se usan alcoholes terciarios, los alcoholes primarios y
secundarios reaccionan muy lentamente y necesitan mayores temperaturas de reacción (figura
19.7).
Figura 19.7. Reactividad de alcoholes en la halogenación con HCl o HBr.
La reacción de HX con un alcohol terciario es tan rápida que con frecuencia se efectúa
sólo con hacer burbujear HCl o HBr gaseoso en una disolución fría del alcohol en éter. En general, la reacción se lleva a cabo en minutos.
Reacciones químicas de los haluros de alquilo
Los haluros o halogenuros orgánicos son los compuestos que se encuentran con mayor
frecuencia como material de partida para las síntesis, debido a que pueden convertirse en una gran variedad de otros compuestos y resultan accesibles a través de numerosos caminos.
Gran parte de sus reacciones pueden clasificarse en dos grupos: reacciones de
sustitución y reacciones de eliminación. En las reacciones de sustitución el átomo de
halógeno puede salir con el par de electrones del enlace R-X para formar un ión haluro estable, a través de una ruptura heterolítica, de acuerdo con la siguiente reacción:
Z
-
+ R-X
R-Z + X
-
En una reacción de sustitución nucleofílica, el átomo de haluro (X) se sustituye por un
nucleófilo (Z).

78 79
a) Formación de alcoholes
b) Intercambio de halogenuro
c) Síntesis de éteres de Williamson
d) Síntesis de aminas
e) Síntesis de nitrilos
f) Síntesis de alquinos
Una reacción de eliminación supone la pérdida del ión haluro junto con otro átomo o
ión (con frecuencia el H
+
). El haluro se “elimina” de la molécula después de la abstracción de un
hidrógeno por medio de una base fuerte. Las reacciones de eliminación producen alquenos,
como se muestra a continuación:
B
-
+ RCH-RCX
RC=CR + BH + X
-

Los principales casos de eliminación en estos compuestos:
a) Deshidrohalogenación
b) Deshalogenación
Los halogenuros de alquilo no sólo sufren sustitución y eliminación, también pueden
formar reactivos organometálicos (metales unidos a grupos alquilo), y se pueden reducir.
Formación de reactivos organometálicos:
a) Reactivo de Grignard
b) Organolitios
c) Reducción:
Entre los ejemplos más representativos tenemos:
Los reactivos de Grignard son muy importantes y versátiles en química orgánica debido
a su rápida reacción con electrófilos, como por ejemplo el grupo carbonilo. Son valiosos para
la formación de enlaces de carbono-carbono, carbono-fósforo, carbono-silicio, carbono-boro
y otros enlaces carbono-heteroátomo. Por el descubrimiento de este grupo de reactivos y sus
reacciones, el francés Víctor Grignard (1871-1935) recibió el premio Nobel de Química en 1912.
Los compuestos de organolitio están fuertemente polarizados debido al carácter elec-
tropositivo del litio. Son, por lo tanto, nucleófilos altamente reactivos y de hecho reaccionan
con casi todos los tipos de electrófilos. Resultan semejantes a los reactivos de Grignard, pero
mucho más reactivos, al punto que deben ser manejados bajo atmósfera protectora como ni-
trógeno o, mejor, argón. Un uso común de los compuestos de organolitio es como bases muy
fuertes. También son útiles en la preparación de otros compuestos organometálicos, habitual-
mente por reacción con haluros de metal.
La reducción de halogenuros de alquilo a alcanos es una transformación práctica fre-
cuente en muchas síntesis. Recordemos que, en química, la reducción ocurre cuando un átomo
o un ión gana electrones. En química orgánica el aumento de enlaces de hidrógeno a átomos
de carbono se interpreta como una reducción.

80 81
Importancia tecnológica e impacto ambiental y social
Muchos son los usos y aplicaciones que tienen los halogenuros de alquilo, entre los cua-
les se destaca su uso como disolventes, reactivos en síntesis orgánica, refrigerantes, anestésicos
y plaguicidas.
Su importancia como disolventes radica en su capacidad de ser buenos disolventes de
grasas e hidrocarburos con baja capacidad de inflamación, de allí que fueron reemplazando a
disolventes como la bencina o el hexano (muy inflamables) en la industria del lavado en seco,
donde el tricloroetileno o el percloroetileno son usados por su baja toxicidad.
Otros disolventes como el diclorometano (CH
2
Cl
2
), el cloroformo (CHCl
3
) y el tetracloruro
de carbono (CCl
4
) son muy empleados cuando se hacen extracciones desde medios acuosos,
por su baja solubilidad en agua y su elevada densidad que ayuda a la separación de las fases
(más pesadas).
También pueden emplearse para la extracción de metabolitos secundarios como en
el proceso de descafeinado del café: la cafeína se extrae del grano de café entero empleando
cloruro de metileno como disolvente.
Inhalador de cloroformo diseñado
por Dubois
Figura 19.8. Freón 22. Estructura y presentación comercial.
Los freones son haloalcanos fluorados que se desarrollaron a mediados del siglo
pasado para sustituir al amoniaco como gas refrigerante. El amoniaco es muy tóxico y puede causar la muerte si hay una fuga en el sistema de refrigeración.
Pero los freones y otros CFCs se difunden gradualmente en la aftmósfera, donde los
átomos de cloro catalizan la descomposición del ozono (O
3
) a oxígeno molecular (O
2
). La
disminución del ozono inducida por freones es principalmente la responsable del “agujero” de la capa de ozono, capa que protege a la Tierra del exceso de radiación ultravioleta proveniente del Sol.
Los tratados internacionales, desde 1989, han limitado la producción y el uso de los CFC
destructores de la capa de ozono, por hidrocarburos de bajo punto de ebullición. Es así como el freón 12® ha sido reemplazado por compuestos denominados hidrofluorocarbonos (HCFC) como el freón 22® que se caracterizan por descomponerse a bajas latitudes (figura 19.8).
Los plaguicidas son sustancias cuyo fin es
la eliminación de plagas que producen epidemias
o consumen los productos de los campos de cultivo.
Dentro de la clasificación de plaguicidas se encuen- tran los halogenados, siendo uno de los primeros sintetizados y utilizados el dicloro difenil tricloroeta- no (DDT ).
Para saber más…

El cloroformo fue la primera sustan-
cia usada como anestésico general.
Lo que abrió nuevas posibilidades
para la cirugía de un paciente in-
consciente y relajado. Debido a que
es tóxico y cancerígeno se sustituyó
por anestésicos más seguros. Por
ejemplo el derivado halogenado
CF
3
CHClBr, al que se conoce con el
nombre de “halotano”.
Sin embargo, muchos de estos compuestos
como el DDT tienen efectos colaterales; éste es un in-
secticida de larga duración y sus residuos se acumu-
lan y persisten en el ambiente durante largo tiempo.
Por lo que el uso indiscriminado del DDT trajo como
consecuencia que se acumulara en grandes cantida-
des en tierras de cultivo y en aguas, causando la dis-
minución de varias especies animales.
El gas mostaza, otro compuesto peligroso
Pasó de ser un genio y ayudar a la agricultura mundial a principios del siglo pasado, a
ser el creador de una de las armas más letales que ha conocido la humanidad.
Fritz Haber, Premio Nobel de Química por su in-
geniosa idea para crear amoniaco de forma artificial y de esta manera cambiar para siempre la industria de los fer-
tilizantes y la agricultura mundial, fue uno de los hombres más polémicos que ha existido. Debido a que también fue el precursor de la guerra química al crear y usar el gas mostaza contra los aliados en la Primera Guerra Mundial (figura 19.9).
La mostaza sulfurada, comúnmente conocida cómo
gas mostaza, es una clase de agente citotóxico usado du-
rante la Primera Guerra Mundial (1914-1918), con la capaci-
dad de formar
grandes ampollas en la piel expuesta.
Figura 19.9. Fritz Haber (1868-1934).

82 83
Es un líquido incoloro, viscoso a temperatura ambiente. Sin embargo, cuando se utiliza
en forma impura, como agente para la guerra, por lo general es de color amarillento y tiene un
olor parecido a la planta de mostaza, de ahí el nombre que recibe.
La mostaza sulfurada tiene la fórmula química:
La mostaza sulfurada es insoluble en agua, pero es muy soluble en grasa, lo que
contribuye a su rápida absorción por la piel. Lo que la convierte en un agente particularmente perjudicial para la salud celular, ya que puede llevar a la muerte celular y en el mejor de los casos al cáncer.
El gas mostaza tiene un efecto irritante en sus víctimas. Además, es altamente muta-
génico y cancerígeno. La figura 19.10 muestra la asfixia que sufrieron los soldados expuestos a esta sustancia en aquel conflicto bélico. Por cierto que el químico francés Grignard, a quien mencionamos en páginas anteriores, estudió formas de detectar el gas mostaza, con el fin de ayudar a contrarrestar los ataques con el mismo a las tropas de su país.
El gas mostaza acabó con muchas vidas durante la Primera Guerra Mundial y cambió
para siempre la forma de hacer la guerra. La Organización de Naciones Unidas (ONU) ha prohibido su uso como arma química.
La vida de Haber estuvo marcada por la tragedia. Aunque ganó el Premio Nobel de Quí-
mica, perdió a su primera esposa que se
suicidó cuando él dirigió el uso del gas durante la guerra,
y también a su hijo mayor que no pudo superar lo que su padre había hecho y así mismo se suicidó.
Como puedes ver el uso indebido de un compuesto químico puede traer consecuen-
cias nefastas tanto a la humanidad cómo al planeta, por ello es muy importante usarlos con conciencia para el bien de todos.
El gas propelente de los aerosoles, ¿producto engañoso?
¿Qué necesitan?
¿Cómo lo harán?
Muchas latas de aerosoles muestran dentro de su lista de ingredientes un hidrocarburo
propelente (sin indicar su nombre) o no señalan toda su composición (secreto industrial). Se ha
evidenciado la presencia de hidrocarburos halogenados (CFC) en algunos productos comerciales.
Incluso, hoy día todavía hay empresas que utilizan estos compuestos como disolventes
de grasa para motores y como gas propelente en algunos extintores para vehículos.
Lo que ocasiona un grave problema de salud ambiental y la venta de “productos engañosos”.
El propósito de la actividad es que las estudiantes y los estudiantes puedan identificar
la posible presencia de halogenuros de alquilo en muestras de aerosoles de uso común como
desodorantes, limpia motores, limpia carburadores y extintores automotrices.
Existen varios procedimientos que permiten reconocer halogenuros de alquilo en una
muestra. Es importante que investiguen cuáles son estos procedimientos y cuál de ellos se
adecúa a las condiciones de su institución.
Uno de los procedimientos más eficaces y sencillos que permite reconocer la presencia
de estos compuestos en muestras orgánicas, es tratarlas con una solución alcohólica de nitrato
de plata al 5%.
Las latas de aerosoles deben poseer en su etiqueta la lista de componentes y un
símbolo que indique que su contenido no daña la capa de ozono.
10 tubos de ensayo pequeños, 2 pipetas graduadas (1 mL), 1 propipeta, 1 varilla de
vidrio, 1 espátula metálica, 1 vidrio de reloj, 1 gradilla, 1 gotero, 1 beaker de 25 mL, 1 frasco
lavador. Agua destilada, solución de NaI en acetona al 15%, solución al 2% de AgNO
3
en etanol
absoluto y HNO
3
al 5%. Aerosol comercial de su preferencia. Plancha de calentamiento.
Hay dos procedimientos sencillos con los cuales pueden reconocer si en las muestras de
aerosoles hay presencia de compuestos orgánicos halogenados. Uno de los procedimientos que
pueden seguir es el siguiente: agreguen aproximadamente 0,5 mL del aerosol en un tubo de ensayo, luego adicionen 2 mL de solución de AgNO
3
al 2%, agiten y observen si hay cambios.
Si después de 5 minutos no se observa reacción, calienten suavemente la mezcla en un baño de María. Si se forma precipitado registren el color del mismo y a continuación adicionen 2 gotas de HNO
3
al 5%. Construyan una tabla y
registren sus observaciones.
El segundo procedimiento consiste en: agregar en un tubo de ensayo aproximadamente
0,5mL del aerosol, 1 mL de una disolución de yoduro de sodio en acetona al 15%. Agiten
los tubos y déjenlos a temperatura ambiente por 3 minutos. Observen si se ha formado un
precipitado y si la solución presenta algún cambio de color. Si no hay ningún cambio después
de 3 minutos, calienten la mezcla en un baño María a 50 º C. Después de 6 minutos, dejen
enfriar el tubo hasta temperatura ambiente y noten si se ha formado el precipitado. La prueba
es positiva sólo si el precipitado dura, para comprobarlo deben agitar bien el tubo y dejarlo
reposar por 3 minutos. Construyan una tabla y registren sus observaciones.

84 85
¿Qué observan?
¿Cómo pueden interpretar sus resultados?
Elaboren una tabla que permita recoger los cambios observados.
Discutan y representen las reacciones químicas que pudieran explicar los cambios observados.
¿Cómo se evidencia la presencia de halogenuros de alquilo en las muestras de aerosoles
tratadas? ¿Existe algún método específico para determinar la presencia de clorofluorocarbonos
en latas de aerosoles? Si es así, ¿qué diferencias hay con el ensayo realizado? ¿Alguno de los
componentes presentes en la lata de aerosol puede dar positivo al ensayo realizado? ¿Un
resultado positivo permitiría establecer que estamos en presencia de un “producto engañoso”?
Actividades de autoevaluación
2.- Reúnanse en grupo y observen las 6 estructuras químicas que se presentan a con-
tinuación, busquen semejanzas y diferencias estructurales entre ellas. ¿Cómo las clasificarían? ¿Los compuestos bromados tendrían la misma reactividad química frente a una base? ¿Cómo las nombrarían? Socialicen sus resultados con los otros grupos de su salón de clase.
1.- Cuando se mezcla agua con hexano, los dos líquidos se separan en dos fases. Diga
qué compuesto se encuentra en la fase superior y cuál en la inferior. Cuando se mezcla agua con cloroformo, se obtiene un sistema similar de dos fases. Expresa qué compuestos se encuentra en cada una de las fases. Explica la diferencia entre los dos experimentos.
3.- Representa la estructura de cada uno de los compuestos que se señalan a continuación:
a) 2-Cloro-3,3-dimetilhexano.
b) 3,3-Dibromo-2-metilhexano.
c) 3-Cloro-3-etilpentano.
d) 4-sec-Butil-2-clorononano.
e) 1,1-Dibromo-4-isopropilciclohexano.
f) 1,1-Dibromo-4-ter -butilciclohexano.
4.- Clasifica cada una de las siguientes reacciones como sustitución, eliminación o ninguna.
5.- Define y propón un ejemplo para cada uno de los siguientes términos:
a) Halogenuro de vinilo.
b) Reacción de sustitución.
c) Reacción de eliminación.
d) Reactivo de Grignard.
e) Grupo saliente.
f) Nucleófilo.
a)
a)
d)
b)
b)
e)
c)
c)
f)

Los autolavados, cuestión de conciencia
En grupo y con las orientaciones de su docente elaboren un video educativo, con entre-
vistas, preguntas en la calle, hablando con expertos, con trabajadores de los autolavados, fotos
e imágenes entre otras cosas que deseen incorporar. Edítenlo; para esto existen muchos progra-
mas gratuitos que se puedan descargar de la red de internet y son fáciles de manejar, o pidan
la ayuda de algún medio de comunicación comunitario alternativo que pueda estar cerca de su
escuela o comunidad. Posterior a la edición y revisión, proyéctenlo a otros liceos y comunidades
cercanas, con el fin de informar al colectivo sobre el uso consciente del agua y los productos de
limpieza que se suelen usar en estos establecimientos, y la responsabilidad que debemos tener.

86 87
A nuestro alrededor encontramos muchos compuestos químicos que son
aprovechados por los organismos vivos para cubrir sus requerimientos de nutrientes.
Buena parte de estos compuestos son utilizados por los seres humanos para la fabricación
de materia prima que luego convi
erten en la industria química en productos de interés
social, ambiental y tecnológico.
Los aromas permiten identificar personas, comidas, lugares, evocar recuerdos,
ambientar espacios, es por ello que la industria química ha desarrollado diversos
métodos y técnicas para extraer la mayor cantidad de aceites esenciales, que son la
base de los aromas. Antiguamente maceraban los pétalos de las flores y así obtenían
una disolución concentrada de un aroma en específico, en la actualidad se obtienen
por varios métodos, el más utilizado es la destilación por arrastre de vapor.
Los aldehídos y las cetonas forman parte de los aromas naturales de flores y
frutas, empleándose en la perfumería para la fabricación de aromas, como es el caso
del benzaldehído (esencia de almendras amargas), el anisaldehído (esencia de anís),
la vainillina, el piperonal (esencia de sasafrás), el cinamaldehído (esencia de canela). A
los perfumes se les agrega la muscona y la civetona que son utilizadas como fijadores
porque evitan la evaporación de los aromas además de potenciarlos, por lo cual se
utilizan en la industria de la perfumería.
Aceites esenciales
La naturaleza está provista de muchos aceites esenciales, los cuales percibimos , por
ejemplo, a través del aroma de los frutos, flores, cortezas de árboles, hojas, semillas y tallos.
Los aceites esenciales proceden de fuentes como éstas. Como es el caso del aceite de espliego
(lavanda) que procede de una flor, el aceite de pachulí, de una hoja, y el aceite de naranja, de un
fruto. Los aceites se forman en las partes verdes (con clorofila) del vegetal y al crecer la planta
son transportados a otros tejidos, en concreto a los brotes en flor (figura 20.1).
Figura 20.1. Partes vegetales de las cuales se extraen algunos aceites esenciales de aldehídos y cetonas.
Para saber más…

La industria alimentaria utiliza delicados y maravillosos
aromas provenientes de los aldehídos y las cetonas, como
es el caso del cinamaldehido, que proporciona un exquisito
olor a canela, su nombre Iupac es trans-3-fenilpropenal.
β
Aldehídos y cetonas: descubriendo aromas20

88 89
Figura 20.2. Estructuras generales de un aldehído y una cetona. El grupo carbonilo.
Generalidades de aldehídos y cetonas
El grupo carbonilo (C=O), un átomo de carbono unido a un átomo de oxígeno por
un doble enlace es el grupo funcional que se encuentra en compuestos llamados aldehídos y
cetonas (figura 20.2).
En los aldehídos el grupo carbonilo se une a un átomo de hidrógeno y a un radical
alquilo, con excepción del formaldehído o metanal. La fórmula general de un aldehído
es R-CHO.
En las cetonas, el carbonilo esta unido a dos radicales que pueden ser iguales, diferentes,
alquílicos. La fórmula abreviada de una cetona es R-COR´.
Según el tipo de radical hidrocarbonado unido al grupo funcional, los aldehídos
pueden ser: alifáticos (R-CHO), y aromáticos (Ar-CHO); mientras que las cetonas se clasifican
en: alifáticas (R-CO-R’), aromáticas, (Ar-CO-Ar), y mixtas (R-CO-Ar), según que los dos radicales
unidos al grupo carbonilo sean alifáticos, aromáticos o uno de cada clase, respectivamente.
Los aldehídos y cetonas son similares en cuanto
a sus estructuras, y tienen propiedades semejantes, sin
embargo tienen algunas diferencias en cuanto a su re-
actividad, especialmente con los agentes oxidantes y con
los nucleófilos, en la mayoría de los casos los aldehídos
resultan ser más reactivos que las cetonas.
La propanona o acetona se encuentra en forma
natural en hierbas, árboles y en las emisiones de gases
volcánicos o de incendios forestales, y como producto de
degradación de las grasas corporales. Los procesos indus-
triales aportan una mayor cantidad de acetona al ambien-
te que los procesos naturales. La demanda de acetona es
un indicador del crecimiento económico de cada región
ya que depende directamente de la marcha de las indus-
trias del automóvil, construcción y microelectrónica.
Para saber más…

El metanal (formaldehído) se está utilizando tam-
bién en los famosos alisados permanentes, pero
su uso en estos productos se ha prohibido en al-
gunos países debido al alto riesgo para la salud
de quien trabaja con ellos.Nomenclatura IUPAC
Aldehídos
La nomenclatura sistemática de los aldehídos se obtiene sustituyendo la terminación
-o- del alcano correspondiente, por -al-. El carbono carbonilo del aldehído se encuentra en el
extremo de la cadena, por lo que se le asigna a éste el número 1. Si el grupo aldehído (formilo)
está enlazado a cadenas cerradas (anillos) se utiliza el sufijo –carbaldehído–. Ejemplos:
Cetonas
La nomenclatura sistemática de las cetonas se obtiene sustituyendo la terminación
-o- del alcano correspondiente, por -ona- la palabra alcano se convierte en –alcanona-. En las
cetonas de cadena abierta, se enumera la cadena más larga en la que está incluido el grupo
carbonilo, comenzando por el extremo que esté más próximo al grupo carbonilo, y se indica la
posición de este grupo mediante un número. En las cetonas cíclicas, se le asigna el número uno
al carbono carbonilo. Ejemplos:

90 91
Tabla 20.1. Propiedades físicas de algunos aldehídos representativos.
Fuente: Wade L. (2004). Química Orgánica. Ed. Prentice-Hall, Madrid, España, Pág. 778.
Tabla 20.2. Propiedades físicas de algunas cetonas representativas.
Fuente: Wade L. (2004). Química Orgánica. Ed. Prentice-Hall, Madrid, España, Pág. 778.
Figura 20.2. Formación de puentes de
hidrógeno de aldehídos y cetonas con
moléculas de agua o alcoholes.
Propiedades físicas
El grupo carbonilo se polariza hacia el oxígeno, dándole un carácter parcial positivo al
carbono y parcial negativo al oxígeno. La polarización del grupo carbonilo genera alteraciones
de tipo dipolo-dipolo entre las moléculas de los aldehídos y cetonas, lo que hace que los puntos
de ebullición sean más altos que los de los hidrocarburos y éteres de masas moleculares similares.
En las tablas 20.1 y 20.2 se muestran el punto de ebullición, punto de fusión, densidad
y solubilidad de algunos aldehídos y cetonas más representativos.
Los aldehídos y cetonas no presentan puentes de
hidrógeno entre sí, tienen pares de electrones no compar-
tidos, por lo que pueden actuar de aceptores de enlaces
de hidrógeno con otros compuestos que posean enlaces
O—H o N—H. Como observas en la figura 20.2, el hidró-
geno del grupo —OH del agua o de un grupo alcohol,
puede formar puentes de hidrógeno con los electrones no
compartidos del átomo de oxígeno del grupo carbonilo.
Debido a los puentes de hidrógeno, los aldehídos y ceto-
nas, son buenos disolventes de las sustancias hidrofílicas
polares como los alcoholes.
Obtención de aldehídos y cetonas
En el laboratorio
Existen diversos caminos para lograr sintetizar aldehídos y cetonas, los cuales resultan
más o menos útiles según el compuesto específico que se desee producir y la cantidad del
mismo que se requiera. Entre los métodos de laboratorio, hay algunos que implican oxidación
o reducción. En estos procesos se convierte un alcohol, un hidrocarburo o un cloruro de ácido
en un aldehído o cetona con el mismo número de átomos de carbono. Otros métodos pueden
generar la creación de nuevos enlaces carbono-carbono y dan aldehídos y cetonas con un
número de carbonos mayor que el del reactivo del que se originan. Señalamos a continuación
algunos casos.
1.- Obtención de aldehídos y cetonas por oxidación de alcoholes
1.1.- Obtención de aldehídos por oxidación de alcoholes primarios
La oxidación de un alcohol a aldehído requiere una selección cuidadosa del agente
oxidante para controlar el proceso, debido a que los aldehídos se oxidan y se reducen con
facilidad. Un buen agente oxidante es el complejo formado por CrO3 con piridina y ácido
clorhídrico (HCl), llamado clorocromato de piridinio (PCC), el cual proporciona buenos ren-
dimientos sin sobreoxidación, es decir, sin que el aldehído se siga oxidando y se transforme en
otro compuesto. Normalmente, para esta reacción se usa CH2Cl2 como solvente.
Un ejemplo concreto, utilizando un alcohol cíclico como reactivo:<
Ciclohexilmetanol Ciclohexanocarbaldehído (90%)
AA

92 93
1.2.- Obtención de cetonas por oxidación de alcoholes secundarios
Los alcoholes secundarios se pueden oxidar a cetonas utilizando dicromato de sodio
(Na
2
Cr
2
O
7
) o ácido crómico (H
2
CrO
4
), más ácido sulfúrico (H
2
SO
4
); también usando permanga-
nato de potasio (KMnO
4
). La cetona es estable, y resulta muy difícil la oxidación posterior.
Así sucede en la síntesis del conocido alcanfor:
2.- Obtención de aldehídos y cetonas por reducción de cloruros de ácido
2.1.- Obtención de aldehídos

La reducción directa de ácidos carboxílicos a aldehídos no es fácil de realizar, porque los
ácidos se reducen con gran dificultad. Por ello, el procedimiento utilizado es convertir primero
el ácido en su cloruro (cloruro de ácido) que se reduce fácilmente a aldehído.
2.2.- Obtención de cetonas

A menudo, en química no basta con que un reactivo funcione, por ejemplo, si los reac-
tivos de Grignard (¿los recuerdas?) y los organolíticos se adicionan a cloruros de ácido originan
cetonas, pero sucede que las mismas reaccionan nuevamente para formar alcoholes terciarios.
Es por ello que en los laboratorios se emplean reactivos organometálicos más débiles, que
reaccionan más rápidamente con los cloruros de ácido que con las cetonas, obteniéndose así
estas últimas como producto final.
3.- Obtención de aldehídos y cetonas por ozonólisis de alquenos
La ozonólisis (ruptura de enlaces gracias al ozono), seguida de una reducción suave,
rompe los enlaces dobles de los alquenos, originando aldehídos y cetonas.
En la industria
En los procesos industriales a menudo se utilizan métodos especiales, o bien modifi-
caciones de los métodos de laboratorio utilizando reactivos más baratos para reducir costos.
Desde el punto de vista industrial, el aldehído más importante es el metanal (formaldehído) y
la cetona más relevante es la acetona. Anualmente se producen en el mundo millones de tone-
ladas de estas sustancias.

El metanal o formaldehído se utiliza en la elaboración de algunos medicamentos y de
melanina y baquelita; también como conservante en champúes y cosméticos. Más adelante
nos volveremos a referir a él. En la industria, entre otros métodos, se obtiene a partir del meta-
nol mediante una oxidación catalizada por plata. ¿Puedes decir qué tipo de procedimiento es
éste, de acuerdo a lo que vimos anteriormente?
La acetona se emplea en la fabricación de plásticos, fibras y medicamentos, y es muy útil
como disolvente. Puede obtenerse gracias a varios métodos, es bastante usado el que parte del
isopropilbenceno (cumeno), y produce fenol además de acetona.

Alqueno Aldehído Cetona
A
B A
C

94 95
2. La reacción de Wittig

Esta reacción transforma el grupo carbonilo de los aldehídos y cetonas en un doble enlace
Se puede sintetizar una gran variedad de alque-
nos a partir de esta reacción. Para planificar una síntesis
de Wittig y saber qué reactivos se necesitan, se divide
mentalmente la molécula que se quiere obtener por el
doble enlace y se decide de cuál componente provendrá
el grupo carbonilo y de cuál el iluro.
La reacción de Wittig es una reacción química de
un aldehído o una cetona con un iluro de fósforo para
dar un alqueno. Fue descubierta en 1954 por Georg
Wittig. Por este motivo le fue concedido el Premio Nobel
de Química en 1979. Se usa ampliamente en síntesis
orgánica en la preparación de alquenos.
3. Hidratación de aldehídos y cetonas
Los aldehídos y cetonas en solución acuosa están en equilibrio con su hidrato, (diol
geminal). En la mayoría de las cetonas el equilibrio está desplazado hacia la forma ceto, un diol
sin hidratar.
El tricloroacetaldehído, conocido comúnmente como cloral, tiene un grupo triclorome-
tilo atractor de electrones que favorece la formación del hidrato.
El cloral forma un hidrato estable, que tiene la pro-
piedad de inducir el sueño.
El organismo humano reduce rápidamente el cloral
a tricloroetanol, compuesto responsable de la inducción
del sueño.
4. Formación de cianohidrinas
El ión cianuro es una base fuerte y un nucleófilo fuerte que ataca a los aldehídos y
cetonas originando las cianohidrinas que son productos de adición.
La formación de cianohidrinas es rever-
sible, y la constante de equilibrio señalará si se
favorece o no este proceso. Algunos insectos y
plantas utilizan las cianohidrinas como defen-
sas químicas contra los depredadores, como es
el caso del milpiés que produce mandelonitri-
los, una cianohidrina, que en el momento de
un ataque convierte en cianuro de hidrógeno,
el cual descarga, así puede expulsar hasta 600
microgramos de cianuro, 18 veces la dosis letal
para matar a una paloma.
Reacciones químicas de aldehídos y cetonas
Los aldehídos y cetonas experimentan una gran variedad de reacciones químicas que
originan una gama de derivados útiles.
1. Adición nucleofílica
Consiste en la adición de un nucleófilo y de un protón al doble enlace C=O. La reactivi-
dad del grupo carbonilo aumenta con la electronegatividad del átomo de oxígeno y la consi-
guiente polarización del doble enlace carbono-oxígeno. Cuando un nucleófilo ataca al grupo
carbonilo el átomo de carbono pasa de tener hibridación sp
2
a sp
3.
Los electrones del enlace
pi son desplazados hacia el átomo de oxígeno, formándose un anión alcóxido que se protona
para dar lugar al producto de adición nucleofílica.
En la mayoría de las adiciones nucleofílicas los aldehídos son más reactivos que las cetonas.

96 97
5. Condensaciones con hidroxilamina e hidrazinas

Los derivados del amoníaco tales como la hidroxilamina y las hidracinas sustituidas
condensan con aldehídos y cetonas. La hidroxilamina reacciona con aldehídos y cetonas para
formar oximas y los derivados de la hidracina reaccionan para formar hidrazonas.
En los cohetes espaciales se utiliza co-
mo combustible la hidrazina anhidra , es decir, sin agua.
En la mayoría de los casos, se utiliza oxí-
geno cómo agente oxidante. El combustible y el oxidante se pulverizan en la cámara de combus-
tión, donde reaccionan para generar calor y ga-
ses a alta presión, lo que obliga a los productos de reacción a salir a través de las toberas impul-
sando el cohete hacia arriba.
6. Formación de acetales
En la formación de un ace-
tal se adicionan dos moléculas de alcohol al grupo carbonilo y se elimina una molécula de agua.
Para saber más…

Las personas con diabetes suelen tener aliento afru-
tado, olor característico de la propanona. Como los
diabéticos no pueden consumir carbohidratos, el
organismo adquiere un estado que se conoce como
acetosis, en el cual se produce la propanona –aceto-
na– y otros tipos de cetonas.
Figura 10. Espejo de plata en
un balón de destilación.
7. Oxidación de aldehídos
Los aldehídos se oxidan fácilmente a ácidos carboxílicos utilizando oxidantes comunes
como permanganato de potasio, ácido crómico, trióxido de cromo y peroxiácidos.
El ión plata Ag
+
oxida a los aldehídos selectivamente
(prueba de Tollens). La prueba de Tollens consiste en añadir
una solución amoniacal de plata a una muestra desconocida,
si ésta posee un grupo aldehído se produce una oxidación
y la reducción del ión plata a plata metálica, formándose un
precipitado de plata en el interior del tubo de ensayo o matraz.
La ecuación que demuestra la reacción es la siguiente:
Los aldehídos y cetonas reac-
cionan con alcoholes para formar acetales.
Para saber más…

Algunas especies de lémur de la isla de
Madagascar utilizan a un milpiés (miriá-
podo) para librarse de parásitos en su
pelo. Muerden al milpiés y el animalito
libera mandelonitrilo, una toxina, que el
lémur frota por su cuerpo. La sustancia
ejerce también un efecto narcótico so-
bre el primate.

98 99
Aldehídos y cetonas en nuestras vidas
Los aldehídos y cetonas son utilizados en la industria química como disolventes,
material de partida y reactivos de otros productos. El metanal (formaldehído), comúnmente
conocido como formol, es utilizado para preservar muestras biológicas. El etanal o acetaldehído
es empleado como sustancia de partida en la manufacturación de ácido acético, polímeros y
medicamentos. La propanona o acetona es una de las cetonas más importantes para la industria
química, se emplea como disolvente, disuelve una amplia variedad de sustancias orgánicas, es
fácil de destilar y su toxicidad es baja. Muchas cetonas se utilizan cómo saborizantes, aditivos
de alimentos, precursores de medicamentos y otros productos, a continuación se presentan
algunos aldehídos y cetonas que se emplean en el hogar.
Keratina: Lo alisa pero…

Muchas personas han decidido cambiar su apariencia personal alisando su cabello, em-
pleando para ello diversas técnicas que proporcionan los estilistas profesionales. El procedi-
miento más usado es el empleo de planchas para cabello, sin embargo, quienes desean tener
un alisado permanente han optado por emplear productos químicos que proporcionan los
cambios deseados. Uno de estos productos más empleado en los salones de belleza es la kera-
tina, ésta es una proteína natural del cabello.
En 2009 el Ministerio del Poder Popular para la Salud advirtió que el tratamiento
conocido como “keratina” contiene un aldehído (metanal) conocido comúnmente como:
formalina, formaldehído, aldehído fórmico, óxido de metileno, metanaldehído, oxometano o
formol, sustancia irritante que puede causar serias alergias, quemaduras en el cuero cabelludo
y, por su gran volatilidad cuando se aplica el calor de la plancha para activarlo, cáncer en las
vías respiratorias, nariz y faringe, tras su exposición prolongada, lo que afecta, sobre todo, a los
estilistas que lo aplican a diario. Sin embargo, la comercialización de este tipo de productos no
está prohibida y sigue siendo uno de los servicios más pedidos en las peluquerías.
Otras consecuencias que puede causar el uso de compuestos químicos con formaldehí-
do –metanal– son: pérdida de cabello, quemaduras del cuero cabelludo, dermatitis de contac-
to por irritante primario y alérgicas, problemas respiratorios y oculares.
El metanal es producido a gran escala en el mundo y es utilizado por distintas industrias
y como conservador y desinfectante, pero debe usarse con cuidado pues ha sido clasificado
como cancerígeno por los expertos de la Organización Mundial de la Salud (OMS). Es uno de
los compuestos orgánicos básicos más importantes de la industria química. Antiguamente se
utilizaba una disolución de formaldehído en agua como desinfectante, y en la conservación de
muestras biológicas y cadáveres frescos.

100 101
¡Destilando aromas!
¿Cómo pueden interpretar sus resultados?
¿Cómo lo harán?
¿Qué observan?
Los aldehídos y cetonas tienen muchos usos a nivel industrial. Se emplean como aro-
matizantes en jabones, cremas, esencias, perfumes y otros. De la corteza de algunas plantas, o
de frutos, tallos y semillas se pueden extraer diversos tipos de aromas, obteniendo sus aceites
esenciales por medio de una destilación simple. Utilizando limones, mandarinas o naranjas
puedes obtener aceites esenciales donde percibirás deliciosos aromas.
¿Cuáles aldehídos o cetonas estarán presentes en los aceites esenciales que destilarás?
¿Qué propiedades físicas tendrán?
Matraz de destilación.
Refrigerante.
Tapones agujereados.
Termómetro.
Vaso de precipitados.
Las estudiantes y los estudiantes deben formar colectivos de trabajo, de tal manera
que cada uno de éstos trabajen con una fruta diferente (limón, mandarina o naranja).













Para poder realizar la actividad deben contar con los siguientes reactivos, materiales
y equipos:
Figura 20.3. Montaje de un equipo de destilación simple.
¿A qué temperatura comienzas a obtener las primeras gotas de tu aceite esencial?
¿Qué aromas percibes?
¿Qué cantidad de aceite esencial obtuviste?
Compara el aroma, consistencia, color y volumen obtenido de aceite de los diferentes
equipos.
¿Cuáles aldehídos o cetonas están presentes en los aceites esenciales que obtuviste?
¿Cuál de los aceites esenciales de los equipos destiló primero?, ¿las temperaturas de
obtención de aceites son similares? Justifiquen sus respuestas en función de las propiedades
físicas de los compuestos obtenidos.
¿Qué otros aceites esenciales puedes obtener, utilizando frutas, hojas, pétalos y cortezas?
Proyecto de aprendizaje: Aromatizando productos químicos
En colectivos de trabajo, y con orientaciones de tu docente, seleccionen un producto
químico a elaborar, como por ejemplo: jabón, champú, crema para manos, desinfectante, entre
otros. Indaguen sobre su elaboración y añádanle a su producto esencias destiladas por ustedes.
Consulten sobre la importancia social e impacto ambiental que tienen los productos químicos
utilizados. Recuerden revisar las lecturas sobre cómo elaborar proyectos en los libros de esta
serie.
¿Qué necesitan?
Mechero.
Piel de naranja, mandarina o limón.
Agua.
Cocina eléctrica, mechero o plancha de calentamiento.
Con ayuda de tus compañeros, monta un equi-
po de destilación como el que aparece en la figura.
En el matraz se introduce agua y la corteza
del limón, naranja o mandarina. El agua no debe re-
basar la mitad del matraz. Procede a calentar hasta
que recojas un líquido que desprenderá un fuerte
olor... Tu aceite esencial.
Actividades de autoevaluación
1 - ¿Por qué los aldehídos son más reactivos que las cetonas?
2 - Indaga a qué se debe el aroma que tienen las flores y frutas.
3 - Asigna nombre Iupac a los siguientes compuestos:
4 - Completa la siguiente ecuación:
CH
3
- CH
2
-CHO + KMnO
4
5 - Formula los siguientes compuestos:
a) 2,4- hexanodiona
b) 2-metilpropanal
c) 3-hexanona
d) 3-Etil-2,3dimetilhexanal

102 103
La química de la vida
Sonia está nerviosa, camina de un lado para el otro sin salir de su cuarto, se sien-
ta en la cama y mira con terror la primera gaveta de su tocador. Allí la tiene guardada
desde hace tiempo. La pobre no sabe qué hacer.
Un poco más tranquila decide abrir la gaveta, sacar la caja y hacerse la prueba.
Sale del baño y espera, se queda observando la prueba, la ansiedad se apodera de ella
y poco a poco comienza a revelarse el resultado.
Sonia no puede creer lo que ven sus ojos, está embarazada. Sus sospechas ahora
son una realidad. La prueba dio positiva. Estoy embarazada. ¿Cómo lo tomará Luis? No
espera más y lo llama. Buenos días por favor con Luis, dígale que es de parte de su esposa.
Señor Luis, tiene llamada de su esposa. Después de tantos años, exámenes,
intentos infructuosos y métodos ingeniosos. ¡Por fin estamos embarazados!
Probablemente, el método de ensayo más conocido mundialmente es la
prueba de embarazo. A partir de los 10 días después de producirse un embarazo,
las mujeres embarazadas generan una hormona llamada gonadotropina coriónica
humana (HCG por sus siglas en inglés). Esta hormona está presente en la sangre y en
la orina.
Las hormonas son sustancias secretadas por células especializadas y tienen
cómo principal característica alterar la función de otras células o generar cambios en
la célula que la sintetizó. Las hormonas pertenecen al tipo de sustancias denominadas
biomoléculas.
Las biomoléculas se pueden clasificar en cuatro grandes familias: carbohidratos,
lípidos, proteínas y ácidos nucleicos; ellas presentan en su estructura uno o más
grupos funcionales, los cuales vamos a tratar en la presente lectura.
Grupos funcionales
Las biomoléculas son compuestos orgánicos encontrados en los sistemas biológicos.
En su mayoría son cadenas carbonadas, pueden ser normales, ramificadas o cíclicas. Los
carbonos pueden ser sustituidos por otros átomos o grupos de átomos diferentes al carbono
e hidrógeno, que determinan sus propiedades químicas. A estos grupos se les denomina
grupos funcionales.
Los grupos funcionales son la parte de la molécula que le permite reaccionar química-
mente, y clasifican a los compuestos orgánicos en cuatro grandes grupos. Compuestos ácidos,
básicos, neutros e inertes.
Los ácidos carboxílicos, ácidos sulfónicos y los fenoles son los compuestos que pertenecen
al primer grupo; las aminas son los compuestos orgánicos con características básicas; los
aldehídos, las cetonas y los alcoholes son neutros, y los hidrocarburos son compuestos inertes.
Los grupos funcionales más frecuentes en las biomoléculas son los alcoholes, las ami-
nas, los ácidos carboxílicos, los aldehídos, las cetonas, los ésteres y las amidas. A continuación
se describirán las características de cada uno de estos grupos.
Figura 21.1. Principales funciones orgánicas presentes en las biomoléculas.
En la figura 21.1 se pueden apreciar las principales funciones orgánicas presentes en las
biomoléculas. Los alcoholes presentes en los carbohidratos, amidas en las proteínas, ésteres en
los lípidos, aminas en los aminoácidos y los ácidos carboxílicos en los ácidos grasos.
Alcoholes y fenoles
Los alcoholes son compuestos orgánicos que contienen en su estructura la presencia
del grupo hidroxilo (-OH), se pueden encontrar frecuentemente en la naturaleza, son útiles en
la industria y en el hogar. La palabra alcohol es uno de los términos más antiguos de la química,
deriva del término árabe al-kuhl (polvo finamente dividido).


La química de la vida21

104 105
En cuanto a su estructura los alcoholes se parecen al agua, se diferencian porque uno
de los átomos de hidrógeno del agua es sustituido por un grupo alquilo. En la figura 21.2 se
comparan las estructuras del agua y el metanol. Destacándose el ángulo dihedro (R-O-H) en
ambas estustructuras y la longitud de enlace O-H.
Figura 21.2. Comparación de las estructuras del agua y el alcohol metílico.
Una forma de organizar a los alcoholes es clasificarlos en familias dependiendo del
número de átomos de carbono que se encuentren unidos al carbono que está enlazado al
grupo –OH. Así tenemos alcoholes primarios, alcoholes secundarios y alcoholes terciarios.
Los compuestos que tienen un grupo hidroxilo enlazado directamente a un anillo
aromático se denominan fenoles. Los alcoholes son compuestos neutros, mientras que los
fenoles son compuestos con carácter ácido. En la tabla 21.1 se muestran algunos ejemplos de
alcoholes y fenoles.
Resaltándose el grupo hidroxilo en rojo (-OH) y el carbono enlazado al grupo hidroxilo
en azul, para una mejor diferenciación.
Tipo de
alcohol
Estructura Ejemplos
PrimarioRCH
2
-OH
Secundario R
2
CH-OH
Terciario R
3
C-OH
Fenol Ar-OH
Tabla 21.1. Ejemplos de alcoholes primarios, secundarios, terciarios y fenoles.
Nomenclatura de alcoholes y fenoles
Los alcoholes se pueden nombrar de diferentes maneras, de acuerdo a las reglas de la
IUPAC, por su nombre común o por la nomenclatura derivada.
El sistema IUPAC proporciona una determinada nomenclatura para los alcoholes, basada
en reglas similares a las de los alquenos y halogenuros de alquilo. En general, los nombres utilizan el sufijo –ol, junto con el número que indica la localización del grupo hidroxilo.
Para nombrar a los alcoholes se escoge como cadena principal la más larga que contiene
al átomo de carbono unido al grupo hidroxilo. Luego se numera la cadena comenzando por el extremo más próximo al grupo hidroxilo. Por último se nombran todos los sustituyentes como lo hiciste en la lectura de nomenclatura y se utiliza la terminación –ol.
Los alcoholes cíclicos se nombran utilizando el prefijo ciclo- . Al carbono sobre el que
esté el grupo hidroxilo se le asigna el número 1 (C1).
Así tenemos por ejemplo:

106 107
Como la estructura de un fenol incluye un anillo bencénico, con frecuencia se utilizan los
términos orto (1,2-disustituido), meta (1,3-disustituido), para (1,4-disustituido) en los nombres
comunes. Así tenemos por ejemplo:
Para saber más…

El fenol es un compuesto que ha tenido a
través del tiempo muchas aplicaciones. Ha
sido usado en la elaboración de desinfectante,
en la preparación de medicinas e incluso co-
mo base para pinturas.
Propiedades de alcoholes y fenoles
Los alcoholes son sustancias polares, los que poseen de 1 a 10 átomos de carbono son
líquidos a temperatura ambiente, tienen altos puntos de ebullición, son sustancias asociadas
por su capacidad de formar enlaces de hidrógeno con ellos mismos o con el agua. Los de bajo
peso molecular son miscibles y solubles en agua.
Los alcoholes y el agua tienen propiedades similares porque contienen grupos
hidroxilos que pueden formar enlaces de hidrógeno (puente de hidrógeno). Se dice que
el grupo hidroxilo es hidrofílico, porque tiene afinidad por el agua, mientras que el grupo
alquilo es hidrofóbico porque no tiene afinidad por el agua y se comporta como un alcano, en
la figura 21.3 se muestra el puente de hidrógeno presente entre un alcohol y el agua.
Figura 21.3. a) Enlaces de hidrógeno entre el agua y el etanol, b) Regiones hidrofílicas e hidrofóbicas del butanol.
La solubilidad en agua disminuye a medida que la cadena del grupo alquilo aumenta,
compuestos entre 1 y 5 átomos de carbono son miscibles con el agua. El fenol, a pesar de tener
6 átomos de carbono, por su forma plana y capacidad de formar puentes de hidrógeno es
miscible en agua. Como puede verse en la figura 21.3, a medida que aumenta las interacciones
entre el alcohol y el agua su solubilidad en ésta aumenta.
A medida que la región hidrofóbica del alcohol aumenta, al aumentar la cadena
carbonada, la solubilidad en agua disminuye.
Gracias a que los alcoholes tienen una parte de su molécula polar y la otra no polar
pueden reaccionar en diferentes medios y pueden ser obtenidos de muchas formas.
Obtención de alcoholes
Los alcoholes se pueden obtener por tres vías diferentes, a partir de alquenos por
adición de reactivos electrofílicos al doble enlace (R
2
C=CR
2
); por sustitución nucleofílica al
carbono saturado; por adición nucleofílica al carbono carbonílico (R
2
C=O). También se pueden
obtener como resultado de la hidrólisis de ésteres carboxílicos, que veremos más adelante.
A partir de alquenos:
a) Hidratación de alquenos.
b) Hidroxilación.
A partir de halogenuros de alquilo
A partir de compuestos carbonílicos
a) Adición de un reactivo de Grignard a un aldehído o cetona.
b) Reducción de un aldehído o cetona.
c) Reducción de un ácido o éster.
a)
b)

108 109
Te invito a revisar cada una de estas reacciones con las cuales se pueden obtener
los alcoholes.
Los carbohidratos son las biomoléculas que les permiten a los seres vivos adquirir la
energía necesaria para realizar los procesos metabólicos y, aunque son en su mayoría aldosas
(aldehídos) o cetosas (cetonas), son compuestos polihidroxilados. Es decir, también tienen en
su estructura la función alcohólica.
Figura 21.5. Automóvil usando metanol
como combustible.
Figura 21.4. Estructuras químicas de la glucosa y la fructosa. Fuentes de carbohidratos.
En la figura 21.4 se muestran las estructuras de la glucosa y la fructosa, señalando las
funciones aldehído y cetona en azul, y los grupos hidroxilos en rojo.
Los alcoholes y fenoles son compuestos muy versá-
tiles e importantes en la industria química. Su importancia
radica principalmente en su poder de transformación, pues
a partir de ellos se obtienen un gran número de compues-
tos derivados como alquenos, halogenuros de alquilo, éte-
res, aldehídos, ésteres, cetonas, etc.

Los alcoholes son compuestos sumamente útiles ya
que tienen muchas aplicaciones. Por ejemplo el metanol,
que es usado como solvente orgánico y como combustible
alternativo para autos (figura 21.5). El etanol se utiliza como
disolvente en la preparación de muchos productos farma-
céuticos. También sirve como medicamento, desinfectante,
y además es utilizado en perfumería y como combustible.
Un gran volumen de este producto se consume en forma de
bebidas alcohólicas.
Usos de alcoholes y fenoles
Figura 21.6. El 2-propanol limpia electrónicos.
El alcohol isopropílico (2-propanol) es un antiséptico más
eficaz que el alcohol etílico (etanol). Se usa en la industria para la
elaboración de acetona; en la limpieza de aparatos electrónicos,
como lectores ópticos de DVD o tarjetas de computadoras (figura
21.6).
El glicerol (glicerina o 1,2,3-propanotriol), se emplea
en la fabricación de jarabes; en la industria de los alimentos y en
la farmacéutica; además se usa como lubricante, plastificante,
anticongelante y en la fabricación de explosivos, es decir, para
producir nitroglicerina.
Figura 21.7. Anticongelante
automotor.
El fenol (C
6
H
5
OH) es un alcohol aromático de gran importancia química y tiene aplicación
en la elaboración de pinturas, como desinfectante, germicida y anestésico local. El etilenglicol
CH
2
OH-CH
2
OH (1,2-etanodiol) o glicol se emplea en grandes cantidades como anticongelante
para radiadores y como líquido para frenos hidráulicos (figura 21.7).
Las aminas son compuestos que contienen en su estructura
nitrógeno y son esenciales para la vida. Existen dos tipos de a
minas
las alquil-aminas en donde el átomo de nitrógeno está enlazado
a un carbono con hibridación sp
3
y las aril-aminas en donde el
átomo de nitrógeno se une a un carbono con hibridación sp
2
.
Las aminas al igual que en el caso de los alcoholes y los halogenuros de alquilo también
se pueden clasificar como aminas primarias, secundarias o terciarias, dependiendo del grado
de sustitución que tenga el nitrógeno. Así tenemos:
Amina primaria Amina secundaria Amina terciaria
Aminas

110 111
Los grupos R, R´y R´´ unidos al átomo de nitrógeno pueden ser alquilos o arilos, como se
estableció previamente (alquilaminas o arilaminas).
Los compuestos básicos son aquellos que pueden donar un par de electrones o aceptar
protones. De acuerdo a esta definición, mientras más disponibilidad tenga un compuesto para
donar un par de electrones más básico va a ser.
Las alquil-aminas van a ser mucho más básicas que las aril-aminas, esto se debe a que el
par de electrones no compartidos del nitrógeno en las aril-aminas se encuentran deslocalizados
en el anillo, mientras que en las alquil-aminas están localizados en el nitrógeno por lo cual
estarán más disponibles para una reacción ácido base, como puede verse en la figura 21.8.
Figura 21.8. Deslocalización de los electrones del nitrógeno de un grupo amino en el anillo de benceno.
Las aminas pueden ser nombradas de acuerdo a las reglas de la IUPAC como alquilaminas
o alcanoaminas. En el caso de derivados del benceno se puede llamar anilina o arilamina
(fenilamina). Cuando hay un grupo funcional de mayor prioridad que la amina, el grupo –NH
2

se nombrará grupo amino. Por ejemplo, al decir “aminoácido”.
Para saber más…

Los alcaloides son un grupo importante de aminas biológicamente activas, sintetiza- dos en su mayoría por plantas para protegerse de los insectos y otros animales. A pesar de que algunos alcaloides se utilizan en medicina como sedantes, la mayor parte de ellos son tóxicos y producen la muerte si se ingieren en exceso.
Se cree que el alcaloide coniína extraído de la cicuta, (Conium maculatum), fue el
responsable de la muerte de Sócrates.
Las aminas son compuestos polares, capaces de formar enlaces de hidrógeno con ellas
mismas y con otras sustancias como los alcoholes y el agua.
Como son sustancias asociadas tienen altos puntos de ebullición al igual que los
alcoholes, en comparación con los hidrocarburos del mismo peso molecular.
Las aminas por su carácter básico pueden sufrir una serie de reacciones importantes,
entre las que se destacan:
a) La reacción como base para formar sales de amonio.
b) La reacción con aldehídos y cetonas para formar iminas, oximas e hidrazonas.
c) Alquilación para formar aminas secundarias.
d) Acilación para formar amidas.
e) Reacción con cloruro de tionilo para formar sulfonamidas.
f) Reacciones de eliminación para formar alquenos.
g) Reacciones de oxidación para formar hidroxiaminas.
h) Reacciones de diazoación para formar sales de diazonio.
Coniína
Para saber más…

La putrescina y la cadaverina son diaminas biogénicas que se obtienen por la descom-
posición de aminoácidos. Se encuentran principalmente en la materia orgánica muerta
y son responsables del olor a putrefacción.

112 113
Entre las aplicaciones más frecuentes de las aminas tenemos que se suelen utilizar
en la preparación de colorantes; como adhesivos para hacer madera aglomerada, usada en
la fabricación de muebles; productos de limpieza y desinfectantes; medicamentos como
sedantes y vitaminas; en la elaboración de insecticidas, entre otras.
Muchos de los medicamentos usados como sedantes causan adicción y se han convertido
en drogas de abuso, cómo es el caso de la morfina. Razón por la cual, la adquisición de muchos de
estos medicamentos (sedantes) en las farmacias y droguerías sólo es posible con una prescripción
facultativa de un médico tratante.
Otro problema que se ha presentado con las aminas y sus derivados es el de la
adulteración de fórmulas para lactantes que ocurrió en China en 1997 donde cientos
de niños chinos presentaron problemas renales por consumir leche adulterada con
melamina.

Ácidos carboxílicos
La combinación de un grupo carbonilo y un grupo hidroxilo en el mismo átomo de
carbono se denomina grupo carboxilo. Los compuestos que contienen el grupo carboxilo
tienen carácter ácido y se denominan ácidos carboxílicos. Los ácidos carboxílicos se pueden
clasificar en ácidos alifáticos y ácidos aromáticos dependiendo del sustituyente que esté unido
al grupo carboxilo. Sin embargo, existe una familia de estos compuestos denominada ácidos
grasos, que son ácidos alifáticos de cadena larga que se obtienen de la hidrólisis de grasas y
aceites. Recordemos que la hidrólisis es la ruptura de enlaces químicos por la acción del agua.
Nomenclatura de los ácidos carboxílicos
Los ácidos carboxílicos se pueden nombrar de acuerdo a sus fuentes históricas (nombre
común) o por su nombre Iupac.
El ácido fórmico se extraía de las hormigas (formica en latín); el ácido acético se aislaba
a partir del vinagre (acetum en latín); el ácido propiónico deriva su nombre del griego protos
(primero) y pion (grasa); el ácido butírico deriva del griego boúturo (mantequilla).
En la nomenclatura Iupac de los ácidos carboxílicos se utiliza el nombre del alcano que
corresponde a la cadena contínua de átomos de carbono más larga. Primero se escribe la
palabra ácido y se utiliza el sufijo -oico.
Propiedades físicas de los ácidos carboxílicos
Los puntos de ebullición de los ácidos carboxílicos son altos comparados con los alcanos
debido a que son capaces de formar puentes de hidrógeno generando un dímero. El dímero
formado contiene un anillo de 8 miembros con dos enlaces de hidrógeno como se muestra a
continuación:
Dímero de un ácido carboxílico con sus enlaces de hidrógeno.
Los ácidos que contienen más de 8 átomos de carbono generalmente son sólidos, al
menos que tengan dobles enlaces. La presencia de dobles enlaces en una cadena impide la formación de retículos cristalinos compactos, lo que hace que el punto de fusión sea más bajo. Así tenemos por ejemplo:

114 115
En cuanto a su solubilidad, los ácidos carboxílicos forman enlaces de hidrógeno con el
agua; los ácidos de cadena pequeña, hasta cuatro átomos de carbono, son solubles en agua.
A medida que aumenta la longitud de la cadena carbonada disminuye la solubilidad en agua,
dado que la cadena carbonada es hidrófoba. Debemos recordar que los ácidos carboxílicos son
ácidos débiles, por lo cual no se disocian totalmente en agua, así tenemos:
El ácido etanoico se disocia en agua formando el ión acetato el cual se encuentra en
equilibrio con el ácido sin disociar. Este ión etanoato es estabilizado por solvatación por las
moléculas de agua por lo que su solubilidad en agua es apreciable. Sin embargo al aumentar la
cadena carbonada del ácido este fenómeno disminuye.
Como los ácidos forman enlaces de hidrógeno con los alcoholes, son muy solubles en
éstos. Además los alcoholes son menos polares que el agua, por los que los ácidos de cadena
larga son más solubles en alcoholes.
Los ácidos carboxílicos se pueden transformar en muchos compuestos de importancia
biológica e industrial. Reaccionan por un mecanismo de sustitución nucleofílica en el grupo
acilo (R-C=O). En donde un nucleófilo reemplaza a otro en el átomo de carbono carboxílico:
De esta manera, un ácido carboxílico puede transformarse en un éster carboxílico
(RCOOR).
Los ésteres se nombran como alcanoato de alquilo, se comienza a nombrar el grupo
carbonilo y se finaliza con el grupo alquilo unido al oxígeno.
En la naturaleza los ésteres juegan un papel sumamente importante ya que forman parte
de una familia de compuestos conocidos como lípidos. Los esteroides, las prostaglandinas,
grasas, aceites, ceras, terpenos e incluso los carotenos son lípidos. En la figura 21.9, se muestran
las estructuras de algunos lípidos representativos. Destacándose la presencia de dos ésteres.
Figura 21.9. Estructuras de lípidos y hoja con revestimiento de cera.
Otro grupo funcional importante en el cual pueden transformarse
los ácidos carboxílicos es el grupo amida.
Las amidas se nombran como alcanamida o N-alquil-alcanamida
en el caso de que exista un sustituyente en el nitrógeno. Así tenemos por
ejemplo:
Al igual que los ésteres carboxílicos las amidas cumplen un rol muy importante en
la naturaleza. Los aminoácidos forman biopolímeros llamados proteínas. Las propiedades
de las proteínas se determinan a partir de los aminoácidos que las forman. Los aminoácidos
individuales están unidos mediantes enlaces amidas, conocidos como enlaces peptídicos.
Figura 21.10. La tela de araña está formada principalmente por fibroína. Proteína que tiene estructura de lámina
plegada.
Ésteres
Amidas

116 117
Las proteínas tienen muchas funciones en los seres vivos y son esenciales para la
continuidad de la vida. En la figura 21.10 se muestran los enlaces amidas presentes en la
estructura secundaria de la fibroína, principal proteína presente en la tela de araña.
La reacción más destacada que sufren los ésteres y las amidas por ser derivados de ácidos
es la sustitución nucleofílica al carbonilo, como por ejemplo la hidrólisis. Te invito a investigar
sobre las reacciones que sufren los derivados de ácidos, qué condiciones se necesitan, qué
productos se generan y si ocurren frecuentemente en nuestro organismo.
Ahora bien, existen biomoléculas que integran en una sola molécula los grupos
funcionales que hemos visto hasta el momento como es el caso de los ácidos nucleicos.
Los ácidos nucleicos son biomoléculas sumamente importantes ya que llevan la
información genética de un organismo. Una pequeña cantidad de ADN en una célula de un
huevo fecundado determina las características físicas de un individuo desarrollado.
Los ácidos nucleicos más importantes son el ácido desoxirribonucleico (ADN) y el
ácido ribonucleico (ARN). En las células, el ADN se encuentra principalmente en el núcleo, y su
función es llevar el código genético. Las moléculas de ADN son grandes, con masas moleculares
superiores a 50 mil millones.
Las moléculas de ARN generalmente son más pequeñas que las de ADN, y se hidrolizan
y rompen con facilidad. Su principal función es ayudar a que el ADN se copie y descodifique.
En cuanto a sus estructuras, el ADN y el ARN están formados por nucleótido cons-
tituidos por una base nitrogenada, una azúcar y un grupo fosfato, como puede verse en la
figura 21.11.
Figura 21.11. Nucleótidos del ARN.
La estructura molecular del ADN tiene forma de doble
hélice helicoidal y fue propuesta por Watson y Crick, por lo cual
recibieron el Premio Nobel de Medicina en el año de 1962. La
importancia de los trabajos de Watson y Crick radica en que
su modelo pudo explicar la replicación del ADN y con ella la
transmisión de los caracteres hereditarios.
Watson y Crick pudieron armar su modelo de ADN
basándose en el acoplamiento de las bases nitrogenadas. Las
bases nitrogenadas se disponían de tal manera que podían formar
puentes de hidrógeno: y esto le daba estabilidad a la molécula
(figura 21.12).
Figura 21.12. Puentes de hidrógeno presentes en las bases nitrogenadas.
Biomoléculas
Propiedades generales
Las biomoléculas tienen propiedades funcionales, estructurales y energéticas que son
de gran importancia para los seres vivos. Son sintetizadas solamente por éstos y tienen una
estructura con base en carbono. Están constituidas, principalmente, por carbono, hidrógeno
y oxígeno, y con frecuencia también están presentes nitrógeno, fósforo y azufre; a veces se
incorporan otros elementos pero en mucha menor proporción.
Las biomoléculas son indispensables para el nacimiento, desarrollo y funcionamiento
de cada una de las células que forman los tejidos, órganos y aparatos del cuerpo, y su carencia,
deficiencia, insuficiencia o desequilibrio, provoca el deterioro de la salud y el surgimiento de
la enfermedad.
Como ya mencionamos anteriormente las biomoléculas se pueden clasificar en
carbohidratos, lípidos, proteínas y ácidos nucleicos.
La principal función de los carbohidratos es suministrarle energía al organismo ya
que la mayoría de los procesos metabólicos requieren energía. La más importante fuente de
energía de las células es la glucosa.
Los alimentos ricos en carbohidratos son las harinas, el
pan, las pastas y los tubérculos como las papas.
El consumir demasiados carbohidratos puede llevar
a la obesidad, y la insuficiencia puede producir desnutrición o ingesta excesiva de grasas para reponer las calorías.
Los lípidos sirven como reserva de energía y forman
las membranas celulares. Se distinguen de otros tipos de com- puestos orgánicos porque no son solubles en agua sino en disolventes orgánicos.
Las grasas y aceites, también llamados triglicéridos, son
otro tipo de lípidos. Sirven como depósitos de reserva de energía en las células animales y vegetales.

118 119
Sin embargo, el consumo excesivo de lípidos puede causar grandes trastornos en
nuestro organismo, desde obesidad hasta la muerte, debido a que como estos compuestos
tienden a acumularse, muchas veces lo hacen en los vasos sanguíneos tapándolos causando
infartos. Por esa razón es sumamente importante tener un control de la dieta que consumimos.
Las proteínas son esenciales en la química de la
vida. Se emplean como componentes estructurales de
las células y tejidos, así que el crecimiento, la restaura-
ción y el mantenimiento del organismo dependen del
abastecimiento adecuado de esas sustancias. Algunas
son enzimas, moléculas especiales que regulan miles
de reacciones químicas distintas que ocurren en los
seres vivos. Los alimentos ricos en proteínas son las
carnes rojas, los huevos, el pescado y la leche.
Los ácidos nucleicos son biomoléculas sumamente importantes ya que llevan la
información genética de un organismo. Una pequeña cantidad de ADN en una célula de un huevo fecundado determina las características físicas de un individuo desarrollado. La dife- rencia entre dos individuos de una misma especie está codificada en su ADN, por esta razón se utiliza la prueba de ADN para verificar la paternidad en algunos casos.
Los recuerdos de graduación
Todos soñamos con graduarnos de bachilleres, en especial nuestros padres que ven
como una meta cumplida o un logro propio el que sus hijos e hijas se gradúen. No sólo les dan un buen regalo (cuando pueden), sino que compran adornos u obsequios para los familiares y amigos que muchas veces son costosos.
Te propongo que en grupo y con las orientaciones del profesor o profesora, elabores
motivos alusivos a tu graduación de bachiller, a muy bajo costo, lo que además te permitirá adquirir habilidades y destrezas en la elaboración de diversos objetos.
El propósito de la actividad es que las estudiantes y los estudiantes puedan extraer la
caseína, proteína presente en la leche, y la desnaturalicen para obtener un material que puedan usar para moldear.
Existen varios procedimientos que permiten extraer la caseína de la leche. Es importante
que investiguen cuáles son estos procedimientos y cuál de ellos se adecúa a las condiciones de su institución.
Un procedimiento sencillo que les permite a las estudiantes y los estudiantes extraer la
caseína de la leche, es calentarla y tratarla con vinagre.
¿Qué necesitan?
Vinagre, un litro de leche, agua destilada, vasos de precipitados, un matraz Erlenmeyer,
un embudo, papel de filtro, una olla de cocina, una hornilla de gas, una pipeta, cápsula de Petri.
Es importante que, como van a calentar la leche en la cocina, tomen las previsiones pertinentes.
¿Cómo lo harán?
Pongan 25 dm
3
de leche en un vaso de precipitado de 100 dm
3
, añadan H
2
O hasta el
borde y transvasen a una pequeña olla de cocina. Calienten lentamente en una hornilla ¡SIN
QUE HIERVA! Cuando comience a hervir retiren el vaso y dejen enfriar. Agreguen 5 dm
3
de
vinagre y agiten la mezcla suavemente con una varilla de vidrio. Calienten de nuevo a fuego
lento hasta que comiencen a aparecer grumos blancos en la mezcla. Dejen enfriar, filtren y
transvasen el residuo sólido a una cápsula de Petri.
Con la ayuda de su profesor o profesora y en grupo podrán moldear y pintar los objetos
que quieran.
¿Qué observan?
Elaboren una tabla que permita recoger los cambios observados.
Discutan y representen las reacciones químicas que pudieran explicar los cambios
observados.
¿Cómo pueden interpretar sus resultados?
¿Cómo se evidencia la presencia de caseína en la leche? De acuerdo al procedimiento
utilizado, ¿qué propiedades químicas presenta la caseína? ¿Es posible hacer la extracción de
la caseína en medio básico? ¿El líquido filtrado durante el proceso tendrá alguna utilidad? ¿De
qué otro producto se puede extraer la caseína? ¿La extracción de la caseína de la leche tendrá
algún beneficio para los seres humanos?

120 121
Actividades de autoevaluación
1.- Reúnanse en grupo y representen las estructuras químicas que se presentan
a continuación, busquen semejanzas y diferencias estructurales entre ellas. ¿Cómo las
clasificarían? Socialicen sus resultados con los otros grupos de su salón de clase.
a) 2-metil-2-pentanol 2-propanol.
b) 2,3-dimetil-4-octanol 1-propanol.
c) Ciclohexanol 3-etil-2-hexanol.
2.- Asigna el nombre Iupac a cada una de las siguientes estructuras químicas:
3.- Representa la estructura de cada uno de los siguientes compuestos químicos:
a) Ácido 2-etil-3-metil-octanoico.
b) Ácido -2-amino-6-hidroxi-3-decen-5-inoico.
c) Ácido para aminobenzoico.
d) Ácido 2-metil-3-pentenoico.
4.- Indaga lo que ocurre cuando hierves un huevo, ¿ocurrirá lo mismo si colocas un
huevo, sin su cáscara, en un plato y le agregas alcohol isopropílico? Te invito a que realices estas
dos actividades con tus compañeros, formulen hipótesis y saquen sus posibles conclusiones.
5.- Los ácidos carboxílicos pueden transformarse en un sin número de derivados: és-
teres, amidas, haluros de acilo, entre otros compuestos. Los ésteres carboxílicos tienen la peculiaridad de que son usados en la industria de los alimentos y cosméticos porque muchos de ellos presentan aromas agradables a flores y frutas.
Por ejemplo el acetato de octilo presenta un aroma característico de la naranja y el
acetato de bencilo presenta el aroma del durazno.
Investiguen la reacción general de formación de ésteres a partir de ácidos carboxílicos
y alcoholes. Deduzcan a partir de la misma el material o los materiales de partida para la obtención del éster indicado en la siguiente tabla.
¿Estarán estos componentes en los recipientes con esencias que utilizamos y
consumimos cotidianamente?

122 123
Aurora boreal
Resplandores verdes y rojos que brillan a través del cielo nocturno... La aurora
boreal es una maravilla digna de contemplar. Los científicos que estudian el cielo
dicen que es el espectáculo más grandioso que existe sobre la Tierra. Ahora, también
podría ser el espectáculo más grandioso en la órbita terrestre.
Muy alto, por encima de
nuestro planeta, los astronautas que se encuentran a bordo de la Estación Espacial
Internacional o EEI, (siglas en español), han estado disfrutando una vista de cerca
de las auroras durante su vuelo a través de tormentas geomagnéticas. Porque este
notable fenómeno se debe al magnetismo.
Por otra parte, las fuerzas fundamentales responsables del trabajo de todos los
equipos eléctricos que usamos y electrónicos son la eléctrica y la magnética. La lista
de aplicaciones tecnológicas del magnetismo es muy amplia. Por ejemplo, grandes
electroimanes se utilizan para transportar cuerpos muy pesados y están presentes en
aparatos de medidas, transformadores, motores, aceleradores de partículas, bocinas y
unidades de disco de computadoras. Aunque la mayoría de los aparatos que utilizan
las fuerzas magnéticas son de origen relativamente reciente, el conocimiento de los
aspectos más fundamentales del magnetismo es tan antiguo como la historia misma.
La capacidad de algunos materiales de atraer limaduras de hierro, es el efecto
más familiar del campo magnético. Esta propiedad se denomina magnetismo, y
a la materia que la realiza imán. Los materiales que son atraídos por un imán se les
denominan materiales magnéticos.
En la siguiente lectura descubriremos por qué los imanes pueden alzar objetos
de hierro como clavos o clips. Por ello nos centraremos en la interacción magnética;
comenzando con el estudio del comportamiento de los imanes y la interacción entre
ellos, y luego analizando cómo responden las cargas en movimiento en regiones
donde existen campos magnéticos.
Figura 22.1. Roca de magnetita.
Figura 22.2. Brújula. Instrumento utilizado para
orientarse geograficamente.
El magnetismo
El magnetismo es otra propiedad por la cual los ma-
teriales se atraen o repelen entre sí. Existen algunas sustan-
cias, como la magnetita, que son imanes naturales que se
encuentran en muy poca cantidad. También es conocido
que la Tierra entera se comporta como un gran imán y que
astros como el Sol ejercen acciones magnéticas muy impor-
tantes en el Sistema Solar.
Un enigma para la humanidad
Hace varios milenios, los griegos notaron que la
magnetita (mineral de hierro descubierto en una región del
Asia Menor llamada Magnesia) tenía la propiedad de atraer
pequeños trozos de hierro. También se reporta que los chinos
(por el año 1000) habían descubierto que un trozo alargado
de magnetita flotando en el agua, se alineaba en la dirección
Norte-Sur de la Tierra. A este mineral posteriormente se le
llamó imán natural.
Estos conocimientos propiciaron la invención de la brújula, cuyo uso para orientarse se
extendió a Europa a través de Oriente Medio. Sin embargo, la explicación del magnetismo se
mantuvo durante mucho tiempo como un enigma de la naturaleza.
William Gilbert (1544-1603), médico y físico inglés, efectuó numerosos experimentos
con imanes , incluyendo el gran imán de la Tierra, que publicó en 1600. Pero fue entrando en el
siglo XIX, debido fundamentalmente a las experiencias de Hans C. Oersted (1777–1851), físico
danés, que en 1820 pone en evidencia la relación entre la electricidad y el magnetismo.
A partir de esto, en Francia, Jean B. Biot (1774-1862) y Félix Savart (1791–1841)
establecieron la ley que rige la acción de una corriente sobre los imanes. Por su parte, André M.
Ampère (1775-1836) modeló la propiedad magnética del imán como corrientes eléctricas que
circulan en su interior y estableció la ley que rige la interacción mágnética entre corrientes.
Adicionalmente, la posibilidad de inducir corriente eléctrica mediante campos magnéticos,
es establecida por Michael Faraday (1791-1867), a la que llamó inducción electromagnética.
También, Faraday distingió el comportamiento magnético de distintas sustancias y trabajó en
la influencia de la electricidad sobre las sustancias químicas, describiendo de esta manera el
fenómeno de la electrólisis. James Clerk Maxwell (1831-1879), físico escocés, en 1860 sintetiza
en términos matemáticos la unificación de los modelos existentes acerca de la electricidad, el
magnetismo y la relación entre ellos, en lo que concemos como la teoría electromagnética.
Las aplicaciones de esta teoría, y los desarrollos que todavía continúan, están presentes
en casi todas las actividades humanas actuales como la ciencia, la industria, la medicina y
muchas más.
El enigmá tico magnetismo22

124 125
Figura 22.3. Imanes de diferentes
materiales y formas.
¿Qué es un imán? ¿Qué sustancias pueden actuar como imanes?
Los materiales pueden clasificarse según su comportamiento al acercarse a un imán. Este
objeto tiene la capacidad de producir un campo magnético a su alrededor y atraer materiales
como el hierro (acero o fundición de hierro) y determinadas aleaciones como el alnico (aluminio-
níquel-cobalto) y los óxidos mixtos sintetizados (ferritas), y con menos intensidad a otros metales
como el níquel, o el cobalto. Estos materiales se denominan ferromagnéticos. En otros casos,
como en el aluminio o el oro, la fuerza magnética no se puede apreciar a simple vista.
Existen imanes de origen natural que ma-
nifiestan sus propiedades en forma permanente,
como es el caso de la magnetita (Fe
3
O
4
).
Otros son artificiales, fabricados a partir de
la aleación de diferentes metales, por ejemplo, los
constituidos por fragmentos de acero sometidos a
un tratamiento, como procesos de endurecimiento,
recocido y temple, o aleaciones de acero con tungs-
teno o con cobalto, sometidos a un tratamiento tér-
mico. También están los que contienen tierras raras
como los de boro-neodimio, que pueden producir
campos magnéticos hasta diez veces superiores a
los tradicionales.
Figura 22.4. Campo magnético terrestre.
El polo Sur magnético no coincide con
el polo Norte geográfico. La atracción
hacia los polos magnéticos de partículas
de la alta atmósfera es responsable de las
llamadas “auroras boreales”.
La Tierra es un gran imán
El campo magnético terrestre es originado por los movimientos de metales en estado
líquido en el núcleo del planeta. Sus efectos electromagnéticos en la región alrededor del planeta
llamada magnetosfera nos protegen del viento solar, y además permiten otros fenómenos muy
diversos como la orientación de las rocas en las dorsales oceánicas, la magnetorrecepción de
algunos animales y la orientación de las personas mediante brújulas.
Una brújula apunta en la dirección Sur-Norte magnético de la Tierra por tratarse de una
aguja imantada inmersa en el campo magnético terrestre; desde este punto de vista, la Tierra
se comporta como un imán gigantesco, cuyos polos, en la actualidad, no coinciden con los
polos geográficos.
El polo Sur magnético se encuentra aproximadamente a 1.800 km del polo Norte
geográfico. En consecuencia, una brújula no apunta exactamente hacia el Norte geográfico; la
diferencia, medida en grados, se denomina declinación magnética, la cual depende del lugar
de observación. El polo Sur magnético está desplazándose por la zona norte canadiense en
dirección hacia el norte de Alaska.
Para saber más…

En el transcurso de las eras
geológicas los polos magné-
ticos de la Tierra están cam-
biando de lugar constante-
mente. Parece que durante
los últimos 5 millones de años
los polos se han intercambia-
do unas 20 veces.
Figura 22.5. La atracción magnética se concentra
en los extremos del imán.
Figura 22.6. Fuerzas magnéticas entre dos imanes. Polos
opuestos se atraen: (a) y polos iguales se repelen: (b) y (c).
¿Cómo se ejerce la fuerza magnética de los imanes?
Para estudiar la imantación es práctico utilizar limaduras de hierro, por ello, si tomamos
un imán en forma de barra y distribuimos limaduras de hierro a su alrededor, podemos observar
que se ordenan y tienden a acumularse en los extremos de la barra (figura 22.5.), es decir, las
limaduras son atraídas con mayor intensidad por los extremos que en el centro. Las zonas de
máxima atracción se denominan polos magnéticos, cada imán tiene un polo norte y un polo
sur. La parte central, que no atrae a las limaduras, es la zona neutra.
No obstante, si colocamos un imán sobre
un eje, alrededor del cual pueda girar libremente
en un plano horizontal, sucede que se orienta
siempre de forma que uno de sus polos señala
aproximadamente el Norte geográfico y el otro
el Sur geográfico, por lo que se denominan,
respectivamente, polo Norte y polo Sur.
Si observamos el comportamiento mu-
tuo de dos imanes, podemos comprobar que sus
polos se ejercen fuerzas entre sí, como se indica
en la siguiente figura. Las fuerzas magnéticas son
una acción a distancia, es decir, se producen sin
que exista contacto físico entre los dos imanes, y
pueden ser de atracción o de repulsión.

126 127
Figura 22.7. Los polos magnéticos son inseparables.
¿Qué sucede si intentamos partir un imán?
Si se fragmenta un imán, cada trozo queda convertido en un nuevo imán. Por mucho
que se repita el proceso, todos los pedazos obtenidos actúan como imanes enteros con sus
correspondientes polo norte y polo sur. ¿Podemos considerar un imán como semejante a
un dipolo eléctrico, con carga eléctrica positiva acumulada en un extremo y carga eléctrica
negativa acumulada en el otro?
Figura 22.8. Los clips se vuelven
imanes inducidos.
¿Qué ocurre con un trozo de acero cuando se frota con un imán?
Otro fenómeno interesante del magnetismo es uno que seguro ya conoces, es común
que pongamos clavos o alfileres pegados de un imán para que no se pierdan, después de
sacarlos y ponerlos varias veces observamos que ahora se comportan cómo imanes.
Aquí ocurre algo análogo a lo que viste en la lectura 13 sobre los materiales dieléctricos,
en los que su propiedad eléctrica se explica mediante los dipolos eléctricos de los átomos.
La propiedad magnética se debe a que cada uno de los átomos de hierro que entran en
la composición del acero, esté o no imanado, se puede representar como un imán muy
No, si así fuera se podrían aislar las zo-
nas donde se concentra la polaridad de cada
tipo y esos pedazos obtenidos del imán se
comportarían cómo “objetos cargados con su
respectivo signo”. El hecho de que cualquier
pedazo de un imán, por pequeño que sea, es
también un imán incrementó durante mucho
tiempo el carácter misterioso del magnetismo.
Se tiene conocimiento de que esta observa-
ción la reportó por primera vez Petrus Peregri-
nus, físico francés de comienzos del siglo XIII,
quien también perfeccionó la brújula.
pequeño. En el acero sin imanar estos imanes atómicos
se encuentran desordenados, por lo que la acción de
cada uno de ellos es anulada por la de otro situado a la
inversa. En el imán, por el contrario están ordenados,
muchos de los polos del mismo tipo están dirigidos en
igual dirección específica.
La atracción de un imán externo hace que los
imanes elementales del acero giren y se coloquen
de forma que muchos de los polos del mismo tipo
se orienten en la misma dirección. Ahora, podrás
comprender lo que le ocurrió a los clavos y alfileres que
mencionamos antes. Hay que acercar uno de los polos
del imán a un extremo del objeto y pasarlo hasta llegar
al otro extremo, varias veces en el mismo sentido. Éste es
uno de los
procedimientos más sencillos y antiguos para obtener
imanes de pequeñas dimensiones aunque resultan poco potentes.
Los imanes potentes se construyen aprovechando las propiedades
de la corriente eléctrica. ¡Ten cuidado con los imanes y tus aparatos
electrónic
os!
Figura 22.9. Con un dinamómetro
fijo del que cuelga un imán, se
mide la fuerza magnética entre el
polo de este y el polo opuesto del
otro imán ubicado debajo, cuya
posición se puede variar.
¿Cómo podemos medir la fuerza entre
dos imanes?
Podemos medir la fuerza entre imanes con un dinamóme-
tro como se muestra en la figura 22.9. Esta experiencia permite
comprobar que la intensidad de la fuerza magnética de interacción
entre los imanes disminuye al aumentar la distancia y aumenta
mientras más potentes sean los imanes. Observa la similitud de esta
experiencia con la realizada por Coulomb, para las cargas eléctricas.
¡Se unieron la electricidad y el magnetismo!
La analogía entre el magnetismo y la electricidad promovió la búsqueda de relaciones
entre ellos que pudieran explicar sus características comunes como, por ejemplo, polaridad, in-
ducción, atracciones y repulsiones, tarea que resultaba difícil de lograr, porque los fenómenos
de alta tensión de la electricidad estática disimulaban los posibles efectos magnéticos.
A pesar de su similitud, los fenómenos eléctricos se consideraron independientes de
los fenómenos magnéticos por mucho tiempo. Benjamín Franklin (1706-1790) observó que la
aguja de las brújulas se desviaban con las descargas de rayos. Sin embargo, no existía evidencia
firme que relacionara la electricidad y el magnetismo, esto lo hizo H. C. Oersted: convencido
de que tenía que ser así, realizó diversas experiencias durante cerca de 12 años hasta obtener
resultados aceptables.
Oersted concluyó que una corriente creaba un campo magnético. Michael Faraday,
investigador físico y profesor en el Instituto Real en Inglaterra, leyó el trabajo de Oersted donde
describía su hallazgo y conclusiones. Esto lo llevó a verificar que un campo magnético podía
crear una corriente eléctrica. Hoy está claro que los efectos magnéticos son consecuencia del
movimiento de cargas eléctricas.
Experiencia de Oersted. Se dice que el profesor danés H.
C. Oersted, en 1820, preparó una clase a sus estudiantes con el
objetivo de demostrarles el calentamiento de un hilo conductor
al paso de una corriente eléctrica, y los fenómenos, sobre el mag-
netismo, para lo cual tenía una aguja imanada sobre una base de
madera. Mientras llevaba a cabo su demostración eléctrica, Oers-
ted notó con sorpresa que cada vez que se conectaba la corrien-
te eléctrica, se movía la aguja. Finalizó su clase, y en los meses si-
guientes trabajó mucho intentando explicar el fenómeno.
Hans Christian Oersted (1777-1851).

128 129
Figura 22.10. Al acercar una aguja
imantada a un hilo de platino por el
que circula corriente, Oersted advirtió,
perplejo, que la aguja giraba hasta
situarse perpendicular al hilo. Al
invertir el sentido de la corriente, la
aguja invirtió su orientación.
Su hallazgo resultó un hecho transcendental, que conocemos como efecto Oersted,
ésta fue la primera vez que alguien mencionó la idea de que el efecto magnético debe estar
disperso en todo el espacio, lo que como veremos más adelante constituye la idea básica
del campo magnético. Este efecto lo enunciamos hoy así: Toda corriente eléctrica crea un
campo magnético, en el espacio que la rodea (figura 22.10).
Podemos preguntarnos, ¿por qué la aguja de la brújula cambia su dirección? Para
que esta aguja imantada se pudiera mover tuvo que experimentar una fuerza magnética, la
cual debió ser generada por la corriente eléctrica en el alambre. Aunque las cargas eléctricas
en reposo carecen de efectos magnéticos, las corrientes eléctricas, es decir, las cargas en
movimiento, crean campos magnéticos y se comportan, por lo tanto, como imanes.
Figura 22.11. Dominios en una sustancia desmagnetizada (izquierda) y otra magnetizada (derecha).
El magnetismo natural. Dominios magnéticos
La teoría del magnetismo más aceptada hoy en día es la teoría de los dominios. Éstos son
pequeñas regiones de magnetización dentro del material con direcciones específicas.
De acuerdo con los conocimientos actuales sobre la composición de la materia, los
electrones en los átomos se comportan efectivamente como pequeños anillos de corriente.
Junto a su movimiento orbital en torno al núcleo, cada electrón efectúa una especie de rotación
en torno a sí mismo denominada espín; ambos movimientos pueden contribuir al magnetismo
de cada átomo y todos los átomos al magnetismo del material.
En la época de Ampère se ignoraba la existencia del electrón; por ello él modeló la
propiedad magnética del imán como corrientes eléctricas existentes en su interior sin poder
explicar qué las originaba; su hipótesis de las corrientes circulares se adelantó en tres cuartos
de siglo a la moderna teoría atómica, por lo que puede ser considerada como una genial
anticipación científica.
Materiales ferromagnéticos, paramagnéticos y diamagnéticos. El hierro es el mate -
rial magnético por excelencia, pues en contacto con un imán y, en general, cuando es sometido
a la acción de un campo magnético, adquiere propiedades magnéticas, se magnetiza.
El tipo de materiales que como el hierro presentan un magnetismo fuerte reciben el nom -
bre de sustancias ferromagnéticas. También lo son, el níquel, el cobalto y algunas aleaciones.
Los materiales que por el contrario poseen un magnetismo débil se denominan
paramagnéticos o diamagnéticos según sea su comportamiento, mientras los primeros son
atraídos por un campo magnético externo, los diamagnéticos son rechazados; el estaño, el
aluminio y el platino son paramagnéticos, y el cobre, el oro, la plata y el cinc son diamagnéticos.
Campo magnético
El concepto de campo provee no sólo una descripción apropiada de muchos fenómenos
físicos sino también representa un elemento esencial en las teorías de las interacciones
fundamentales. Un campo clásico en Física se entiende como una propiedad que en el espacio,
inclusive en regiones con ausencia de materia, se manifiesta ejerciendo fuerzas sobre aquellos
objetos materiales que se encuentran en esa región. Ejemplo de éstos son los campos
electromagnéticos y gravitatorio.
Sabemos que entre las partículas cargadas actúan fuerzas eléctricas. Estas fuerzas
se producen de la siguiente manera: cada partícula cargada genera un campo eléctrico a su
alrededor en el espacio que la rodea. Así, si se coloca una partícula en esa región experimentará
una fuerza eléctrica debido al campo eléctrico generado por las otras partículas. De manera
análoga, se pueden entender las fuerzas magnéticas entre objetos magnetizados. De modo que
el concepto de campo elimina la necesidad de recurrir al concepto de acción a distancia y nos
lleva a considerar los campos como construcciones matemáticas (funciones de la posición y del
tiempo) que ayudan a comprender los efectos de las fuerzas.
En el espacio que rodea a un imán o a un alambre con corriente existe lo que se deno-
mina campo magnético, por lo que en esta “región de influencia magnética,” al colocar mate-
riales magnéticos o una corriente, se pueden observar sobre ellos fuerzas magnéticas. Tal como
sucede en otros campos de fuerza (gravitacional o eléctrico), si se conoce el valor de la fuerza
en cada punto, el campo magnético queda definido matemáticamente mediante una magnitud
vectorial que recibe el nombre de intensidad de campo magnético
. Las brújulas, al alinearse
a lo largo de las líneas que describen el del campo magnético, indican la dirección y el sentido
del campo.
Líneas de campo magnético
Michael Faraday tuvo la idea brillante de describir los campos eléctricos y magnéticos
por medio de líneas imaginarias. En el caso del campo magnético, la dirección era mostrada por
un imán suspendido libremente. Él las llamó líneas de fuerza, hoy día las conocemos como
líneas de campo magnético, y se pueden visualizar con limaduras de hierro.

130 131
Figura 22.12. Las limaduras de hierro esparcidas sobre una lámina donde hay campo magnético
imán, revelan una configuración para: (a) imán recto, (b) dos imanes rectos con polos iguales cercanos,
(c) espira conductora de corriente y (d) una bobina.
Observamos las siguientes propiedades de las líneas de campo:
• La tangente a la línea de campo en cualquier punto indica la dirección del vector
campo magnético.
• El número de líneas de campo por unidad de área de sección transversal en una
región del espacio está en relación directa a la magnitud del campo magnético. Por
consiguiente, donde las líneas están muy cercanas, el campo es más intenso que
donde están más separadas.
• La dirección de las líneas de campo magnético alrededor de un imán, van del polo
norte al polo sur.
• Las líneas de campo son cerradas.
• Las líneas de campo no se cruzan.
A continuación, presentamos imágenes de la distribución espacial de limaduras de
hierro producida por el campo magnético de corrientes eléctricas e imanes permanentes.




Fuerza ejercida sobre una carga en movimiento
En electrostática, estudiamos que una carga en reposo genera en su entorno un campo
eléctrico, para comprobar la existencia de ese campo se coloca una carga eléctrica positiva
como testigo, en reposo o en movimiento en dicho punto, esta experimenta una fuerza de
origen eléctrico
.
Figura 22.13. Desviación de la trayectoria del flujo de
electrones por la presencia de un campo magnético.
Un campo magnético, de forma semejan-
te al campo eléctrico, lo podemos estudiar expe-
rimentalmente observando los efectos que pro-
duce, en este caso sobre cargas en movimiento.
La acción del campo magnético se puede obser-
var acercando un imán a un tubo de rayos cató-
dicos que tiene una pantalla fluorescente. En la
pantalla, se registra que al acercarle un imán la
trayectoria de los electrones que emite el cátodo
se desvía, lo cual indica que una fuerza magnéti-
ca
se está ejerciendo sobre cada carga en mo-
vimiento que forma el haz.
¿Cómo caracterizamos esta fuerza? Experimentando se encuentra que:
es tanto mayor cuanto mayor es la magnitud de la carga q y su sentido depende del
signo de la carga, .
es tanto mayor cuanto mayor es la velocidad de la carga q, lo cual significa que la
magnitud de la fuerza que experimenta la carga es directamente proporcional a su ra-
pidez. .
se hace máxima cuando la carga se mueve en una dirección perpendicular a las líneas
de campo y resulta nula cuando se mueve paralelamente a ella. La dirección del vector fuerza magnética,
, es perpendicular al plano formado por los
vectores, y .
De las características anteriores, podemos concluir que la fuerza magnética sobre una
carga en movimiento dentro de un campo magnético se determina mediante el producto
vectorial de dos vectores ( y ), y cuyo resultado es un vector que es perpendicular al plano
formado por dichos vectores. La relación entre el campo magnético , la velocidad de la
partícula cargada y su carga q la podemos expresar con la ecuación:

El módulo de se puede determinar como:

Donde B representa el módulo de la intensidad del campo magnético, v la rapidez de
la carga y el ángulo que forman los vectores y . Recuerda que el módulo es el valor
numérico de la magnitud de un vector.
De esta ecuación podemos despejar la intensidad de campo magnético:

132 133
Nombre Magnitud
Tipo de
magnitud
Símbolo
Unidad en
el SI
Conversión a unidades
básicas del SI
Intensidad de campo
magnético
Vector B Tesla (T)
1 T= N / (C m/s)
1 T= V s / m
2

La unidad en la que se mide el campo magnético en el sistema internacional es:
1 Tesla es el campo magnético que sobre una carga de 1 C moviéndose con una rapidez
de 1 m/s, perpendicularmente a la dirección de
, daría lugar a una fuerza de 1 N. El nombre
de esta unidad es en honor al ingeniero e inventor serbo-croata Nikola Tesla (1856-1943). El
producto voltio por segundo (Vs) comúnmente se conoce como Weber (Wb) en homenaje al
físico alemán Wilhelm E. Weber (1804-1841). De esta forma, 1 T = Wb /m
2
.
Una unidad usada corrientemente, deducida del sistema de unidades cgs (centímetro,
gramo, segundo) con poco uso actualmente, es el gauss (G), que está relacionada con el tesla
por 1 G = 10
-4
T.
Dirección y sentido de la fuerza magnética

Como vimos:
, y son vectores, por lo tanto, además de conocer sus módulos o
valores numéricos, es necesario conocer la relación entre sus direcciones y sentidos: el vector
es perpendicular al plano formado por los vectores y . Su sentido lo determinamos
mediante la regla conocida como regla de la mano derecha. Observa en la figura 22.14 que si los dedos de la mano derecha apuntan en la dirección de
, y se flexionan hacia la dirección
de , entonces el pulgar extendido indica la dirección y sentido de la fuerza . También se
puede usar la regla del tornillo o del sacacorchos, donde el sentido de la fuerza es el mismo
del avance del tornillo o del sacacorchos.
Figura 22.14. Regla de la mano derecha y del tornillo para determinar la dirección de la fuerza magnética.
Protón en movimiento que entra en un campo magnético
En un campo magnético uniforme, T, es disparado un protón con una velocidad
m/s. Calcula la fuerza magnética que experimenta. Recuerda que el
protón tiene carga
1,6.10
-19
C.
Estamos usando vectores de longitud unitaria (valor de 1) para poder especificar las
direcciones de
, y . En coordenadas cartesianas es típico el uso de i, j y k para representar
los vectores unitarios en las direcciones x, y, z respectivamente.
Sustituyendo los datos en la ecuación y resolviendo el producto vectorial:

Aplicando cualquier regla para
resolver el determinante se obtiene:
.
Observa que la fuerza es perpendicular al plano X Y,
donde están y , como se muestra en la figura al
aplicar la regla de la mano derecha.

134 135
Fuerza magnética ejercida sobre un conductor rectilíneo
Con los estudios de Oersted, Ampère planteó que si una corriente ejerce una fuerza
sobre un imán, por la ley de acción y reacción de Newton un imán debe ejercer una fuerza
sobre la corriente, y por tanto un conductor con corriente eléctrica en presencia de un
campo magnético experimenta una fuerza magnética que es la suma vectorial de las fuerzas
individuales que experimentan los portadores de carga en movimiento dentro del mismo.
En la figura 22.15 se ilustra un conductor cilíndrico delgado de sección transversal A,
por el que circula una corriente I. Podemos considerar que un segmento de longitud L del
conductor está expuesto a un campo magnético uniforme, es decir,
es igual en todos los
puntos del espacio considerado.
Cada carga q se mueve con una velocidad de arrastre, , por lo que experimentará
una fuerza magnética: . La fuerza total sobre el conductor la podemos obtener
Fuerza de Lorentz
Si una carga está en un campo eléctrico sobre ella
actúa una fuerza eléctrica y si además se mueve en un campo magnético sobre ella actúa, de manera simultánea, una fuerza magnética. Por esta razón, la fuerza electromagnética neta se determina mediante la suma vectorial de estas dos fuerzas,
, por lo tanto:
Esta expresión se conoce como la fuerza de Lorentz en
reconocimiento al físico y matemático neerlandés galardonado
con el premio Nobel de Física del año 1902, por su investigación
sobre la influencia del magnetismo en la radiación.
Hendrik Antoon Lorentz (1853-1928).
Figura 22.15. Fuerza magnética sobre hilo
conductor que transporta un corriente en
una campo magnético uniforme.
Figura 22.16. Montaje del columpio
de Ampère, el alambre se moverá hacia
adentro o hacia fuera de la herradura
dependiendo del sentido de la corriente
y la dirección del campo magnético.
multiplicando esta fuerza por el número de cargas N que
hay en el segmento de conductor.
El número de cargas N en el interior del seg -
mento del alambre es igual al número de cargas por
unidad de volumen, (n
e
) multiplicado por el volumen,
, por lo que . Tenemos entonces
que la fuerza magnética neta sobre el segmento L del conductor, toma la forma:
Como viste en la lectura 14, la corriente eléctrica
en este segmento es: I = n
e
qv
a
A, por lo tanto, la fuerza
magnética neta se expresa cómo:
donde es un vector cuyo módulo es la longitud del
segmento de conductor que está en el campo magnético y cuya dirección es paralela al sentido de la corriente.
Observa que debido a las propiedades del pro-
ducto vectorial se deduce que: cuando el campo
es
paralelo al conductor, la fuerza magnética ejercida sobre el conductor es nula.
Para que esta fuerza se evidencie, es necesario
usar un imán que produzca un campo magnético intenso,
un alambre de poco peso, una fuente de voltaje (corriente
continua) y soportes flexibles, de forma que la fuerza
magnética neta sobre él mismo se pueda evidenciar por
un cambio de movimiento del trozo de alambre dentro
del campo magnético. Puedes verificar la existencia de
esta fuerza mediante el montaje presentado en la figura
22.16, al cual se le da el nombre de columpio de Ampère.
Fuerza magnética sobre una espira conductora
Vamos ahora a considerar que el conductor está cerrado y plano, lo que llamamos
una espira. Si ésta se coloca en una región del espacio en la que existe un campo magnético
uniforme
, cada segmento de la espira se verá sometida a una fuerza magnética, pero cuando
obtenemos la fuerza resultante sobre la espira ésta resulta nula. En general, la fuerza neta
ejercida por un campo uniforme sobre una espira (circuito cerrado de corriente) no
necesariamente plana, es nula.
Sin embargo para tu sorpresa, la espira no permanece en reposo ya que el momento o
torque ejercido por las fuerzas magnéticas es distinto de cero; este hecho provoca un giro en la espira.
Torque magnético sobre una espira rectangular con corriente: el motor eléctrico
En los motores eléctricos se aprovecha la fuerza que el campo magnético ejerce sobre
una corriente eléctrica que circula a través de una bobina móvil (grupo de espiras que pueden
girar) que se encuentra en su interior. El campo magnético puede estar creado por un imán
permanente o por un electroimán.
Cuando situamos una espira rectangular, como la de la figura 22.17, en el seno de un
campo magnético podemos analizar la acción de éste sobre cada lado, nota que se produce
lo que se denomina un par de fuerzas cuyo torque produce en ella un movimiento de giro o
rotación, hasta situarla paralela a la dirección del campo magnético
.
Analicemos con detalle, cada uno de los lados de la espira experimenta una fuerza
magnética: .

136 137
Figura 22.17. (a) Espira rectangular ubicada dentro de un campo magnético uniforme que gira en
torno a un eje perpendicular a las líneas de campo. (b) Fuerzas que actúan sobre cada lado de una
espira conductora con corriente en un campo magnético uniforme.
La espira rectangular de la figura está formada por dos pares de segmentos rectilíneos
paralelos entre sí, uno horizontal y otro vertical, de longitudes
y , respectivamente.
Cuando se aplica la regla de la mano derecha a los segmentos horizontales notarás que las
fuerzas magnéticas correspondientes resultan verticales y opuestas, por tanto se anulan.
En cambio, las fuerzas sobre los segmentos verticales son opuestas y paralelas, y
definen un plano horizontal, constituyendo por tanto, un par de fuerzas que origina un giro de
la espira, el cual hace que ésta se sitúe perpendicularmente a las líneas de campo. La fuerza
neta sobre la espira es cero (equilibrio de traslación), pero hay un torque neto que causa
de la rotación de la misma.
El valor del momento o torque (M o
) que actúa sobre la espira se obtiene mediante
la expresión:
Donde A es el área de la espira que resulta del producto de los lados de esta, I intensidad
de corriente que recorre la espina, y es el ángulo entre la dirección de y el sentido de
la corriente I. Si expresamos las magnitudes en unidades de medición del SI, tenemos que el torque se mide en Newton x metro (N.m).
El producto IA se conoce como momento dipolar magnético o momento magnético
de la espira que conduce una corriente, y se representa con la letra griega µ (mu), (µ = IA).
Con lo cual, el torque de la espira lo podemos escribir cómo:
. Esta es una
magnitud vectorial, donde la expresión obtenida es el módulo del vector , ( es un vector
normal (perpendicular) al plano de la espira, B es la magnitud del vector campo magnético y
es el ángulo entre los vectores y ). El torque sobre la espira lo podemos expresar como un
producto vectorial: , o
Figura 22.18. Un motor sencillo de
corriente continua.
Estos resultados nos permitirán analizar el
principio de operación del motor eléctrico de co -
rriente continua. En un motor de corriente conti
nua
la bobina está arrollada sobre un cilindro formado
por
láminas de hierro, este conjunto constituye el rotor.
Para mantener la rotación en el mismo senti-
do de manera permanente, se incorpora un elemen- to conmutador encargado de invertir en cada media
vuelta el sentido de la corriente eléctrica que circula por la bobina. Está formado por dos piezas semicilín- dricas delgadas, aisladas eléctricamente entre sí, uni- das al rotor y en contacto con unas varillas de grafito o escobillas, cuya función es mantener el paso de la corriente a la bobina. De esta manera el torque ac-
tuará sobre la espira de manera que gire siempre en el mismo sentido.
Fuerza eléctrica Fuerza magnética
Es paralela al campo eléctrico. Es perpendicular al campo magnético.
Actúa sobre la carga esté en reposo o en
movimiento.
Sólo actúa sobre la carga en movimiento.
La fuerza eléctrica realiza trabajo sobre la
carga al desplazarla.
La fuerza magnética no realiza trabajo sobre
la carga, su dirección es perpendicular a la
trayectoria.
Es una fuerza conservativa. No es una fuerza conservativa.
Comparación de fuerzas eléctricas y magnéticas
De lo estudiado anteriormente, podemos hacer algunas consideraciones en cuanto a
diferencias entre las fuerzas eléctricas y magnéticas:
Movimiento de una carga en un campo
magnético uniforme
Supongamos que en una región del espacio existe un campo
uniforme y una carga
positiva q se desplaza con una velocidad perpendicular al campo. Como se ha visto, la fuerza
que actúa sobre la carga es siempre perpendicular a la velocidad, por lo que provoca una
aceleración normal (centrípeta) que hace que se curve la trayectoria y se genere un movimiento
circular en el que la fuerza magnética actúa cómo fuerza centrípeta; el módulo de la velocidad
permanece constante, por no existir ninguna fuerza tangencial.
a b

138 139
Figura 22.19. Movimiento circular de
una carga eléctrica positiva que se mueve
con una velocidad dentro de un campo
magnético uniforme perpendicular a ésta.
Se representa la dirección y sentido del
campo con el símbolo , esto indica que
está entrando en el plano de esta página. Si
el campo tuviese sentido contrario, saliendo
de este plano, se representaría con
De acuerdo con la segunda ley de Newton, en la
dirección normal tenemos:
Como la velocidad y el campo son
perpendiculares entre sí, el módulo de será igual a
qvB, y será igual a la fuerza centrípeta, responsable del
movimiento circular ocurrido en el plano, por lo que
resulta:
El período T del movimiento circular será:
Curiosamente, nota que el período no depende ni
de la velocidad de la carga, ni del radio de la órbita.
Cuando la velocidad de las partículas cargadas,
, forma un ángulo diferente de 90° con
el campo magnético terrestre, , tenemos que considerar una componente de dicha velocidad
perpendicular al campo y otra paralela. La trayectoria resultante de las partículas cargadas
resulta helicoidal (composición de un movimiento de rotación y otro de traslación), rodeando
las líneas del campo magnético terrestre, tal como se indica en la figura 22.20.
Otros planetas de nuestro Sistema Solar como Júpiter y Saturno, que poseen campos
magnéticos más fuertes que la Tierra, también muestran amplios cinturones de este tipo.
A continuación, veremos algunas aplicaciones del movimiento de cargas en campos
magnéticos:
Figura 22.21. Diagrama del selector
de velocidades.
1. Selector de velocidades
En presencia de un campo eléctrico
y un campo
magnético , la fuerza total electromagnética que se
ejerce sobre una carga (q) es: En este
dispositivo, se combinan de manera perpendicular los dos campos, para que las fuerzas sean opuestas, y así se pueden seleccionar a las partículas cargadas cuyo valor de velocidad v = E/B les permite seguir, sin desviarse.
2. El espectrómetro de masas
Este es un aparato que permite medir la masa de
partículas muy pequeñas como pueden ser los isótopos de
un elemento. Consiste en una combinación de un selector
de velocidades y un campo magnético que produce un
movimiento circular en las partículas seleccionadas.
Los iones después de pasar por un selector de
velocidades, entran a una región de un campo magnético
uniforme. Estas partículas describen una trayectoria
semicircular. El radio de la órbita es proporcional a la
masa, por lo que iones de distinta masa inciden sobre
una placa fotográfica en distintos lugares; así se tienen
medidas del diámetro de la circunferencia descrita.
Recuerda que los isótopos de un elemento varían en su
masa.
Un dispositivo similar puede utilizarse para se-
parar los isótopos de un determinado elemento. Estos
átomos no se pueden separar por medios químicos, ya
que tienen las mismas propiedades químicas al tener la
misma configuración electrónica.
Figura 22.22. Diagrama de un espectrómetro de
masas. Las distancias X
1
y X
2
corresponden a la
trayectoria de iones de masas diferentes.
al despejar se obtiene:
Un ejemplo en la naturaleza del movimiento de partículas cargadas cuya trayectoria es
afectada por un campo magnético, se da con las partículas cargadas que inciden sobre la Tierra, y constituyen los denominados cinturones de Van Allen.
Figura 22.20. Cinturones de Van Allen. Las partículas cargadas de los rayos cósmicos están atrapadas en el campo
magnético terrestre y se mueven en una helicoidal a lo largo de las líneas de campo que existen entre los polos norte y sur.

140 141
Figura 22.23. Fotografía histórica obtenida
en la cámara de burbujas en el CERN, que
estuvo en servicio hasta 1984, en ese tiempo
se hicieron fotos de 6.3 millones de colisiones
de partículas.
3. Cámaras de detección de partículas cargadas
Estas cámaras se usan para observar e identificar
partículas de radiación ionizante. La cámara de niebla
fue inventada por el físico escocés Charles Wilson (1869-
1959), la cual en su forma más sencilla contiene vapor
de agua superenfriado y supersaturado. Cuando una
partícula cargada y de suficiente energía interacciona
con el vapor, lo ioniza. Los iones actúan cómo núcleos
de condensación, alrededor de los cuales se forman
gotas de líquido que dan lugar a una niebla. Así, al
paso de las partículas debido a los numerosos iones
producidos se va produciendo una estela o traza a lo
largo de su trayectoria. Wilson recibió el Premio Nobel
de Física en 1927 compartido con Arthur Compton.
Figura 22.24. Ciclotrón.
4. Aceleradores de partículas cargadas
Un acelerador de partículas es un dispositivo que utiliza campos electromagnéticos
para acelerar partículas cargadas a altas velocidades y hacerlas chocar con otras. Producto de
la colisión se generan nuevas partículas, que permiten investigar más a fondo la naturaleza de
las que chocaron. Hay dos tipos básicos de aceleradores: lineales y circulares. El tubo de rayos
catódicos de un televisor tradicional es una forma simple de acelerador de partículas. Un ci -
clotrón es un tipo de acelerador de partículas cargadas que combina la acción de un campo
eléctrico alterno el cual les proporciona sucesivos impulsos, con un
campo magnético uniforme que curva su trayectoria y las redirige
una y otra vez hacia el campo eléctrico. Fue inventado en el año 1934
por los físicos M. S. Livingston (1905-1986) y E. O. Lawrence (1901-
1958) (por este motivo, este último recibió en 1939 el premio Nobel).
El sincrotrón es otro acelerador de partículas cargadas que
viajan en un tubo con forma toroidal , o de anillo, (a lo largo del tubo
se usan imanes para que la fuerza magnética mantenga la trayectoria
curvada de las partículas). Los principios del sincrotrón fueron des-
critos en 1945 casi simultáneamente por E. M. McMillan (1907-1991)
en la Universidad de California y V. Veksler (1907-2006) en la antigua
Unión Soviética.
El magnetismo y sus aplicaciones en
el mundo contemporáneo
El trabajo científico y tecnológico debe orientarse al estudio y explicación de los
fenómenos naturales y sus implicaciones para ponerlos al servicio de la ciudadanía, y para
ampliar nuestro conocimiento del mundo. En los laboratorios industriales, en los institutos de
Resonancia magnética nuclear (RMN): permite la formación de imágenes para estudiar
tejidos desde diferentes ángulos de visión. Esto complementa otras técnicas radiográfi-
cas para realizar diagnósticos. Otra de sus aplicaciones es el estudio del flujo de fluidos
en rocas porosas, conocimiento vital en la recuperación terciaria de petróleo.
Tecnología de información magnética: La tecnología de información magnética incluye
tres campos: grabación magnética (cintas magnéticas, discos flexibles y discos duros),
grabación optomagnética (en este sistema la lectura y grabación se hace con un rayo
láser) y burbujas magnéticas.
Trenes de levitación magnética: Estos trenes se mueven sin contacto con los rieles, van
“flotando” a unos centímetros sobre ellos debido a una fuerza de repulsión electromag-
nética. En Japón, el tren de alta velocidad, el Maglev, alcanza una velocidad promedio
de 240 km/h y una velocidad máxima de más de 481 km/h.



La relevancia del conocimiento y desarrollo de la ciencia y la tecnología es cada vez
mayor. La evolución de las sociedades modernas requiere, de manera fundamental, la incor-
poración de los resultados obtenidos por la investigación científico-tecnológica. Sin embargo,
es necesario, que exista una articulación efectiva entre los sectores de investigación y la pro-
ducción social para desarrollar iniciativas que apunten hacia la mejora de todas y todos, en un
estado de paz e inclusión.
investigación y en universidades se llevan a cabo investigaciones científicas y tecnológicas en
magnetismo, evidenciándose una estrecha interrelación entre éste y otros campos.
Cuando la ciencia y la tecnología se conjugan en forma imaginativa y en beneficio
de la ciudadanía, encontramos por ejemplo que mediante un trabajo interdisciplinario del
electromagnetismo y la mecánica cuántica y otros campos, las posibilidades de aplicación
resultan variadísimas. Por mencionar algunas tenemos:

142 143
Explorando el magnetismo
El hierro en los alimentos
Muchos alimentos son ricos en hierro, nutriente importante para la vida. Te proponemos
una experiencia para identificar su presencia en algunos. Coloca hojuelas de maíz en la superficie
del agua en un plato, de manera que floten. Acércales un imán. ¿Qué observas? Explica este
comportamiento. Explora con otros alimentos.
Construyan su propia brújula
Hemos visto que podemos imantar objetos compuestos por hierro. La meta es que con
una aguja de coser y un imán construyan una brújula. ¿Cómo pueden proceder para imantar
la aguja? Planifiquen un procedimiento para lograrlo. Diseñen un dispositivo que permita a
la aguja girar libremente en un plano horizontal y orientarse según el magnetismo terrestre y
además que sea portátil. Constrúyanlo y evalúen su efectividad. Construyan con la dirección y
el ángulo de inclinación de las líneas de campo un mapa del campo magnético del lugar.
Midiendo campos magnéticos en simulaciones
En la dirección electrónica http://phet.colorado.edu/en/simulation/magnet-and-compass ,
pueden bajar la simulación en español imanes y brújula. Con ella pueden describir el campo
magnético con una brújula o medirlo en el espacio que rodea a un imán recto o a la Tierra como
imán. También podrán variar la intensidad del imán. ¿Qué observan? Escriban sus conclusiones.
Cadena de clips en equilibrio
En la figura tienen una cadena de
clips y un imán. ¿Cuáles son las fuerzas que
actúan sobre los clips? Elaboren un diagrama
de fuerzas. Diseñen un procedimiento para
medir la fuerza magnética empleando un
dinamómetro. Discutan los resultados.
Visualizando las líneas de campo magnético
Sabemos que una forma de visualizar los efectos magnéticos en los alrededores
de un imán es disponer limaduras de hierro sobre una lámina transparente con el imán por
debajo. Visualicen las líneas del campo magnético creado por imanes de diversas geometrías
(rectangular, en forma de herradura, toroidal…). Compárenlos con los que se presentan en la
lectura. Ensayen colocando dos polos iguales enfrentados, ¿cómo son las líneas de campo en
la zona entre los dos imanes? ¿Cuáles son las zonas de mayor intensidad de campo? Por último,
aumenten la separación entre los polos iguales, ¿qué sucede con las líneas de campo? ¿A qué
se deben estos comportamientos? Elaboren un resumen de la actividad con las conclusiones.
Campo magnético que rodea una corriente eléctrica
Una línea de tiempo sobre el magnetismo
Te invitamos a organizarte en equipo para realizar una línea de tiempo (esquema
gráfico que representa en forma espacial el transcurso del tiempo, usada para ordenar los
acontecimientos de la historia de un espacio geográfico, un país o el mundo) sobre el desarrollo
de la teoría electromagnética y sus aplicaciones para el servicio de la ciudadanía; consideren
varios períodos de tiempo. Identifiquen ideas y hechos experimentales, personas que las
desarrollaron, país de origen, aspectos sociales asociados, contexto geohistórico, implicaciones
o aportes a la sociedad de la época, y hechos relevantes en Venezuela.
¿Cuáles son los efectos magnéticos que produce la
corriente eléctrica? Con batería, bombillo de linterna o led, cables, diseñen un circuito para responder la pregunta, an- tes planteen una hipótesis. Usando una brújula exploren cómo es el campo magnético alrededor del cable. Reali- cen observaciones en el bombillo. Cambien la polaridad de la fuente, comparen. ¿Qué pueden concluir acerca de la pregunta inicial?

144 145
6. El problema de la brújula. Estamos acostumbrados a pensar que la aguja magnética
siempre señala con uno de sus extremos hacia el norte de la Tierra y con el otro hacia el sur.
¿Qué sucederá en la brújula si estás parado justamente en el norte magnético de la Tierra?
7. Una carga q = –3,64 x 10
-5
C se mueve con una velocidad de
. ¿Qué
fuerza actúa sobre ella si el campo magnético es 0,38 ĵ T?
8. Una partícula con carga q y rapidez v se introduce en un campo magnético de módulo
B. Calcula el módulo de la fuerza que actúa sobre la partícula cuando: a) La velocidad tiene la misma dirección que el campo magnético. b) La velocidad forma un ángulo de 90° con el campo magnético. c) La velocidad forma un ángulo de 30° con el campo magnético.
9. Un electrón penetra con una velocidad 20 ĵ m/s en una región en la que coexisten un
campo eléctrico
= 2î + 4 ĵ (V/m) y un campo magnético T . Calcula la aceleración que
experimenta el electrón cuando penetra en el campo.
10. Halla el módulo, dirección y sentido de la fuerza que actúa sobre un conductor
rectilíneo horizontal de 5 cm de longitud por el que circula una corriente de 20 A de norte a sur (sentido negativo del eje Y), al situarlo en el vacío en un campo magnético de 1 T dirigido de oeste a este (sentido positivo del eje X).
Actividades de autoevaluación
1. Una partícula cargada positivamente (+q) se encuentra en reposo en el centro
entre dos imanes rectos, como se muestra en la figura. La intensidad de campo magnético
producido por el imán de la izquierda en la posición de la carga es tres veces mayor que la
intensidad de campo producido por el imán de la derecha. Discute sobre la fuerza magnética ejercida por los imanes sobre la carga.
2. En la figura de la izquierda tienes tres imanes
(amarillo, azul y rojo) insertados en un lápiz vertical. Elabora explicaciones para justificar por qué los dos de arriba están suspendidos en el aire. ¿Cómo se denomina este fenómeno?
3. Un hilo recto de corriente se coloca en el
campo magnético existente entre los polos de un imán de herradura. ¿Qué dirección y sentido tendrá el vector fuerza magnética que actúa sobre el conductor que transporta una corriente I en el sentido de la figura?
4. Imagina que tienes cuatro imanes, en los cuales se señalaron uno de los polos de
cada uno con las letras A, B, C y D respectivamente. Observa que: 1. El polo A repele al polo B, 2. El polo A atrae al polo C, 3. El polo C repele al polo D. Si el polo D es un norte magnético. ¿Qué puedes concluir del polo B?
5. Una espira rectangular con corriente es colocada en un campo magnético uniforme
con el plano de la espira perpendicular a la dirección del campo ¿que ejerce el campo sobre la espira? Analiza cuál de las siguientes opciones es correcta y explica por qué.
(A) una fuerza neta cero. (B) un torque neto cero. (C) una fuerza neta y un torque neto
(C) ninguno de los anteriores.
11. En la figura representamos una partícula
de masa m y carga q, que se dirige a una región donde existe un campo magnético uniforme. ¿Qué dirección y sentido tendrá la fuerza magnética que actúa sobre la partícula? ¿Cuál será la trayectoria que sigue la carga, en el caso en que: a) sea positiva, b) sea negativa?
12. Una espira cuadrada de 14 cm por 14 cm se coloca con su cara paralela al campo
magnético de 3 T creado por un gran electroimán. Calcula la fuerza que se ejerce sobre cada uno de los lados de la espira cuando por ella circula una corriente de 6 A.
13. Supongamos que tienes iones de dos isótopos diferentes de masas M
1
y

M
2

desconocidas, los cuales entran con una velocidad
en una región donde existe un campo
magnético uniforme que los desvía, finalmente chocan en la placa fotográfica a una distancia
X
1
y X
2
(revisa la figura 22.22 del espectrómetro de masas). ¿Cuál será la relación entre sus masas
en función de estas distancias? ¿Podría medirse la masa de átomos neutros con un espectrógrafo de masas? Explica por qué.

146 147
Hasta ahora hemos estudiado algunos efectos del campo magnético
sin referirnos a las posibles fuentes de este campo. Una posible fuente de campo
magnético conocida desde la antigüedad son los imanes permanentes, sin embargo
éstos no parecen ser las únicas fuentes. A lo largo de la lectura mostraremos ingeniosos
descubrimientos y teorías que muestran que la principal fuente del campo magnético
es la corriente eléctrica.
En esta lectura estudiaremos dos métodos para calcular el campo magnético
generado por diferentes conductores con corriente. El primer método es la ley de Biot-
Savart que nos permite calcular el campo magnético creado en un punto del espacio
por un elemento de corriente eléctrica. El segundo método es la ley de Ampère, que
es muy útil aplicarla a diferentes configuraciones simétricas de corriente. La ley de
Ampère relaciona la circulación de campo magnético con la corriente neta que encierra
el circuito amperiano. Por último, determinaremos la fuerza entre dos conductores
rectilíneos eléctricos.

Con el formalismo de Biot-Savart y el principio de superposición se calculan
diversos campos magnéticos para diferentes geometrías, como por ejemplo, alambres
rectos delgados, espira y para otras configuraciones con alta simetría.
Campo magnético creado por un conductor rectilíneo
Para que exista un campo magnético podemos hacer circular una corriente eléctrica
por un conductor. El hecho de que un campo creado por una corriente sea capaz de orientar un
imán móvil situado cerca de él, nos permite afirmar que se trata de un campo semejante a los
creados por imanes, y es posible explorarlo y reconocerlo por sus acciones sobre un pequeño
imán o por medio de limaduras de hierro.
¿Cómo podemos estudiar estos campos?
Piensa qué tipo de experimentos se pueden realizar para investigar una posible relación
entre cargas eléctricas e imanes.
Lo podemos estudiar realizando un sencillo
experimento, tomando como referencia las con-
clusiones del experimento de Oersted. Si colocamos
varias brújulas en torno a un hilo conductor, como
en la figura 23.1, ¿qué observas con respecto a la di-
rección de las agujas de las brújulas? Cuando no cir-
cula corriente eléctrica, todas ellas apuntan al Norte
geográfico de la Tierra, debido al efecto del campo
magnético terrestre. Pero, si circula una corriente se
orientan formando una circunferencia en torno al
conductor. En conclusión, si hacemos circular una
corriente continua por un alambre, por ejemplo, en
dirección sur-norte, las agujas de las brújulas situa-
das en las proximidades del alambre se desviarán
de su posición inicial mientras circule la corriente.
Figura 23.1. Campo magnético de un conductor
rectilíneo. En ausencia de corriente eléctrica las
brújulas apuntan al Norte geográfico (a). Cuando
circula una corriente por el conductor las brújulas
se orientan en torno al conductor (b).
De ello deducimos: En las proximidades de
un conductor por el que pasa una corriente eléctrica
se forma un campo magnético. El magnetismo
en general está asociado a la existencia de cargas
eléctricas en movimiento.
Para visualizar el campo magnético que se
establece alrededor de un conductor por el que
circula una corriente también podemos colocar
limaduras de hierro en una cartulina perpendicular
al conductor rectilíneo, al hacer pasar la corriente, las
limaduras de hierro se agrupan constituyendo líneas
cerradas que son, prácticamente, circunferencias
cuyo centro es el conductor.
Figura 23.2. Espectro de campo formado por
limaduras de hierro alrededor de un alambre muy
largo que transporta una corriente intensa. Las líneas
de campo son círculos cuyo centro está en el conductor.
Fuentes de Campo Magnético23

148 149
Sentido del campo magnético
Si desplazas la aguja de una brújula en una línea de campo alrededor del conductor que
transporta una corriente eléctrica intensa, notarás que dicha aguja se colocará siempre perpen-
dicularmente al radio, indicando así el sentido de las líneas de campo magnético.
Por convenio se ha fijado que el polo norte de la aguja de una brújula señala el sentido
de las líneas de campo. Existen reglas muy sencillas, para conocer el sentido de las líneas de
campo magnético creado por el conductor: por ejemplo la regla del pulgar.
Si se toma un conductor con la mano derecha de modo que el dedo pulgar indique el
sentido de la corriente, el de las líneas de campo está indicado por los otros cuatro dedos, como
vemos en la siguiente figura.
Figura 23.3. Regla del pulgar para determinar
el sentido de las líneas de campo.
Módulo del campo debido a un conductor rectilíneo
Experiencias más detalladas indican que la intensidad del campo
depende de:
La intensidad de este campo es proporcional a la intensidad de la corriente .
La intensidad del campo creado es inversamente proporcional a la distancia del punto al conductor
.
Las dos relaciones de proporcionalidad anteriores se pueden escribir en una relación en
función de la corriente y la distancia, la relación de proporcionalidad puede transformarse en
una igualdad introduciendo una constante de proporcionalidad. Esta constante es , donde
es la constante característica del medio que recibe el nombre de permeabilidad magnética
en el vacío y su valor es:


Así la expresión para el módulo del campo magnético producido por un conductor muy
largo (matemáticamente esto quiere decir que podemos considerar un hilo infinito) es:
Al realizar el experimento que se describió anteriormente hemos supuesto que el
conductor estaba situado en el vacío o en el aire. Experimentalmente se puede comprobar
que la presencia de un medio material provoca alteraciones en el valor del campo magnético
creado por una corriente o un imán natural. Cuando el experimento se realiza en un medio
material diferente del aire debe utilizarse la constante de permeabilidad relativa μ, cuyo valor
puedes encontrar en tablas.
Figura 23.4. Vector, campo magnético en un
punto P debido a una corriente I.
Recuerda que la intensidad de campo magnético
es una magnitud vectorial; por lo cual, para quedar com-
pletamente definida debemos determinar su módulo, (a
través de la ecuación que acabamos de detallar), su di-
rección (la dirección del vector
es tangente a la línea
de campo) y su sentido (regla del pulgar).
¿Qué posibles problemas de interés fueron derivados de la
experiencia de Oersted?

El hallazgo de que toda corriente eléctrica produce un campo magnético abrió abun-
dantes líneas de investigación acerca del magnetismo y su relación con la electricidad. Entre las
que produjeron desarrollos fructíferos mencionamos a los siguientes:
  1) La determinación cuantitativa del campo magnético producido por diferentes
configuraciones de conductores que transportan corrientes eléctricas. Respondía a la necesidad
de producir campos magnéticos de una intensidad y una disposición de sus líneas de campo
controlables.
 2) El aprovechamiento de las fuerzas existentes entre corrientes eléctricas e imanes.
Permitió construir motores eléctricos, instrumentos para medir la intensidad de corriente, la
balanza electrónica y otros.
3) La explicación del magnetismo natural. Basada en el conocimiento acumulado de la
estructura interna de la materia y en el hecho de que toda corriente genera en sus proximidades
un campo magnético.
4) La obtención de corriente eléctrica a partir de un campo magnético. Abrió el
camino a la obtención industrial de corriente eléctrica y a su aprovechamiento por la
mayoría de la población.

150 151
Efectos magnéticos más intensos de la
corriente eléctrica
Sabemos que alrededor de un conductor por el que circula una corriente eléctrica,
se genera un campo magnético que se extiende a todo lo largo del mismo. Sin embargo, los
campos magnéticos de este tipo no tienen la intensidad suficiente para fines técnicos.
Por ello fue necesario estudiar los efectos magnéticos producidos por una corriente
eléctrica que circulase no sólo por un hilo conductor rectilíneo sino también siguiendo otras
trayectorias, con la finalidad de obtener campos magnéticos más intensos. Veamos a conti-
nuación algunas.
Campo magnético producido por una espira
Una posibilidad de conducir corriente es arrollando un hilo conductor formando una
circunferencia. De este modo todos los puntos considerados en el conductor se encuentran a
la misma distancia del centro de la circunferencia y transportan una corriente de intensidad I.
El sistema descrito constituye una corriente circular y el dispositivo recibe el nombre de espira.
Esto se realiza en la práctica con un conductor casi cerrado (ver la figura 23.5) en el cual la
corriente llega por A y sale por B, o al revés. Esto permite tener en el interior de la espira un
campo magnético más intenso que cuando el conductor está recto.
Figura 23.5. Sentido del campo magnético en una espira circular según el sentido de la corriente eléctrica. El campo
magnético de la espira entra o sale del plano según el sentido de la corriente.
Naturalmente, todavía podemos intensificar aún más los efectos magnéticos de la
corriente si el cable es largo y nos permite dar varias vueltas, de forma que tengamos así otras
tantas espiras, tal y cómo se muestra en la figura 23.6. Para verificar la intensidad del campo
magnético en esta nueva situación, podemos colocar un alambre de 1, 2, 3, … espiras sobre
un soporte, situar una brújula en su centro y conectarlas a una batería para conseguir que pase
corriente por ellas (figura 23.6).
Podemos comprobar cómo al pasar la corriente, la aguja de la brújula sufre ahora
desviaciones más bruscas que cuando la misma corriente era rectilínea y se situaba en la brújula
a la misma distancia del hilo de lo que vale ahora el radio de las espiras. También podemos
constatar qué efecto tiene sobre la aguja imantada el que la corriente vaya en un sentido o en
otro y cómo la fuerza magnética sobre la aguja imantada es menos intensa cuando colocamos
la brújula en otros puntos que no sean el centro de la espira.
Para visualizar las línea de campo, podemos proceder de forma similar a como lo
indicamos en el conductor rectilíneo. Tomamos una cartulina (plano) y por dos agujeros sobre
ella, arrollamos un hilo conductor según una circunferencia; y luego espolvoreamos este plano
con limaduras de hierro, estas limaduras se orientan como se muestra en la figura y nos dan una
idea de cómo es el campo magnético en ese plano, producido por una corriente circular.
Figura 23.7. (Izquierda) Campo magnético de una espira. (Centro) Enrollado de varias espiras con plano y limaduras
de hierro. La región central corresponde a un campo uniforme, el resto de las líneas de campo son cerradas. (Derecha)
Esquema de líneas de campo magnéticos de una espira.
Figura 23.6. Dispositivo para
observar el campo magnético en el
interior de varias espiras juntas.
El campo magnético creado en el centro de la espira es la resultante de los campos
magnéticos creados por cada pequeño elemento del alambre en dicho punto. Si queremos
observar el campo creado en su centro colocamos un plano perpendicular a ella que pasa por
el centro y con limaduras de hierro o una brújula trazamos las líneas de campo como se indica
en la figura anterior.

152 153
Figura 23.8. Dirección del campo magnético en el centro de una espira,
aplicando la regla del pulgar a un trozo de alambre.
El campo magnético creado en el centro de la espira es perpendicular al plano de ella.
Para determinar su valor tenemos que hacer la “suma” de la contribución de pequeñísimos
trozos de alambre ΔL, cuyo valor tiende a cero, para lo cual tenemos que recurrir al cálculo
infinitesimal. El resultado se obtiene aplicando la ley Biot-Savart.
A través de los experimentos descritos podemos concluir:
La dirección del campo magnético creado por una corriente está dado por la regla del
pulgar.
La intensidad de este campo es proporcional a la intensidad de corriente, I.
La intensidad del campo creado es inversamente proporcional a la distancia del punto
al conductor, R.



Figura 23.9. Dispositivo para observar que el
grupo de espiras se comporta como un imán.
El fenómeno que acabamos de describir se
evidencia mejor empleando un multiplicador (figura
23.9.), el cual es un enrollado formado por varias vuel-
tas de un conductor sobre una armadura de material
aislante, por ejemplo, madera. Todas las espiras están
muy juntas, con lo cual el efecto de una se multiplica
por el número de ellas.
Mientras circule corriente por él, se comporta como un imán donde uno de sus
extremos actúa como polo norte y el otro como polo sur. Para verificarlo, podemos aproximar
a sus extremos una brújula y ver los efectos que causa (figura 23.9).
Campo magnético creado por un solenoide o bobina
Figura 23.10. Espectro de campo magnético
de un solenoide.
(a) (b)
Figura 23.11. Campo magnético de un solenoide y de un imán recto. (a) Las líneas de campo magnético en el interior
de un solenoide, son muy parecidas a las de una barra imantada, como se ve en la figura (b).
Por lo tanto, la magnitud o intensidad del campo magnético en el centro de una espira
circular es:
Donde R es el radio de la espira, y μ
o
es la permeabilidad magnética del espacio libre.
El solenoide es un tipo de configuración que
tiene muchas aplicaciones prácticas y se basa en el
multiplicador. Consiste en un alambre largo (recubierto
por un aislante) devanado en forma de hélice con
espiras estrechamente espaciadas, de modo que las
espiras queden una al lado de la otra formando una
especie de túnel. Mediante este dispositivo se consigue
disponer de un “imán” muy intenso y con la ventaja de
tener acceso a su interior (ya que la bobina está hueca)
donde los efectos magnéticos son más intensos que en
el exterior.
En la foto presentada en la figura 23.10 se observa el campo magnético creado por un
solenoide. Las líneas se visualizan mejor que en las fotos anteriores debido a que el campo
tiene mayor intensidad, pues se suman las contribuciones de todas las espiras. El campo en su
interior es paralelo al eje del solenoide y constante.
En los extremos se notan “efectos de borde”, donde las líneas de campo empiezan a
abrirse. También se observa que fuera del solenoide las limaduras de hierro están uniforme-
mente distribuidas, indicando que no son afectadas por el campo. (Fuera del solenoide
).

154 155
Más intenso aún: el electroimán
El hecho de que dependa del valor de μ
o
y por tanto de las características del medio,
sugiere la posibilidad de introducir un núcleo de hierro dulce en el interior del solenoide
recorrido por una corriente, esto permite conseguir un campo magnético más intenso con la
misma intensidad de corriente I.
Este es precisamente el fundamento del electroimán. Si el núcleo en el interior de la
bobina fuese de acero, su imantación permanecería aún después de desconectar la corriente,
con lo que habríamos construido así un imán permanente artificial. Los electroimanes tienen
propiedades esenciales:
Son imanes temporales. Actúan sólo en presencia de corriente, esto amplía el número
de sus posibles aplicaciones.
El campo magnético del núcleo de un electroimán puede alcanzar la saturación, siendo
mucho más fuerte generalmente que la de un imán permanente y, por consiguiente,
produce efectos magnéticos mucho más intensos.
Permiten controlar la potencia del imán según nos convenga, con sólo variar la
intensidad de la corriente eléctrica que recorre la bobina.
Módulo del campo magnético debido a un solenoide
El estudio experimental del campo magnético debido a un solenoide en un punto
cualquiera de su interior pone de manifiesto que una mayor proximidad entre las espiras produce un campo magnético más intenso, lo cual se refleja a través del cociente n= N/L, siendo N el número de espiras y L la longitud del solenoide. El campo magnético en el interior de una bobina muy larga es prácticamente uniforme y su módulo viene dado por:
Para determinar la dirección del campo magnético, aplicamos la regla de la mano
derecha, tomamos cómo se muestra en la figura 23.12 la bobina en el sentido de la corriente,
el pulgar indicará el sentido de las líneas de campo magnético.
Figura 23.12. Los cuatro dedos de la mano derecha indican la corriente,
el pulgar señala el sentido de las líneas del campo magnético.



El electroimán tiene una multitud de aplicaciones en la vida cotidiana, lo podemos
encontrar en timbres eléctricos, relés que permiten controlar circuitos, instrumentos de
mediciones eléctricas, grandes grúas para cargar chatarras, disyuntores, inductores de
máquinas eléctricas, entre otros. Vamos a describir algunas de ellas:
-Grúas magnéticas: se utilizan para piezas de hierro y acero, permiten el transporte
seguro, rápido y que no dañan el material. Se utilizan para: transporte de perfiles de laminación,
transporte de barras y grandes tubos de acero, entre otros.
-Platos magnéticos: son utilizados en máquinas y herramientas. El plato o disco magné -
tico es el componente principal de un disco duro: es un disco circular en el que se almacenan
datos en forma magnética.
-Embragues magnéticos: está constituido por una corona de acero que se monta sobre
el volante de inercia del motor. En el interior de esta corona va alojada una bobina que, al pasar
corriente eléctrica a su través, produce un campo magnético en la zona del entrehierro formado
entre la corona y el disco de acero. Se utilizan para conectar y desconectar el compresor de un
motor. Sus principales componentes son el estator, rotor y placa de presión.
-Frenos magnéticos: este tipo de freno es de inercia, pero basándose en imanes
pequeños, los cuales ejercen un campo magnético sobre la bobina, pudiendo de esta forma
reducir la velocidad de giro a voluntad.
-Separación magnética: ésta se aplica para separar materiales paramagnéticos y mate -
riales ferromagnéticos, por ejemplo, en la industria del caolín, para separar sustancias magnéti-
cas de la arcilla; para la limpieza magnética selectiva del carbón, que implica separar sustancias
minerales de sustancias orgánicas.
 -Limpieza de aguas contaminadas: por medio de campos magnéticos se pueden separar
las impurezas que al estar disueltas en agua quedan ionizadas y al fluir a través de un campo
magnético pueden ser desviadas por éste y así ser apartadas del agua.
Figura 23. 13. Aplicaciones de los electroimanes.

156 157
Circulación del campo magnético: Ley de Ampère

El primer miembro

es la intensidad del campo multiplicada por la longitud de la
trayectoria cerrada a la que es tangente. Y como es inversamente proporcional al radio del
círculo, el producto es el mismo para todas las circunferencias que rodean una corriente
rectilínea (I) a la distancia (r). Este producto es un caso especial de lo que se denomina
circulación de .
Para tener mayor generalidad, vamos a considerar cualquier trayectoria cerrada, una
circunferencia o un bucle irregular como el que se muestra en la figura 23.15.
La circulación depende únicamente de la corriente neta que atraviesa la superficie
limitada por la curva. En dicha figura, por ejemplo, la circulación es la misma a lo largo de
las curvas 1 y 2 ya que es la misma corriente (I) que atraviesa cada superficie. En cambio, la
circulación a lo largo de la curva 3, resulta cero, ya que ninguna corriente atraviesa la superficie
encerrada aunque la trayectoria está dentro del campo magnético producido por I.
Figura 23.14. Campo magnético producido por
una corriente rectilínea.
Resulta de interés establecer una relación cuan-
titativa entre el patrón del campo magnético a lo largo de una trayectoria cerrada y la cantidad de corriente que lo produce, en atención a la corriente que atraviesa la región limitada por la citada trayectoria.
Vamos a considerar la ecuación del campo
magnético producido por una corriente rectilínea, en un punto situado a una distancia r de éste, la cual ya viste antes:
Figura 23.15. La circulación a lo
largo de la curva 1 es igual a la
circulación de la curva 2, pero la
circulación a lo largo de 3 es cero.
¿Cómo podemos explicar este último caso? Considera la longitud con una serie de
segmentos pequeños, prácticamente rectilíneos, si determinamos el producto de cada uno por la componente de
en su dirección, y luego los sumamos, el resultado de la circulación de
para la trayectoria 3 será nulo.
La culminación de los trabajos sobre los efectos magnéticos de las corrientes constantes
de Ampère (1775-1836), físico francés, en 1826, cierra con un teorema que se conoce como ley de Ampère. El enunciado de esa ley es:
La circulación del vector campo magnético a lo largo de una
trayectoria cerrada es proporcional a la corriente neta que atraviesa el área que limita la trayectoria.
Figura 23.16. La circulación de
a través de una
superficie limitada por la curva que encierra las
corrientes I
3
e I
2
. (Circuito amperiano).
La ley de Ampère resulta de suma
utilidad para el cálculo de campos magnéticos en situaciones de alta simetría donde es posible predecir la forma de las líneas de campo
y por tanto, encontrar una curva
que sea tangente a estas líneas en donde
sea constante en módulo.
La circulación de depende única-
mente de la corriente total que encierra la curva. En la figura 23.16 la corriente neta encerrada es la suma algebraica I
enc
= I
2
- I
3
. Las
corrientes no encerradas, I
1
e I
4
contribuyen
al campo
pero no así a su circulación en la
trayectoria seleccionada.
Empleando la ley de Ampère pode-
mos determinar el campo creado por distin- tos tipos de corriente. A continuación vere-
mos dos casos: el solenoide ideal y el toroide de sección transversal circular.
Campo magnético de un solenoide
Para obtener el campo magnético en el interior de un solenoide vamos a considerar
un circuito amperiano formado por un rectángulo. El lado más largo estará en el interior de la
bobina, paralelo a su eje donde el campo es uniforme. El otro lado largo del rectángulo se ubica
en el exterior donde el campo es muy débil. Este lado por tanto, no contribuye significativamente
a la circulación. Este rectángulo encierra N conductores con corriente (I), en el mismo sentido.
Los otros dos lados cortos no contribuyen a la circulación del campo, porque las líneas
de campo son prácticamente perpendiculares a dichos segmentos. Por lo tanto, únicamente la
componente del campo paralela al primer tramo analizado contribuye a la circulación. Así, la
circulación en el rectángulo es igual a: BL, (L longitud del rectángulo).
Expresada como,

158 159
Figura 23.17. Una bobina de N espiras, de radio R y longitud L, por la que circula una corriente I, produce un campo
en su interior. Gráfica de la magnitud del campo en función de su longitud.
l
l
En síntesis, el campo magnético en el interior de un solenoide ideal que tiene n vueltas
por unidad de longitud L (n = N/L), de acuerdo con la ley de Ampere es:
Como puedes ver, en una bobina lo que interesa es el número de espiras por unidad de
longitud y la corriente que por esta circula. Mientras más espiras tenga mayor será el campo
que produce en su interior, de ahí su importancia.
Campo magnético de un toroide circular
Otra configuración de corriente interesante es el toroide. Esta es semejante a una
rueda de automóvil, algo así como si un solenoide largo lo doblases en círculo hasta juntar
sus extremos. Un toroide consiste de un número de N vueltas enrolladas de manera compacta
alrededor de un eje circular (figura 23.18).
Esta forma presenta gran simetría, el campo magnético tendrá el mismo valor a lo
largo de una trayectoria circular de radio r centrada en el propio toroide. Consideremos una
trayectoria de radio (r) que encierra todas las (N) espiras, cada una con corriente (I), de manera
que aplicando la ley de Ampère a esa curva, se puede expresar:
Observa que este campo disminuye al aumentar el radio, por lo tanto, en el interior del
toroide no es uniforme. Sin embargo, en los toroides muy grandes, con ancho (b - a) pequeño
comparado con su radio (figura 23.18), presentan una variación no muy grande del campo en
su sección interior, por lo que se puede aproximar a un valor intermedio igual a: B = μ
o
NI.
Los toroides y solenoides son componentes importantes en los aceleradores de partículas
para generar campos magnéticos de gran intensidad.
Figura 23.18. Solenoide toroidal. Para mayor claridad sólo se presentan unas pocas espiras del devanado. El campo
magnético es casi cero en todos los puntos, excepto dentro del espacio encerrado por los devanados.
Acciones entre corrientes paralelas
Las corrientes eléctricas en presencia de imanes sufren fuerzas magnéticas, además las
corrientes eléctricas y no sólo los imanes producen campos magnéticos; de modo que dos corrientes eléctricas suficientemente próximas experimentarán entre sí fuerzas magnéticas de una forma parecida a lo que sucede con dos imanes, es decir, cuando tengamos dos corrientes paralelas, entre ellas se establecerá una interacción magnética.
El origen de estas fuerzas que se ejercen ambos conductores está en la corriente
eléctrica que circula por ellos, cada conductor crea un campo magnético a su alrededor que afecta al otro, ejerciéndole una fuerza que viene dada por la expresión:
(a) Se atraen (b) Se repelen
Figura 23.19. Los conductores paralelos que transportan corrientes en un mismo sentido se atraen mutuamente
(izquierda) y si las corrientes tienen sentidos opuestos se repelen mutuamente (derecha). El diagrama muestra cómo
ejerce una fuerza sobre el conductor anaranjado el campo magnético generado por el conductor verde y viceversa.
Podemos establecer la fuerza magnética que ejerce el campo magnético creado
por un conductor con corriente I
1
sobre otro conductor con corriente I
2
ubicado a cierta distancia
(d), mediante la expresión anterior, y viceversa para la fuerza
.

160 161
La definición de la unidad de corriente Ampère
El hecho de que dos corrientes paralelas interactúen entre sí se ha aprovechado para
definir la unidad de medida de intensidad de corriente eléctrica, el amperio (A), de una forma
operacional, es decir, una definición basada en una operación de medida. Esta definición
establece que: u
n amperio es la intensidad de una corriente eléctrica constante que, cuando fluye
por dos conductores paralelos de longitud indefinida y de sección transversal circular infinitamente
pequeña, situados a una distancia recíproca de 1 m y colocados en el vacío, hace que un conductor
ejerza sobre el otro una fuerza de 2.10
-7
N por cada metro de conductor.
El campo magnético sobre la superficie terrestre
Un cable de electricidad ubicado entre dos postes se encuentra paralelo a la superficie
de la Tierra a una altura de 10 m. Por el cable circula una corriente de 500 A. ¿Cuál será el valor del campo magnético en la superficie de la Tierra?
Consideramos el cable como una corriente rectilínea, imaginamos que la altura es el
radio de una línea de campo que pasa por la superficie. Sabemos que en cualquier punto de esta circunferencia el campo tiene el mismo valor y corresponde a:
de donde, para una corriente de 500 A y un radio de 10 m, el campo tendrá una magnitud de:
Como puedes notar este campo magnético es del orden del campo magnético que
produce la Tierra.
Verifica que estas fuerzas serán atractivas como se muestra en la figura 23.19.a, cuando
las corrientes tienen el mismo sentido, y repulsivas cuando van en sentidos opuestos.
La intensidad del campo magnético creado por la corriente I
1
a la distancia (d), de otra
corriente I
2
paralela, será:

Por lo tanto, considerando que este campo es perpendicular al sentido de la corriente
I
2
, la fuerza magnética sobre esta corriente será:
, sustituyendo la magnitud del
campo en esta relación obtenemos:
Observando campos magnéticos
Campo magnético producido por un conductor rectilíneo con corriente
Líneas de campo magnético creado por un solenoide
En la dirección http://www.walter-fendt.de/ph14s/mfwire_s.htm puedes descargar la
simulación en español. ¿Qué representan los signos en los extremos del hilo? ¿Qué representan las flechas rojas? Observa el movimiento de los electrones (puntos verdes) y compara con el sentido de las flechas rojas, ¿cómo es la dirección? Explica. Pulsa el botón invertir la corriente, ¿qué cambios observas?
Describe las líneas de campo magnético creado por un solenoide de unas pocas espiras
en el que circula una corriente, utilizando limaduras de hierro. ¿Cómo podrías extrapolar esta observación para el caso de un solenoide muy largo con espiras adyacentes?
Indaga sobre equipos electromagnéticos
Una vez analizados los conceptos más importantes del tema de fuentes del campo
magnético estacionario, vamos a continuación a prestar especial atención a las interacciones ciencia/tecnología/sociedad, por ser este un aspecto esencial. En esta actividad analizaremos diversas aplicaciones de carácter tecnológico, cuyo fundamento científico se basa en las lecturas previas. Algunas, de las muchas aplicaciones que se podrían plantear, pudieran ser ver cómo funciona: un electroimán, un relé, base del funcionamiento del motor de arranque de un automóvil, báscula electrónica, tren de levitación magnética, motor eléctrico.
Con una brújula y una bobina de muchas espiras con corriente (a unos 20 cm de la
misma) explora con la brújula el campo magnético en el eje de la bobina, de modo que el campo magnético creado por la bobina al conectar una fuente de corriente continua sea apro-
ximadamente perpendicular al campo magnético terrestre. ¿Cómo puedes interpretar en este caso el principio de superposición de campos? ¿Podrías determinar en base a lo que observas si el campo creado por la bobina es mayor, menor o aproximadamente igual a la componente horizontal del campo magnético terrestre? (Para la parte experimental, antes de conectar es importante considerar el valor de la resistencia de la bobina, el voltaje de la batería y la co-
rriente máxima admitida). Estudia la influencia de distintos materiales en el campo magnético, colocando en el interior de la bobina distintos materiales: plásticos, plomo, hierro.

162 163
Actividades de autoevaluación
1. Elabora una síntesis de las características del
campo magnético y las líneas de campo, para el caso
de: imanes, carga puntual móvil, un segmento de una
alambre con corriente, una espira, solenoide y toroide.
2. Dos hilos conductores L y M, paralelos entre sí,
están recorridos por una intensidad de corriente de valor,
I y 3I, respectivamente. Compara las fuerzas que los dos
hilos se ejercen entre sí. Explica.
3. ¿Cómo cambiaría la circulación de si se
duplicara el radio de la circunferencia que hemos elegido? Dibuja los vectores de
¿Qué sucedería si no fuese cir-
cular el camino que se ha elegido? ¿Qué sucedería si la corriente estuviese fuera del camino?
4. Ordena de menor a mayor el valor de la
circulación de para las diferentes trayectorias cerradas
mostradas en la figura de la derecha.
5. Dibuja las líneas del campo magnético que genera una corriente rectilínea. Calcula el
campo magnético creado por un conductor rectilíneo por el que circula una corriente de 2,5 A en un punto situado a 3 m del conductor.
6. Un tren de alta velocidad cuyos motores consumen una potencia máxima de 8.000 kW,
es alimentado mediante una catenaria o cable aéreo que proporciona una fem de 3.000 V en corriente continua. Calcula el campo magnético que se genera a una distancia de 2 m de dicho cable, suponiendo que se puede considerar como un hilo rectilíneo e indefinido.
7. Dos espiras circulares conductoras idénticas llevan la misma
corriente I. Las espiras están colocadas como se muestra en la figura. Dibuja el vector que representa mejor la dirección del campo magnético en el punto P, a medio camino entre las espiras. Explica.
8. Plantea hipótesis sobre los factores que determinan el campo
magnético producido por una bobina o solenoide. Considera después una bobina de 1.250 espiras con una longitud de 48 cm y radio de 1,5 cm. Calcula el campo magnético en el centro de ella cuando circula una corriente de 2 A.
9. Dos conductores rectos e ilimitados pasan por los vértices de un triángulo equilátero de
10 cm de lado. Las corrientes son de 15 A y las direcciones aparecen en el dibujo. Calcula el campo magnético creado en el vértice 1.
10. Una bobina circular, cuyo diámetro es de 20 cm, está formada por 50 espiras de hilo
conductor de sección despreciable. Calcula la corriente que debe circular por ella para que el campo magnético en su interior sea de 4·10
-3
T.
11. Calcula el campo magnético creado en el punto medio entre dos conductores paralelos
y rectilíneos separados 20 cm y recorridos por corrientes del mismo sentido de 15 A y 25 A.
12. Un conductor A largo y rectilíneo conduce una corriente de 5,25 A y otro B paralelo
y distante 15 cm conduce 10 A en sentido opuesto. Calcula el campo magnético en un punto P distante 10 cm de A y 25 cm de B.
13. Dos conductores rectilíneos paralelos y muy largos, separados una distancia 2d
transportan corrientes de igual intensidad pero de sentidos contrarios, como se indica en la figura. Calcula: a) El valor del campo magnético, previa hipótesis de variables, en un punto genérico del eje OX. b) Analiza el resultado y calcula su valor máximo y el punto donde se localiza. c) Representa gráficamente B en función de x.

164 165
En lecturas anteriores pudiste aprender sobre cómo una corriente eléctrica
crea un campo magnético en el espacio alrededor de ella, y un campo magnético
ejerce una fuerza sobre cargas en movimiento o corrientes eléctricas.
A partir de ello, M. Faraday se preguntó, ¿será posible obtener electricidad del
magnetismo? De esta forma, para 1831, presentó sus primeros trabajos con respuestas
convincentes. De manera simultánea, otros científicos como J. Henry y H. F. Lenz
trabajaron ante la misma interrogante. Sin embargo, Faraday propuso el modelo de
campo para explicar las interacciones eléctricas y magnéticas, y su interrelación, como
propiedades del espacio que rodea a las cargas estáticas, los imanes y las cargas en
movimiento (corrientes), apartándose de la idea newtoniana de acción a distancia;
lo cual, junto con sus resultados experimentales, sentó las bases para un cambio
transcendente que llevó a la teoría de campos del electromagnetismo.
Ante la pregunta: ¿cómo se produce la corriente eléctrica que utilizamos
en nuestras casas?, el conocimiento y comprensión del fenómeno de inducción
electromagnética es básico, por su papel tanto en la generación de energía eléctrica
como en su transporte a largas distancias y su distribución a los diversos centros de
producción social y consumo residencial, comercial, urbano, rural, entre otros.
En esta lectura encontrarás contenidos relacionados con la inducción electro-
magnética, como la ley de Faraday y la ley de Lenz, los fenómenos de autoinducción e
inducción mutua, y algunas de sus aplicaciones como la generación de una corriente
alterna, la elevación o reducción de la tensión de una corriente variable y los circuitos
de corriente alterna.
Un año después, de un modo independiente, el físico norteamericano Joseph Henry
(1797-1878) reporta la observación del mismo tipo de fenómeno en un experimento similar.
Dos años más tarde, en 1834, el físico ruso Heinrich Lenz (1804-1865) expuso en forma
matemática el modelo de inducción de Faraday, con lo cual se puede predecir el sentido de la
fuerza electromotriz inducida por la variación de un campo magnético.
Pronto se dieron importantes aplicaciones de la inducción electromagnética. Entre
ellas, encontrarás: el generador de corriente alterna, diseñado en 1866, por el alemán Karl
W. Siemens. Un dispositivo en que al hacer girar una bobina cerca de un imán genera en ella
un voltaje, que provoca una corriente eléctrica en sí misma. Este generador se suele llamar
alternador. Si le colocamos unos contactos producirá corriente continua, en cuyo caso, se
denomina dinamo.
El aprovechamiento a gran escala de la inducción electromagnética para producir
corriente está ligado a una polémica conocida como “guerra de las corrientes”, entre dos grupos
de investigadores y tecnólogos, por un lado el de T. A. Edison, de finales del siglo XIX, que
defendía el uso de la corriente continua para la iluminación de las ciudades y, por otro, los
partidarios de la corriente alterna, generada y trasmitida con un diseño de Nikola Tesla.
Además, para la trasmisión de la corriente a grandes distancias se requería que tuviera
poca intensidad (efecto Joule), por lo que se creó un mecanismo para aumentar la tensión
reduciendo la intensidad, para su transporte y, al final de su destino, volver a reducir la tensión
para un uso más seguro. Este dispositivo es el transformador.
Figura 24.1. El campo magnético en la bobina
varía al abrir y cerrar el circuito. Este campo
variable pasa por el interior del enrollado de
cable de otro circuito con una bombilla de
linterna sin fuente de voltaje, con lo que la
lámpara enciende.
Un poco de historia
Con las observaciones de Oersted en 1820,
acerca de que una corriente eléctrica era capaz de
orientar una brújula cercana, es decir, una corriente
eléctrica podía proveer al espacio de propiedades
magnéticas, y las ideas propuestas por Ampère,
acerca de que las corrientes entre sí producían fuer-
zas magnéticas, se admitió la primera conexión entre
la electricidad y el magnetismo, y se dio paso hacia
un nuevo modelo sobre la corriente, abandonándose
la idea de fluido.
Se trataba ahora de plantearse lo contrario, es
decir, si el fenómeno magnético podía generar una
corriente eléctrica. Así pues, en la década siguiente
(1830), los experimentos de M. Faraday, y sus ideas
sobre campo, líneas de campo, variación de éste en
el espacio, permitieron la obtención de una corriente
eléctrica en un circuito sin fuente de voltaje, mediante
la variación del campo magnético en el entorno; esta
corriente se podía detectar con un medidor.
Inducción electromagnética24

166 167
Algo más sobre los aportes de Michael Faraday
En una lectura previa vimos las ideas de Faraday sobre líneas de campo, para representar
las propiedades eléctricas y magnéticas del espacio, y describir fenómenos que ocurren debido
a éstas. Ahora, vamos a centrarnos en sus aportes sobre la inducción electromagnética. Faraday
estaba convencido de que un campo magnético es capaz de producir una corriente eléctrica. A
continuación vamos a describir dos de sus experimentos claves.
Inducción electromagnética producida por los campos magnéticos de los
imanes
La inducción electromagnética es el principio sobre el que se basa el funciona -
miento del generador eléctrico, el transformador y muchos otros dispositivos que nos be-
nefician diariamente.
¿Cómo se produce el campo eléctrico que genera la corriente?
Consideremos ahora un hilo conductor, cuya longitud L está dentro de un campo
magnético uniforme, colocado perpendicularmente a las líneas de campo. Mientras no haya
movimiento relativo, no existirá una diferencia de potencial entre los extremos del hilo, y
tampoco se ejercerá fuerza magnética sobre las cargas que conforman el material tal como lo
puedes comprobar con la expresión de fuerza magnética:
.
Cabe recordar que los electrones de valencia del material del conductor se están
moviendo, pero recuerda que se considera que lo hacen de manera aleatoria por lo que el resultado neto de la fuerza magnética que sufre el hilo es cero.
Pongamos ahora el hilo en movimiento dentro del campo magnético, manteniéndolo en
el plano perpendicular al campo, por ejemplo, hacia la derecha, como señala la figura 24.
4. Por
lo tanto los electrones de valencia tendrán una componente de velocidad hacia dicho senti- do, respecto de un observador inercial, y para este obsevador los electrones sufren una fuerza magnética que va dirigida hacia abajo (regla de la mano derecha teniendo en cuenta que se trata de cargas negativas, electrones).
Inducción electromagnética producida por los campos magnéticos de las
corrientes eléctricas
En este segundo experimento, tenemos un montaje formado por una primera bobina B
conectada a un galvanómetro; y otra bobina A de mayor diámetro que rodea a la anterior, por
la cual puede circular una corriente continua debido a una batería (figura 24.3).
Faraday se dio cuenta de que en el instante en que conectaba la batería ocurría una
desviación de la aguja del galvanómetro, indicando la existencia de una corriente en la bobina B,
la cual luego cesaba. Asimismo, al desconectar la batería, observó que la aguja del galvanómetro
se volvía a desviar ligeramente, ahora en sentido opuesto; nuevamente se producía corriente
en la bobina B, pero con sentido contrario.
Figura 24.3. Esquema del experimento de
inducción electromagnética de Faraday.
Figura 24.2. Al variar la distancia entre la
espira y el imán se produce una variación del
campo magnético en el interior de la espira
que origina una corriente inducida, la cual se
registra en el galvanómetro.
Con estas experiencias, Faraday confirmaba que efectivamente se producen corrientes
eléctricas sólo cuando el efecto magnético cambia. Por ello, esta corriente recibe el nombre de
corriente inducida, la cual aparece en un circuito cerrado cuando varía el campo magnético
externo a través del mismo, bien sea este producido por un imán o por una corriente. Además,
el sentido de la corriente depende de cómo sea esta variación del campo.
En este caso tenemos una espira conectada a
un galvanómetro (instrumento que mide corriente eléctrica) sin fuente de voltaje, por la que no pasa co-
rriente alguna. Mediante un imán podemos:
1) Acercar el polo norte o el polo sur, o 2) alejar el polo norte o el sur.
En cualquiera de los dos casos, se observa en el
galvanómetro una desviación de la aguja, lo cual es un
indicador de cuando en la espira circula corriente eléc-
trica. Además, la aguja se desvía en unos casos hacia
un lado y en otros en sentido contrario.
La corriente únicamente existe en la espira en
los momentos que se acerca o se aleja el imán, igual
fenómeno se produce si tenemos el imán fijo y es el
circuito el que se mueve hacia el imán. Por lo tanto, las
corrientes existen mientras dura el movimiento relativo
entre imán y espira.

168 169
Además, en el conductor se inicia una zona
de concentración de carga negativa y una zona de
concentración de carga positiva, entre sus extremos
se produce una diferencia de potencial, por lo que
sobre las cargas negativas comienza a ejercerse una
fuerza eléctrica que tiende a llevarlas a su posición
original debido a la acción del campo eléctrico indu-
cido. Bajo estas condiciones, las cargas están bajo la
acción de dos fuerzas:
.
E
sta separación de cargas eléctricas y, por tanto,
el incremento en la diferencia de potencial, aumenta hasta que ambas fuerzas se equilibran. Los módulos de la fuerza eléctrica y magnética son iguales:
En consecuencia, la fuerza electromotriz inducida, ε, en el hilo conductor será:

sustituyendo en la expresión anterior
en este caso se habla de una fuerza electromotriz de movimiento.
Si se invierte el sentido del movimiento del hilo conductor también se invertirá la
polaridad del voltaje inducido entre sus extremos.
Cuando el conductor en movimiento forme un ángulo
con el campo magnético, la
fuerza electromotriz inducida es: . Recuerda que la unidad de medida de esta
magnitud en el SI es el voltio (V).
Flujo magnético
Como vimos antes, en el caso de hilos conductores que determinan una superficie a
través de la cual se induce corriente, se analizó cómo variaba la cantidad de las líneas de campo
que la atraviesa. Para describir con mayor precisión esta relación se ha construido un concepto
que denominamos flujo magnético. Veamos de qué se trata.
Considera que tenemos una espira en una región del espacio donde existe un campo
magnético, entonces podemos imaginar que hay un cierto número de líneas de campo
“atravesando” dicha superficie (figura 24.5). En esas condiciones, decimos que hay un flujo
magnético a través de la misma.
En la figura 24.5 puedes notar que las líneas que representan al campo magnético
están más juntas en el caso (b) que en el caso (a), debido a la diferencia en la intensidad
del campo entre ellos. Asimismo, si imaginas una espira de menor superficie que la del
caso (a), la cantidad de líneas que la atraviesa debe de ser menor y, al contrario, si la
superficie es mayor la cantidad de líneas que la atraviesa también será mayor. Por tanto,
podemos concluir:
El flujo magnético a través de una superficie será mayor cuanto mayor sea el número de
líneas de campo que la “atraviesan”, y para un campo magnético dado, el flujo será mayor cuanto
mayor sea la superficie que sus líneas” atraviesan”.
También podemos destacar que cuando una superficie se coloca en un campo
magnético que tiene un determinado valor fijo, el flujo magnético a través de ella será diferente
dependiendo de su posición en el campo, como se muestra en la figura 24.6.
En la figura (a) la superficie es perpendicular a las líneas de campo, por lo que el flujo a
través de ella es máximo (máximo número posible de líneas “atravesando” la superficie).
En la figura (b), el número de líneas que pasa a través de la superficie es menor
que antes.
En la figura (c), la superficie está en una posición en que se encuentra paralela a las
líneas. Por lo tanto, ninguna línea la “atraviesa”, el flujo magnético a través de ella
es nulo.



Figura 24.4. Una fem igual a vBl se induce
entre los extremos de la barra.
Figura 24.5. Líneas de campo magnético que atraviesan el plano de
una espira, dos casos con diferente intensidad de campo, B
a
< B
b
.
Figura 24.6. La misma espira de superficie A colocada en diferentes posiciones respecto de
las líneas de campo: nota que el flujo magnético en a es mayor que en b, siendo cero en c.
(a)
(a)
(b)
(c)(b)

170 171
Para representar a la superficie se ha definido el vector superficie, . El cual tiene las
siguientes características:
Significa entonces que podemos representar el flujo del campo magnético a través
de la superficie, mediante el producto de la componente de la intensidad del campo ,
en la dirección del vector superficie, , por el área de la misma. Esto se puede expresar como
un producto escalar entre los dos vectores: .
Siendo θ el ángulo que forman el vector campo magnético y el vector superficie .
Como puedes notar, el flujo magnético puede considerarse como una medida relativa
del número de líneas de campo magnético que pasan a través de un superficie determinada.
La unidad de medida del flujo magnético en el SI es:
Por lo tanto, si a través de una superficie determinada por un conductor varía el flujo
magnético, se debe producir en él una corriente eléctrica inducida, una fem inducida.
Módulo: corresponde al valor de la superficie.
Dirección: perpendicular al plano de la superficie.
Sentido: si la superficie es cerrada, es decir, encierra
un volumen, como en el caso de una esfera, el vector
estará dirigido hacia fuera de dicha superficie; si la
superficie es plana, como la espira de la figura, se
considera el sentido que nos dé menor ángulo con
el vector campo magnético (B).



Figura 24.7. Vector superficie,
,
perpendicular al plano de la espira (normal).
Figura 24.8. El movimiento de la espira
dentro del campo magnético genera una
fuerza electromotriz en la misma, que
provoca el encendido del bombillo, esto
lo establece la ley de Faraday.
Figura 24.9. La variación del flujo magnético puede ser por cambios en: la intensidad del
campo magnético; el área de la espira; y el ángulo entre el vector campo magnético y el
vector superficie (perpendicular al plano de la espira, normal).
Nombre
Magnitud
Tipo de
magnitud
SímboloUnidad en
el SI
Conversión a unidades
básicas del SI
Flujo de campo
magnético
Escalar Weber (Wb) 1 Wb = 1 Tm
2
La inducción magnética: ley de Faraday y ley de Lenz
Con el fin de determinar la fuerza electromotriz inducida, podemos enunciar los resul-
tados de las investigaciones de Faraday y Henry descrita antes, de la siguiente forma:
La fem inducida, ε, en una espira varía proporcionalmente al negativo de la rapidez con
la cual cambia el flujo magnético a través de dicha espira.
La expresión matemática incluye un signo ne-
gativo que nos indica la polaridad de la fem, el cual fue
incorporado por Lenz. Como esta fem varía desde una
valor cero hasta un máximo y luego vuelve a cero, tene-
mos que el valor medio de ε se puede determinar con
la expresión:
Para determinar el valor instantáneo de la fem
inducida se requiere evaluar el cambio del flujo en
intervalos de tiempo infinitesimales que tienden a
cero, lo cual se realiza mediante el cálculo diferencial.
Esta ecuación recibe el nombre de ley de
inducción electromagnética de Faraday.
Si tenemos una bobina, la fuerza electromotriz inducida es proporcional al número
de espiras, por lo tanto, la expresión matemática de la fuerza electromotriz de inducción
es:

172 173
La ley de Lenz complementa
H. Lenz (1804-1865) siendo profesor de Física
de la Universidad de San Petersburgo (Rusia), entre
1833 y 1834, estableció que la polaridad de la fem
inducida debía ser tal que se opone a la causa que
la genera. Es decir, la corriente inducida produce un
campo magnético inducido, cuyo flujo es opuesto
al flujo inicial cuando éste va aumentando, pero
tiene el mismo sentido que el flujo inicial cuando
éste va disminuyendo. En general, la corriente pro-
duce un flujo magnético opuesto a la variación del
flujo que la induce. El signo negativo (-) en la ley de
Faraday representa esta situación.
En realidad lo que establece la ley de Lenz
es que se tiene que cumplir el principio de conser-
vación de la energía. Esa energía exterior es igual
a la energía eléctrica que se queda en la espira en
forma de calor (efecto Joule). En la figura siguiente
se ilustra esta ley.
Corrientes de Foucault
En muchas piezas de aparatos eléctricos hay masas metálicas móviles, ferromagnéticas
o no, que están en el interior de un campo magnético, o bien, las piezas metálicas están fijas en
un campo magnético variable. En ambos casos, el flujo a través del metal varía continuamente,
esto tiene por resultado que se produzcan corrientes inducidas en las piezas, sin un camino
definido, en virtud de la Ley de Lenz tienden a oponerse a las causas que la producen. Estas
corrientes reciben el nombre de corrientes de Foucault y pueden estar presentes en todo
conductor en el que varíe el flujo magnético.
Estas corrientes son aprovechadas en dispositivos de frenado suave en trenes de
transporte (Metro), y en el funcionamiento de los galvanómetros, entre otros casos. Pero, en
muchas ocasiones resultan perjudiciales, ya que producen un calentamiento en equipos como
generadores y motores, por efecto Joule, por lo que ocasionan una transferencia de energía en
forma de calor que disminuye el rendimiento de los aparatos.
Para disminuir este efecto, en lugar de poner piezas macizas de metal, se ponen en
forma de láminas separadas por un dieléctrico (hojas de papel o barniz), también se utilizan
aleaciones de ferroníquel de gran resistividad, con lo cual disminuye la posibilidad de formación
de esos torbellinos, o se diseñan con formas que evitan la circulación de corriente.
Figura 24.10. (Superior) El flujo magnético está
aumentando, la corriente inducida es tal que el
campo magnético inducido es opuesto.
(Inferior) El flujo magnético está disminuyendo, la
corriente inducida es tal que el campo magnético
inducido está en el mismo sentido.
Figura 24.11. Autoinductancia
de una espira.
Autoinductancia
En todo circuito con corriente se genera un campo magnético que por supuesto implica
un flujo a través de cualquier superficie limitada por el mismo. Si la corriente varía en el tiempo,
el flujo de campo magnético también cambiará, generando, de acuerdo a la ley de Faraday, una
fuerza electromotriz inducida en la propia espira. Esa fem inducida se opone al cambio de flujo.
Como en el circuito ese flujo
(t), en todo momento, es proporcional a la corriente eléctrica
I(t), , donde la constante de proporcionalidad L se conoce como autoinductancia. Por
lo tanto, para una bobina de N espiras, se tiene: . La unidad en el SI es el henrio (H), el
cual equivale a 1 H = 1 T m
2
/A.
El valor de L depende de las características
geométricas de la bobina, es decir, forma, dimensiones, número de espiras y el material. Por ejemplo, una bobina o solenoide muy largo, tendrá menor L que uno corto. Y una bobina con espiras de mayor superficie, tendrá mayor L que una con menor superficie.
En los circuitos tenemos un dispositivo llamado
inductor que consiste en una bobina de alambre, que
produce efectos de inducción electromagnética sólo
cuando la corriente varía en el tiempo. En ellos, de
acuerdo con la ley de Faraday, tenemos que la fem
inducida es proporcional a la variación de la corriente
en el tiempo:
¿Por qué saltan chispas al desenchufar un aparato eléctrico?
Seguro que has observado alguna vez cómo saltan chispas eléctricas cuando sacamos
el enchufe del tomacorriente que conecta un aparato eléctrico. Esa chispa está producida por
la llamada extracorriente de cierre, que se produce como reacción a la brusca disminución de
la corriente que hace funcionar al aparato. Mientras más rápido se saca el enchufe y mayor
era la intensidad de corriente que circulaba por el aparato, mayor será la chispa provocada
por la extracorriente de cierre. También se puede observar esta chispa cuando introducimos el
enchufe en el tomacorriente.
Este es un fenómeno de autoinducción electromagnética que produce unas corrientes
extras de apertura y cierre en un circuito. Cuando un circuito se cierra, la intensidad de corriente
aumenta rápidamente desde el valor 0 hasta el valor máximo, produciéndose esta variación en
poco tiempo. En consecuencia, se produce una fem autoinducida en sentido contrario. Cuando
se abre el circuito, la intensidad de corriente cae rápidamente a cero y ahora la fem autoinducida
se opone a esa disminución de intensidad.

174 175
Autoinductancia de un solenoide
El solenoide de la figura conduce una corriente I. Imagina que es suficientemente largo
( l >> R).¿Qué autoinducción tendrá?
El campo magnético en su interior será uniforme y estará orientado a lo largo de su eje.
El módulo de este campo magnético, como sabes, es: . Donde n es el
número de vueltas por unidad de longitud ().
El flujo a través de cada una de las espiras de área es:
La autoinductancia (L) del solenoide es la relación entre el flujo y la corriente, por lo tanto:
Tenemos que el valor (L) es:
Observa que la autoinductancia depende de la forma y las dimensiones del solenoide.
Generación de corriente alterna
El descubrimiento de las corrientes inducidas supuso el comienzo de un desarrollo
tecnológico con gran trascendencia. Brindó la posibilidad de generar corrientes eléctricas
alternas (CA) que son las que hoy se usan a nivel doméstico e industrial. Para ello se diseñaron
dispositivos conocidos como generadores de corriente. La figura muestra un esquema de un
generador en un circuito.
Este efecto, de acuerdo a la ley de Faraday, produce una fem inducida en la espira que
será alterna. Es decir, su magnitud y sentido variarán cíclicamente.
Ahora, consideremos el generador formado por N espiras girando con Movimiento
Circular Uniforme (M.C.U.), ya sabemos que el ángulo varía periódicamente, es decir:
, donde ω es la rapidez angular y es el ángulo en t = 0.
Entonces, el flujo magnético sobre las N espiras debido a la rotación es:

Como este flujo varía en cada instante, la fem inducida (ley de Faraday) mediante el
cálculo diferencial se obtiene:

Figura 24.12. Generador de corriente alterna simple,
bobina representada por una sola espira, la cual se
hace rotar y de esta manera el flujo magnético varía.
Ello provoca que la corriente eléctrica inducida circule
alternadamente en un sentido y en el sentido contrario: es
así una corriente alterna (CA).
Figura 24.13. Gráfico de la fem inducida
en el tiempo, en un generador.
La expresión muestra que la fem induci-
da (ε) es función del tiempo y esta dependencia
es además alterna, lo cual está representado por
la función seno. En consecuencia, fem inducida
máxima, amplitud, es NABω. Por lo tanto, su pe-
ríodo es: T=2π/ω y su frecuencia será: f=ω/2π. Este
tipo de corrientes puede variar en su frecuencia y
voltaje, por ejemplo, en las redes domésticas por lo
general tenemos una fuente de valores máximos
de más o menos 170 V (lo que conocemos como
120V es un valor equivalente) cuya frecuencia es
de 60 Hz. Esta corriente es lo que se produce en las
centrales eléctricas y las plantas portátiles.
Imaginemos que tenemos una
bobina de área A y N vueltas, donde los
extremos están unidos a dos anillos co-
nectados con el circuito externo. Estas
espiras giran en un campo magnético
uniforme
, lo que indica que el área
proyectada perpendicular al campo va- ría, provocando que el flujo magnético correspondiente se cambie alternada- mente dado el giro sobre el eje (figura 24.12).

176 177
Transformadores eléctricos
La CA una vez generada hay que distribuirla a grandes distancias, en el transporte de
la energía eléctrica es inevitable el efecto Joule, el cual se ve más afectado por la intensidad
de corriente que por el voltaje. Recuerda que, al circular corriente eléctrica, parte de la energía
cinética de los electrones se transforma en energía térmica, debido a los choques que sufren
con los átomos del material conductor por el que circulan, este es el efecto Joule. Para hacer
mínima esta trasferencia de energía en forma de calor, además de seleccionar adecuadamente
la resistividad de los cables y su geometría, es necesario disminuir la corriente.
Para ello, primero en la salida del generador, se eleva su diferencia de potencial,
disminuyendo su intensidad de corriente, con el fin de transportarla. Finalmente, es dismi-
nuida en su diferencia de potencial aumentando su corriente, para que permita su uso do-
méstico, comercial e industrial. Este procedimiento es posible gracias un dispositivo conocido
cómo transformadores.
Para poder disminuir la intensidad y que se mantenga constante la potencia transmitida
tendremos que aumentar proporcionalmente el voltaje (P = V I).
(a) (b)
(c)
Figura 24.14. (a) Transformador de 36 MW en la subestación Lechería,
Venezuela. (b) Transformador de potencia en los postes que distribuyen la
energía a los centros de consumo. (c) Símbolo de un transformador eléctrico.
Figura 24.15. Partes de un transformador.
¿Cómo están diseñados los transformadores?
Un transformador consiste de dos devanados o bobinas, una llamada primaria (P) y
otra secundaria (S), las cuales están arrolladas a un mismo núcleo de hierro. Este material tiene
alta permeabilidad magnética, de manera que los campos magnéticos generados son muy
intensos.
En el devanado primario se conecta una fem alterna de manera que en el secundario
(S) se produce una corriente alterna inducida. Ésta tendrá la misma frecuencia que la corriente
alterna inductora del primario. La presencia del núcleo de hierro evita la dispersión del flujo
magnético, así las líneas de campo estarán muy juntas y el campo magnético será muy intenso.
La fem aplicada en el primario es
donde: N
p
es el número de espiras del
bobinado primario.
El voltaje de salida en el secundario es , donde: N
s
es el número de espiras
del bobinado.
Considerando que la variación del flujo magnético ocurre igual en ambas bobinas, al
dividir las relaciones anteriores obtenemos: .
Si V
P
> V
S
el transformador se llama reductor o transformador de baja. En éstos el
número de espiras del primario es mayor que el número de espiras del secundario. Si V
P
< V
S
el transformador se llama elevador o transformador de alta y N
P
< N
S
.
En un transformador ideal donde toda la energía eléctrica se conserva, la potencia de
entrada en el primario será igual a la potencia de salida en el secundario: P = V
P
I
P
= V
S
I
S
. Es
por esta relación que los transformadores hacen posible que la energía eléctrica se pueda
transportar en líneas de alta tensión con baja intensidad de corriente.

178 179
Los circuitos de corriente alterna
Cada aparato electrodoméstico que enchufamos en un tomacorriente es energizado
desde una planta generadora de fuerza electromotriz alterna. La casi totalidad de la energía
eléctrica que se suministra a usuarios residenciales e industriales en todo el mundo, es de este
tipo. Una razón de la preponderancia del voltaje alterno sobre el voltaje directo es la facilidad
con la que se puede cambiar su amplitud mediante el uso de transformadores, basándose en el
principio de inducción electromagnética, como ya leíste.
De esta manera, la energía eléctrica puede ser transportada a largas distancias a voltajes
elevados y corrientes bajas, con pérdidas mínimas de energía en las líneas. Por otra parte, la
transmisión y recepción de señales de radio, TV y comunicaciones, se lleva a cabo mediante
corrientes alternas sinusoidales (ver figura 24.16).
La fuente de voltaje alterno y la corriente alterna
Un generador de voltaje alterno es una fuente cuya polaridad cambia con cierta
periodicidad. En esta lectura vamos a considerar las corrientes que varían de manera sinusoidal.
El voltaje que es suministrado a la red de alimentación industrial y doméstica en nuestro
país, opera a una frecuencia f de 60 Hz. ¡Significa que su polaridad se invierte 120 veces
cada segundo!
Hemos visto que una manera de producir un voltaje alterno sinusoidal es haciendo
girar una espira a una velocidad angular constante, ω, en un campo magnético uniforme
(generador). La fuerza electromotriz que aparece a través de los extremos de la espira, se
describe mediante la función:

Donde V
max
(en voltios) es el valor máximo o amplitud del voltaje. La frecuencia f de la
fem y el período T están relacionados con la velocidad angular
ω, de acuerdo con la relación
que conoces: ω = 2πf = 2π/T (rad/s).
Supongamos que conectamos una fem alterna cuyo voltaje está descrito por la
expresión anterior a un circuito constituido por elementos resistivos, bobinas o condensadores,
¿cómo será la corriente eléctrica en cada caso? A continuación verás el análisis respectivo.
Resistencia en un circuito CA
Si a un circuito conformado por una
fuente de voltaje alterno y una resistencia
R, le aplicamos una diferencia de potencial
, la corriente que se establece en
cada instante está dada por la relación I = V/R.

Observa que la amplitud de la corriente
es: .
En el gráfico representamos el voltaje
y la corriente en función del tiempo. Como puedes ver, el voltaje y la corriente alcanzan los valores cero y los valores máximos al mismo tiempo, por eso se dice que en una resistencia R la corriente I
R
está en fase con el voltaje V
R
.
En este circuito resistivo la energía eléctrica se transforma en energía térmica, y la
potencia instantánea es:
. Al representar la potencia en un gráfico P: f(t),
verás que aunque la corriente cambia de signo cada medio ciclo, el cuadrado de la corriente siempre es positivo y la potencia varía desde cero hasta un valor máximo
.
Usualmente, estamos más interesados en los valores medios de la potencia, y no en los
valores para cada instante de tiempo. Por ejemplo, un aparato como un tostador desarrolla una potencia de calentamiento que depende del promedio de los valores instantáneos del seno al cuadrado. Con ayuda de la o el docente de matemática puedes demostrar que este promedio es
, por ello la potencia promedio es igual a: .
Figura 24.16. Circuito AC con un resistor.
Corriente sinusoidal en fase con voltaje sinusoidal.
Figura 24.17. Potencia disipada en un resistor, con una fuente de voltaje sinusoidal.
Para saber más…

Las pérdidas de energía en un transformador real (típicamente del 5%) se deben a diver-
sas causas: i) hay pérdidas de flujo magnético de la bobina primaria a la secundaria; ii) au-
toinducción en la bobina primaria; iii) efecto Joule en los conductores de ambas bobinas;
iv) corrientes de Foucault en el núcleo hierro y v) ciclos de imanación y desimanación en
el núcleo (histéresis). Indaga cómo se reducen.

180 181
Para ello se ha establecido una equivalencia entre la potencia producida por
una corriente directa () en una resistencia y la misma potencia media que
desarrollaría una corriente alterna () en igual resistencia. A este valor equivalente
de corriente alterna se le da el calificativo de corriente eficaz o efectiva, I
ef
(valor rms, en
inglés):
.
Esto significa que 0,707 A de corriente directa pasando a través de una resistencia
produce la misma cantidad de energía térmica que una corriente alterna de valor máximo 1 A.
De manera similar podemos establecer esta equivalencia para el voltaje:

Por lo general, los voltímetros y amperímetros miden el valor eficaz. Cuando decimos
que en nuestra casa tenemos un voltaje de 120 V, nos referimos al valor eficaz suministrado, aunque en realidad, ocurren 60 máximos de voltaje de más o menos 170 V cada segundo.
Inductancia en un circuito CA
Si conectamos un inductor a una fuente alterna circulará una corriente que a su
vez induce una fem que se opone a esta corriente. Esta fem es igual al voltaje aplicado:, donde como sabes la constante L es la autoinductancia. Esta oposición a
la corriente constituye una especie de resistencia que llamamos reactancia inductiva,
, y tiene unidades de resistencia, ohmios (Ω).
Podemos notar que la reactancia inductiva se incrementará de manera proporcional
a la tasa de cambio de la corriente , es decir, según su frecuencia: .
Capacitancia en un circuito con CA
Vamos ahora a conectar un capacitor C en un circuito de CA tal que en sus extremos exista
una diferencia de potencial, . El capacitor se carga y descarga periódicamente, lo
que expresamos como:
Recuerda que a medida que el condensador se carga, el campo eléctrico de las cargas
que ya están almacenadas frena a las que van llegando, esta oposición permite definir una
reactancia capacitiva, X
C
, que también se mide en ohmios. Esta reactancia es inversamente
pro
porcional a la frecuencia, ya que cuando ésta aumenta, el tiempo por ciclo para que la carga
aumente en las placas y se oponga al flujo de corriente disminuye. Esta reactancia la expresamos
como:
.
Como la corriente en este circuito está relacionada con la variación de carga ΔQ en el
capacitor respecto al tiempo, se obtiene una corriente instantánea de:
Considera un gráfico V: f(t) para un voltaje sinusoidal. Cuando la pendiente ΔV/Δt es cero
(V máximos), entonces la corriente será cero. Por el contrario, cuando ΔV/Δt es máxima en (V = 0),
la corriente será máxima.
Observa la gráfica que representa el V y la I en función del tiempo para el circuito CA con
capacitor, verás que la corriente se adelanta al voltaje en π/2 (o el voltaje se atrasa respecto de
la corriente en π/2), es decir, en un cuarto de ciclo. La corriente podemos expresarla como:
Si graficamos la corriente alterna sinusoidal
en función del tiempo, , y analizamos el
cociente ΔI/Δt (pendiente), podemos notar que:
• Para los puntos de máxima corriente (cero variación),
tenemos voltaje cero.
• Para los puntos de corriente cero (máxima variación)
tenemos máximo voltaje. Al graficar V = L (ΔI/Δt) en
función de t, obtenemos la función del voltaje (figura
24.18).

Vemos que en el inductor la corriente se atrasa
respecto al voltaje en un cuarto de ciclo (90º).
Figura 24.18. Circuito CA con inductor.
Corriente sinusoidal atrasada en π/2 (90º) con
respecto al voltaje sinusoidal.
Figura 24.19. Circuito CA con capacitor. Corriente sinusoidal adelantada en π/2 con respecto al voltaje sinusoidal.

182 183
Un circuito R-L-C en serie
Vamos a considerar un circuito con los tres elementos en serie conectados a una fuente
ideal sinusoidal: considerando una de las leyes de Kirchoff, el voltaje suministrado será igual a
la suma de los voltajes empleados en cada elemento . Como viste, cada uno
de estos voltajes es una función sinusoidal del tiempo, para sumar los valores instantáneos tenemos que considerar que la fase entre la corriente y el voltaje en cada elemento es distinta.
Un procedimiento sencillo para obtener
el valor de la corriente que circula, consiste en construcciones geométricas conocidas como diagramas de fasores. Un fasor es un vector que rota, por lo que permite representar la evolución en el tiempo de una cantidad física alternante, como la corriente o el voltaje alterno. Observa la figura 24.20, nota que en el fasor (vector azul) se tiene que:
¿Cómo podemos determinar la corriente en el circuito conectado a una fuente sinusoidal,
usando los fasores? Como la corriente es la misma en todos los elementos, tomaremos como referencia el eje x para el fasor de la corriente. Con referencia a este fasor, tenemos que los fasores de los voltajes en cada elemento son:
En R, el voltaje
estará ubicado sobre el eje x, dado que su fase es cero respecto de la
corriente, y vale V
R
= I
max
R.
En L, el voltaje
estará en el eje y, con sentido positivo, pues está adelantado 90º (π/2)
respecto de la corriente, y vale V
L
= I
max
X
L
.
En C, el voltaje
estará en el eje y, con sentido negativo, pues está atrasado 90º (π/2)
respecto de la corriente, y vale V
C
= I
max
X
C
.
Por lo tanto, la suma de los voltajes será:
Podemos resolver primero, la suma de los
fasores de los voltajes en L y C, que por ser opuestos
se restan; a este resultado le sumamos el fasor del voltaje en R (figura 24.21).
Según el triángulo rectángulo formado podemos escribir:

La razón entre voltaje total y la corriente, V
t
/I
max
se conoce como la impedancia, Z,
del circuito, la cual, como seguro imaginas tiene unidades de resistencia, ohmios. Tenemos
entonces que para el circuito de CA en serie R-L-C, la impedancia (Z) es:

Además, el fasor del voltaje resultante,
formará un ángulo con el fasor de corriente,
. El ángulo queda expresado por:

Analicemos este resultado, si X
L
> X
C
, el voltaje (V) se adelanta respecto a
y tenemos
un circuito inductivo. En cambio, si X
L
< X
C
, el voltaje (V) se retrasa respecto a
y tenemos un
circuito capacitivo.
La potencia en los circuitos CA
En los circuitos CA la potencia es empleada en la resistencia para transformar la
energía en energía térmica. En el inductor se genera y se anula el campo magnético; y en los
capacitores se almacena energía cuando se cargan, que después devuelven al circuito cuando
se descargan. La energía en estos dos últimos elementos va y viene al circuito. Por lo tanto, el
único elemento que disipa energía en un circuito RLC en serie es la resistencia. La potencia
disipada en la resistencia es: P = V
R
I
ef
, donde V
R
es el voltaje eficaz e I
ef
la corriente eficaz en la
resistencia.



Figura 24.20. Fasor de la corriente CA. Modulo de I igual a la componente vertical y
modulo del fasor equivale a la I
max
en el instante de fase ωt.
Figura 24.21. Diagrama de fasores de los voltajes
en un circuito RLC en serie.
Longitud: amplitud o valor máximo de la cantidad alternante.
Componente en el eje y: valor instantáneo de la cantidad alternante (vector naranja).
Angulo con el eje x: valor instantáneo de la fase .

184 185
Volvamos al triángulo de fasores ahora para voltajes eficaces, donde, el V
R
estará en el
eje x y corresponde a: V
ef
cos
. Entonces, la potencia disipada promedio es:
La constante cos se denomina el factor de potencia. En un resistor: =0 y cos =1.
La potencia promedio es máxima cuando la corriente y el voltaje están en fase y vale: .
Resonancia en un circuito CA
En un circuito RLC en serie, la impedancia en función de la frecuencia es:

Observa que esta impedancia será mínima cuando ωL = 1/ωC. En este caso Z = R, y la
corriente resultante será máxima. Se dice entonces que el circuito está en resonancia con la
fuente del voltaje aplicado.
En esta condición, la corriente está en fase con el voltaje del generador. La frecuencia
de resonancia está dada por:

Los circuitos resonantes tienen muchas aplicaciones. Cuando sintonizamos un aparato
de radio o de TV, lo que se hace es ajustar el valor de L o de C para que la frecuencia de resonancia
del circuito corresponda a la frecuencia de la estación deseada, entre las muchas señales que
llegan al circuito de la antena.
¿Dónde brillará más?
Un bombillo cuya resistencia es R = 48 Ω
se conecta a una fuente de 120 V, 60 Hz.
Mediante un interruptor S, podemos intercalarle
una inductancia L = 0,127 H y una capacitancia,
C = 88,5 μF.
Suponiendo que el filamento del bombi-
llo es un conductor óhmico, queremos comparar
su potencia con el interruptor S en la posición
1, 2 y 3. ¿En qué caso piensas que tendrá más
brillo?
Como supusimos que la resistencia del bombillo es un conductor óhmico, la potencia es:

c) Por último, con S en la posición 3, el bombillo está en serie con L y con C. La impedancia
equivalente es:

Y la potencia del bombillo es:
¿Este resultado era el que esperabas? Nota que en el caso 1 la potencia fue máxima, esto
es porque el circuito es puramente resistivo, donde la corriente y el voltaje están en fase, así el factor de potencia era 1. En los otros dos casos se disipó menos energía, lo que significa que hay un desfase entre V e I, de modo que el factor de potencia es menor que 1. Así el bombillo brilla más en el caso 1.
Solución. Las reactancias respectivas del inductor y de cada capacitor son:

a) Con S en la posición 1, la lámpara queda sola conectada al generador y su potencia es:
b) Ahora con S en la posición 2, la lámpara está en serie con la inductancia por lo que la
impedancia equivalente es (considera la relación obtenida del análisis del circuito RLC en serie):

186 187
Sintonizando la radio
Laboratorio electromagnético de Faraday simulado
El circuito para sintonizar una radio consiste de un capacitor variable y un inductor de
20 mH. ¿Qué capacitancia se necesitará para que el circuito permita sintonizar la estación de
radio AM que opera a 630 kHz?
Para sintonizar una radio, se requiere que el circuito funcione con una frecuencia
especial conocida como frecuencia resonante f
r
. Para ello la impedancia tiene que ser: Z = R,
por lo tanto, despejando la capacitancia, sabremos cómo ajustar el condensador:
Podemos reproducir experiencias similares a las de Faraday, utilizando la simulación
El laboratorio electromagnético de Faraday, que pueden descargar en la siguiente dirección:
http://phet.colorado.edu/es/simulation/faraday
1. Con la sección Bobina inducida, ¿cómo es la corriente inducida y el brillo en la lámpara,
al variar : i) la rapidez con que se acercan o se alejan el imán y la bobina; ii) el número de espiras,
iii) el área de las espiras?
2. Con el transformador, ¿cómo producir fem inducida para que encienda el bombillo
con el circuito de corriente CC?, ¿cómo producir fem inducida para que encienda el bombillo
con el circuito de corriente CA? Comparen los dos métodos. Comparen el transformador de 1
espira con el de 3 espiras.
3. Identifiquen las variables en el generador y produzcan la máxima energía con éste.
¿Para qué condiciones ocurre esto?
La corriente eléctrica para el vivir bien
En este conjunto de lecturas sobre electricidad y magnetismo, te habrás dado cuenta
del conocimiento desarrollado por la humanidad, acerca de los fenómenos electromagnéticos,
nos ha permitido generar y aprovechar la energía eléctrica, impulsando el desarrollo de nume-
rosas aplicaciones técnicas para la producción social y el bienestar de la ciudadanía.
La producción, transporte y distribución de la electricidad implica un proceso complejo.
En el cual básicamente, tenemos una central generadora donde una fuente de energía primaria (caída de agua, vientos, Sol…) es empleada para hacer girar una turbina que a su vez hace rotar un alternador, el cual induce corrientes alternas. Diversos transformadores permiten elevar y reducir la tensión desde la planta generadora hasta los sitios de consumo industrial y residencial. Y por supuesto se cuenta con las redes de trasmisión, que permiten el transporte de la electricidad hacia todos los centros poblados.
Esto es sólo una muestra del por qué resulta importante que conozcas los conceptos y
modelos referidos a campos eléctricos y magnéticos, así como sus implicaciones prácticas en
los diversos dispositivos y circuitos. Además, estos saberes te permitirán comprender y actuar
de manera responsable y sustentable en tu cotidianidad.
Debemos estar conscientes del uso de la energía electromagnética, ya que impli-
ca grandes estructuras e inversiones por parte del Estado, las cuales es deber de todas
y todos cuidar y saber utilizar de manera racional y compatible con la preservación
del ambiente.
Resulta necesario que reflexiones acerca de los riesgos inherentes a la utilización de la
energía electromagnética (electroimanes, motores, circuitos, generadores…), ya que si bien
estos aparatos resultan beneficiosos y contribuyen con un mejor vivir, no es menos cierto que
pueden tener un impacto sobre nuestra salud y la del ambiente. ¡No le temas a la electricidad,
conócela, compréndela y ten precaución!

188 189
Genera, transforma y usa la corriente alterna
Construyendo un transformador
Hemos visto cómo funcionan los transformadores.
La meta es que con una barra de acero y un rollo de hilo de
cobre, construyan uno. Les proponemos el siguiente desafío:
diseñen un transformador cuya relación de transformación sea
5. Planifiquen un procedimiento para lograrlo. Constrúyanlo y
evalúen su efectividad.
Dinamo linterna. Linternas ecológicas
Esta curiosa linterna no necesita pilas para funcionar, en su lugar utiliza la energía me-
cánica que nuestra mano produce al apretar y liberar el mango. Expliquen el principio físico en
el que se basa la producción de energía eléctrica en este tipo de linterna. Diseñen y construyan
sus propias linternas ecológicas.
Circuitos de CA
Con inductores, resistencias y capacitores, cables, una fuente de CA y voltímetro/
amperímetro, diseñen un circuito RLC en serie. Estimen los valores de corriente eléctrica para
un voltaje de la fuente y los voltajes en la reactancia capacitiva e inductiva y la resistencia.
Realicen el montaje y hagan las medidas necesarias para verificar los resultados. Expliquen las
discrepancias en los valores calculados y los medidos.
Actividades de autoevaluación
1. Una espira de 10 cm
2
se sitúa en el seno de un campo magnético de valor 1 T. De-
termina el flujo magnético que atraviesa la espira en los casos en que el ángulo de la espira
respecto a las líneas de fuerza del campo sea de 90º, 45º y 0º respectivamente.
2. Un imán de nevera tiene un tamaño de 4 cm por 6 cm y genera un campo de 365 mT.
Si se sitúa sobre una espira formada por un cable conductor que tiene su misma forma,
¿cuál será el flujo magnético a través de la espira? Si se inclina el imán, manteniéndolo rígido
y formando un ángulo de 30º respecto a la espira, ¿cuál será ahora el flujo magnético?
3. Considera una espira circular metálica colocada en el plano de lectura de este texto
y que está siendo atravesada por un flujo magnético perpendicular a dicho plano y saliente
hacia el lector. Si dicho flujo está aumentando con el tiempo, ¿qué sentido tendrá la corriente
inducida vista desde el observador?
4. Una espira cuadrada de 6 cm de lado se encuentra entre los polos de un electroimán
con su plano normal al campo magnético. Calcula la fem inducida en la espira cuando se conec-
ta el electroimán si su campo pasa de 0 a su valor máximo de 1,5 T en 3/4 de segundo.
5. El campo magnético perpendicular a una espira circular de 12 cm de diámetro pasa
de +0,35 T a –0,15 T en 0,09 s, donde + significa que el campo está dirigido en el sentido de
alejamiento de un observador y – que lo está hacia dicho observador. a) Calcula la fem inducida
media y b) ¿En qué sentido circulará la corriente inducida?
6. Queremos un transformador que reduzca la tensión de 230 V a 6 V con un devanado
primario de 500 espiras, ¿cuántas espiras deben colocarse en el devanado secundario?
7. Un transformador de una central eléctrica eleva la tensión de 22.000 V a 500.000 V.
i) ¿Cuál debe ser la razón entre el número de espiras del devanado secundario y el número de
espiras del devanado primario? ii) Si la potencia del transformador (considerado ideal) es de
700 MW, ¿cuáles son las intensidades de corriente en los devanados primario y secundario?
8. Calcular a qué ritmo debe variarse la corriente en un circuito de 6.10
-5
H de autoinduc-
ción para que aparezca en el mismo una fem autoinducida de 20 V.
9. Dos bobinas A y B de 200 y 800 espiras respectivamente se colocan una cerca de la
otra. Por la bobina A se hace circular una corriente de 2 A produciendo en ella un flujo de 2,5.10
-
4
Wb y en la B uno de 1,8.10
-4
Wb. Calcula: a) El coeficiente de autoinducción de la bobina A. b) El
coeficiente de inducción mutua de las dos bobinas. c) El valor medio de la fuerza electromotriz
inducida en la bobina B cuando se interrumpe la corriente en la bobina A en 0.3s.
10. Calcular el campo magnético al que debería someterse una bobina de 1.000 espiras
circulares, cada una de 0,2 m
2
de área, para que genere una corriente alterna de 400 V de tensión
máxima con una frecuencia de oscilación de 50 Hz.
11. Un alternador dado consta de una bobina de 500 vueltas o espiras circulares, cada
una de 20 cm de radio. Si se hace girar dicha bobina a un ritmo constante de 50 vueltas por
cada segundo dentro de un campo magnético uniforme de 16 mT creado por un imán, ¿cuál
será el valor máximo de la tensión inducida en dicho alternador?
12. Un bombillo en serie con un capacitor se conectan a una fuente alterna con voltaje
máximo constante y frecuencia variable. ¿Qué debes hacer con la frecuencia para obtener más
brillo? Explica.
13. Un canal de TV tiene un frecuencia de 181,2 MHz. Determina la inductancia de una
bobina en serie con un capacitor de 0,024 pF tal que el circuito resuene.
14. La impedancia de un resistor y un inductor es de 100 Ω cuando están a 50Hz y de
600 Ω cuando están a 500 Hz. ¿Cuál es el valor de L y R? ¿Cuál es el ángulo de fase
entre el
voltaje total y la corriente que circula por el circuito para la primera frecuencia? 15. Quieres construir un calentador de agua de 1.000 W para ser conectado a una fuente
de 120V- 60 Hz, ¿Qué valor debe tener la resistencia? ¿Cuál será el valor eficaz y el valor máximo
de la corriente que circula por el calentador?

190 191
Hasta ahora conoces conceptos cómo: campo magnético inducido, campo
eléctrico inducido, ondas de radio, microondas, radiación visible, radiación ultravioleta,
rayos x, rayos gamma… y algunos desarrollos tecnológicos: la antena, el radar, el
televisor, la radio, las radiografías, las telecomunicaciones, el teléfono celular… La
pregunta es, ¿cómo se relacionan estos conceptos con los inventos mencionados? En
realidad, ambos son logros del pensamiento humano, y el desarrollo y aplicación de la
maravillosa teoría electromagnética.
La teoría electromagnética es el fruto de ideas más generales que conforman la
denominada teoría de los campos de fuerzas. Ésta resultó de los esfuerzos de mujeres
y hombres realmente ingeniosos en búsqueda de un conocimiento más profundo de
la naturaleza. Entre ellos están Michael Faraday y sus seguidores, William Thomson,
James Clerk Maxwell, Hermann von Helmholtz, Oliver Heaviside, Heinrich Hertz,
Hendrick Lorentz y Albert Einstein.
La evolución de la teoría de campos incluye el nacimiento de la tecnología
electromagnética, que cambió radicalmente nuestra forma de vida, y la superación
del modelo newtoniano. Desde todos los puntos de vista, constituye una de las reali-
zaciones más valiosas de la historia del pensamiento.
Hace ya más de 100 años que en el electromagnetismo se le atribuye a J. C.
Maxwell la brillante síntesis de la unificación de los fenómenos eléctricos y magnéti-
cos. Él se basó en los trabajos de Coulomb y Oersted y en los estudios posteriores de
Ampère y Faraday, además, añadió nuevas concepciones. Todo ello se expresa con
el conjunto de ecuaciones que conocemos como ecuaciones de Maxwell, las cuales
representan en el electromagnetismo el mismo papel que las leyes de Newton en
la mecánica.
En esta lectura, nos adentraremos en las concepciones de tal teoría, y en una
de las consecuencias más importantes a las que se llegó gracias a ella: la predicción de
la existencia de las ondas electromagnéticas.
Figura 25.1. Campo eléctrico inducido a partir de un
campo magnético variable en el tiempo.
Los campos que se inducen y se autosustentan
Retomemos las ideas de la lectura ante-
rior referidas a los fenómenos de inducción elec-
tromagnética:
1. En la figura 25.1 representamos una
espira circular colocada en un campo magnéti-
co
entrante en esta página. Como ya sabes, al
variar este campo, el flujo magnético de la espira
cambiará también, y en la misma se establecerá
una corriente inducida. Por tanto, concluimos
que un campo eléctrico inducido actuó sobre
los electrones que conforman la espira ponién-
dolos en movimiento, el cual sólo pudo haber
surgido a consecuencia de la variación del cam-
po magnético. Este fenómeno conforma uno de
los principios básicos del electromagnetismo.
Para saber más…

J
ames Clerk Maxwell (1831-1879), físico escocés, tu-
vo un destacado papel en el estudio de la electrici-
dad y el magnetismo, comparable al desempeñado
por Newton en la mecánica, por el carácter funda-
mental de las leyes que cada uno estableció. Maxwell
también realizó contribuciones en otros campos de
la Física: el estudio de la percepción visual del color
(produjo una de las primeras fotografías a colores),
y la teoría acerca de los anillos de Saturno. Siendo la
más importante el establecimiento de la naturaleza
electromagnética de la luz. Lastimosamente murió a
los 48 años.
2. Ante el fenómeno del campo eléctrico inducido, Maxwell pensó que el fenómeno
inverso también podría verificarse. Así propuso la hipótesis de que: un campo eléctrico
variable en el tiempo podía a su vez producir un campo magnético.
El descubrimiento de las oscil aciones
rápidas: l as ondas electromagnéticas25

192 193
Vamos a trabajar un poco más esta idea, observa en la figura 25.2 las dos placas metálicas,
separadas por cierta distancia, conectadas a una batería. La placa conectada al polo positivo de
la batería va adquiriendo carga positiva, mientras que la otra se va cargando negativamente.
Como ya sabes, las cargas en las placas crean un campo eléctrico uniforme en el espacio existente
entre ellas. Conforme va aumentando el valor de la carga en las placas, la intensidad de este
campo eléctrico también se incrementa, es decir este campo eléctrico varía en el tiempo. Bajo
estas condiciones, en la región entre las placas se creará un campo magnético inducido. Esto
permite confirmar la hipótesis propuesta por Maxwell: un campo magnético no únicamente se
produce por una corriente eléctrica, sino también por un campo eléctrico variable en el tiempo.
En conclusión, estos dos fenómenos unidos a la ley de Coulomb y a la imposibilidad
clásica de los monopolos magnéticos (imanes con un solo polo), están sintetizados en las ecuaciones de Maxwell de la teoría electromagnética, con lo cual se logra deducir que la luz tiene una naturaleza electromagnética.
Figura 25.2. Campo magnético inducido a partir de un campo eléctrico variable en el tiempo.
Figura 25.3. Campo magnético y campo
eléctrico en el espacio, para un instante
dado, en la dirección de
.
No necesita de un medio material para viajar:
onda electromagnética
En la teoría electromagnética está implícita la idea de una perturbación del espacio,
onda. Cuando tienes una fuente que oscila, como por ejemplo una varilla que sube y baja en el
agua de un estanque o una membrana que vibra, se propagan ondas mecánicas en la superfi-
cie del líquido o en el aire. Por otra parte, seguro ya conoces que existen ondas electromagné-
ticas que se pueden propagar inclusive en el vacío, pero ¿cómo se producen estas ondas?
En la figura 25.4 representamos un par de bobinas en las que existe un campo magnético
variable en el tiempo. Este se origina por la corriente alterna de alta frecuencia que circula por
las espiras de las bobinas. Como consecuencia, el campo magnético es oscilante, es decir, su
intensidad y sentido varían de forma periódica en el transcurso del tiempo.
Entonces, como hay variación en el campo magnético, en los alrededores del electroi-
mán aparecerá un campo eléctrico inducido, como lo había anunciado Maxwell. El cual a su
vez, por ser variable en el tiempo, originará un campo magnético inducido, y así sucesivamen-
te. Esto es lo que fundamentalmente compone una onda electromagnética.
En la figura 25.4, la perturbación constituida por los campos eléctricos y magnéticos
inducidos es radiada en todas las direcciones desde el electroimán, esta perturbación es lo que
constituye una onda electromagnética; los círculos representan las ondas y las líneas radiales
la dirección de propagación. Como puedes notar, los vectores de campo eléctrico y magnético
en un punto del espacio y de la velocidad con la cual se propagan los campos a través de éste,
están representados en un sistema de coordenadas y son perpendiculares entre sí.
Figura 25.4. La propagación en el espacio de la perturbación constituida por los campos eléctrico y
magnético inducidos en este sistema, se denomina onda electromagnética.

194 195
Maxwell demostró, por medio de sus ecuaciones, que esta perturbación electromag-
nética al propagarse debería presentar todas las características de un movimiento ondulatorio.
De esta manera, y de acuerdo con Maxwell, la radiación electromagnética experimentará fe-
nómenos de reflexión, refracción, difracción e interferencia, al igual que sucede con todas las
ondas mecánicas.
Para saber más…

En el siglo XVII, surgió en Europa una famosa polémica entre Newton y
Huygens, la cual estaba centrada en las dos grandes concepciones acerca de
la naturaleza de la luz. Newton proponía que la luz estaba constituida por
partículas (modelo corpuscular) y C. Huygens defendía la hipótesis de que
la luz era una onda (modelo ondulatorio). Este debate terminó “en tablas”
en el siglo XIX, mucho
después de la muerte de ambos. En la actualidad, los
resultados teóricos y experimentales permiten concluir que la luz se comporta
para algunos fenómenos c
omo onda y para otros como partícula (fotón), lo
que se conoce como la dualidad onda-partícula.
Para saber más…

En 1932, Albert Michelson, después de casi 50 años, lo-
gró los experimentos más precisos para medir la velo-
cidad de la luz, obteniendo en sus últimas mediciones
el valor de 2,9977.10
8
m/s. En la actualidad se le asigna
la notación de c, y el último resultado consensuado es
de 2,997925.10
8
m/s (c ≈ 3,0.10
8
m/s).
Es fundamental señalar que, al contrario de las ondas mecánicas como las sonoras o las
de agua, una onda electromagnética no necesita de un medio material (sólido, líquido o gas)
para propagarse. Esto se debe a que los campos eléctricos y magnéticos pueden establecerse
en un espacio inmaterial, lo cual deja en claro que una onda electromagnética puede propa-
garse en el vacío.
En la figura 25.3 de la sección anterior, puedes notar que los campos eléctrico y
magnético conforman la onda electromagnética que viaja hacia la derecha; en este caso se
dice que los campos están acoplados y se propagan a una cierta velocidad en una dirección
específica, son perpendiculares entre sí y a la dirección de propagación. Fíjate que cada campo
oscila en forma periódica, de manera similar a como oscilan los puntos de una cuerda.
¡Eureka! La luz es una onda electromagnética
Veremos a continuación en forma simplificada cómo Maxwell dedujo que la luz te-
nía naturaleza electromagnética. Uno de los resultados de mayor significancia obtenido por
Maxwell a partir de sus ecuaciones fue el de determinar el valor de la velocidad de propagación
de una onda electromagnética. Sus cálculos demostraron que, en el vacío (o en el aire), una
onda de este tipo se propaga con una rapidez de 3.10
8
m/s.
Por otra parte, de manera experimental, a comienzos del siglo XIX el físico francés
Louis Fizeau consiguió medir la velocidad de la luz con bastante precisión, al hacer que un
haz luminoso recorriera una distancia pequeña (casi 16 km) sobre la superficie de la Tierra. El
valor conseguido fue aproximadamente de 3,13.10
8
m/s. Luego en 1862, León Focault, con un
experimento más preciso que el de Fizeau, halló un valor de velocidad de la luz de 2,98.10
8
m/s.
La importancia de estos resultados radica en el hecho de que coinciden con la veloci-
dad de propagación de la onda electromagnética calculada por Maxwell. Este hecho histórico
en la conformación de las ideas de la ciencia, ocurrió como sigue: Maxwell sintetizó la teoría
electromagnética en su casa de campo a las afueras de Londres. Al regresar, determinó el valor
del cociente entre las unidades electromagnéticas y electrostáticas. Cuando Maxwell descubrió
que su resultado de la velocidad de la onda electromagnética coincidía casi exactamente con
las medidas de la velocidad de la luz intuyó que: la luz tiene que ser una onda electromagnética.
En la actualidad, sabemos que la sospecha de Maxwell era justificada: la luz es en rea-
lidad es una onda electromagnética. El establecimiento de la naturaleza electromagnética de
la luz se considera uno más de los triunfos de la ciencia. Por tanto, puesto que los fenómenos
luminosos tienen su origen en fenómenos electromagnéticos, la óptica puede considerarse
como una rama del electromagnetismo, y sus leyes de la reflexión, refracción, difracción, pola-
rización…pueden deducirse a partir de las ecuaciones de Maxwell.
La confirmación experimental esperada
Con frecuencia escuchamos hablar de las “ondas hertzianas”. Echemos una mirada de
cómo aparecieron, quién las descubrió y cómo éstas no son otra cosa que ondas electromagnéti-
cas.
Debido a su muerte prematura, en 1879, Maxwell no alcanzó a ver la conformación
definitiva de sus postulados. La existencia de las ondas electromagnéticas sólo pudo ser com-
probada en forma experimental a fines del siglo XIX, por el físico alemán Heinrich Hertz. Este
científico logró obtener en su laboratorio ondas electromagnéticas, con todas las propiedades
previstas por Maxwell. Los experimentos de Hertz establecen un punto de giro sobre la historia
de la ciencia, ya que constituyen la primera y decisiva victoria de la teoría de campos sobre la
idea newtoniana de la acción instantánea a distancia.
Quizás, no es exagerado decir que los experimentos de Hertz constituyeron otro de
los puntos críticos de la historia de la humanidad. Estos experimentos han hecho posible el de-
sarrollo de la comunicación en la sociedad por medio de la radio y la televisión. También, en la
ciencia el resultado de los experimentos demostró que la concepción newtoniana del mundo,
que se asumía con carácter universal, necesitaba un cambio, hecho que obtiene su punto máxi-
mo cuando las ideas relativistas de Einstein mostraron que había que repensar la concepción
newtoniana y “perfecta” del mundo.

196 197
Para saber más…

El proyecto original de H. Hertz era demostrar que la variación de la polarización de las
sustancias dieléctricas produce un campo magnético. En el transcurso de sus experimentos,
se dio cuenta de que en sus manos tenía un dispositivo capaz de producir y detectar las
ondas electromagnéticas predichas por Maxwell y, mediante una serie de decisivos expe-
rimentos, en poco tiempo logró demostrar la existencia de esas ondas.
Para saber más…

En la óptica electromagnética, uno de los dispositivos transcendentes es la fibra óptica.
La cual es una guía de ondas que permite direccionar la onda. Estas fibras están fabri-
cadas con un material dieléctrico trasparente muy delgado (≈10
-5
m) recubierto de otra
sustancia que facilita la reflexión total interna. El uso más importante de la fibra óptica es
la transmisión de información, la cual requiere de un control preciso de la dirección de
propagación de la onda.
Figura 25.5. Experimento de H. Hertz para emitir y recibir ondas electromagnéticas.
En la figura 25.5 puedes ver el esquema del experimento de Hertz. Consiste de un
emisor formado por dos esferas conectadas con una bobina. La corriente alterna inducida en la
bobina comunica a las esferas una gran cantidad de carga de signo opuesto, llegando a saltar
una chispa entre ellas. Por efecto de la bobina, esta descarga es oscilante. Si los argumentos de
Maxwell eran correctos, debería propagarse a través del aire una onda electromagnética de la
misma frecuencia con la que oscilaba el circuito.
El receptor para detectar estas ondas estaba constituido por un trozo de cable curvado
en forma de círculo, con dos esferas en sus extremos, para que, estando muy próximas, pudiese
saltar una chispa entre ellas, al reproducirse en el receptor la oscilación del emisor. Hertz fue
capaz de detectar estas ondas electromagnéticas aún cuando el receptor estuviese separado
muchos metros del emisor. Adicionalmente, comprobó que un espejo cóncavo era capaz
de hacer converger las ondas electromagnéticas tal como ocurría con las ondas luminosas.
Los experimentos de Hertz, además de confirmar las hipótesis de Maxwell, contribuyeron a
establecer que la luz es, en efecto, una onda electromagnética.
Figura 25.6. Las radiaciones u ondas electromagnéticas que constituyen el espectro electromagnético, EM.
De las ondas de radio “hertzianas” a los rayos gamma (γ)
Desde el éxito de la teoría de Maxwell hasta la época en que vivimos se ha produci-
do un gran avance en los conocimientos relacionados con las ondas electromagnéticas. En la
actualidad, sabemos que existen varios tipos de ondas electromagnéticas, las cuales, a pesar
de ser todas de la misma naturaleza (constituidas por los campos eléctrico y magnético que
oscilan en el tiempo y se propagan en el espacio a 3,0.10
8
m/s), presentan en ocasiones carac-
terísticas muy distintas.
En la figura 25.6, representamos en una escala los diversos tipos de ondas electro-
magnéticas que se conocen. Si detallas la escala con detenimiento, podrás notar que según su
frecuencia o longitud de onda (c = λ f), cada onda recibe una denominación especial: ondas
de radio, ultravioletas, rayos X… Recuerda que la frecuencia es el número de repeticiones por
unidad de tiempo; y la longitud de onda es la distancia que hay de pulso a pulso. El conjunto de
los tipos de ondas o radiaciones recibe el nombre de espectro electromagnético.
Como dijimos, la unidad de medida de la frecuencia en el Sistema Internacional es el
Hertz (Hz), ¿sabes en honor a quién lleva este nombre? Las ondas EM también se diferencian en la forma en que se producen, lo cual veremos a continuación.

198 199
Figura 25.7. Ondas de radio emitidas por electrones acelerados en la antena de una estación emisora. Los vectores
verdes representan el campo eléctrico. El campo magnético entra en la hoja. La línea continua modela la onda OM
(onda media). Pantalla de simulación: Ondas de radio, http://phet.colorado.edu.
Figura 25.8. Retransmisión de señales de televisión o telefonía por medio de satélites estacionarios.
Éstos tienen este nombre porque su período rotación es igual al de la Tierra, así a un observador en la
superficie de la Tierra le parece que el satélite está inmóvil.
Ondas de radio
Las ondas de radio se emplean en estaciones de radiocomunicaciones o radiodifusión
para realizar sus transmisiones. Éstas son las que presentan frecuencias más bajas (10
3
Hz - 10
9
Hz),
esto es, en el orden de cien millones de vibraciones por segundo, te imaginarás lo rápido que os-
cilan, ¡a pesar de ser las de más baja frecuencia! En todas las estaciones de radio existen circuitos
eléctricos especiales que provocan la oscilación de electrones en la antena emisora. Por tanto,
tales electrones son acelerados en forma continua, y por ello, emiten las ondas de radio que trans-
portan los mensajes o programas de una estación, como se muestra en la figura 25.7.
Con respecto a la televisión, las emisoras tienen las mismas características que las on-
das de la radio, pero sus frecuencias son más elevadas, como puedes apreciar en la figura 25.7.
Microondas
Las microondas tienen una frecuencia más elevada que las anteriores. Estas ondas se
utilizan mucho en las telecomunicaciones para transportar señales de TV, o bien, transmisiones
telefónicas. De hecho, actualmente los sistemas radiotelefónicos que existen y que comunican
a los pueblos del mundo entre sí, se conectan mediante microondas. Además, las trasmisiones
de TV vía satélite de un país a otro, también se llevan a cabo con el empleo de este tipo de on-
das. En la figura 25.8 se muestra cómo se retransmiten las señales de televisión o telefonía por
satélites estacionarios como lo hace el satélite Simón Bolívar o el Francisco de Miranda.
El funcionamiento de esta retransmisión está fundamentado en el siguiente hecho:
puedes ver en directo, un partido de fútbol de la vinotinto que se está efectuando en otro
país, porque la señal de televisión (onda electromagnética, EM) se envía desde dicho país
hasta el satélite a casi 36.000 km de altura, y luego regresa a la Tierra. Esta señal es captada
por estaciones receptoras, que retransmiten a diversas regiones del país receptor. Como las
señales viajan a la velocidad de la luz c, tardan en ir hasta el satélite y regresar a la Tierra un
tiempo muy corto. Esta maravilla tecnológica, te permite apreciar casi en vivo lo que sucede
en otro país. ¡Gracias Maxwell, Hertz…!
Para que comprendan en qué consiste el proceso de producción de las ondas de radio
y cómo se trasmiten entre dos estaciones (receptora-emisora), les sugerimos interaccionar con
el simulador de la actividad experimental disponible en la siguiente dirección:
http://phet.colorado.edu/en/simulation/radio-waves
Para saber más…

Newton empleó por primera vez la palabra latina spectrum para denominar el conjunto
de colores que observó al hacer pasar luz blanca (visible al ojo humano) por un prisma
rectangular que elaboró él mismo. Este es el origen de la palabra espectro.

200 201
Figura 25.9. Horno microondas.
Radiación infrarroja, luz visible y ultravioleta
Otra de las radiaciones señaladas en el espectro EM, es la que corresponde a la radia-
ción infrarroja. Ésta es emitida por los átomos de cuerpos calientes, los cuales se encuentran
en una constante e intensa vibración. El calor que sientes cuando te acercas a un metal incan-
descente se debe en gran parte a los rayos infrarrojos que emite debido a su alta temperatura,
y que son absorbidos por tu cuerpo. Este proceso de transmisión de energía es lo que se cono-
ce como radiación térmica, que es aprovechada para cocinar, calentar los ambientes en lugares
fríos, la termografía (técnica que permite medir temperatura a distancia), entre otros.
Figura 25.10. Posibles efectos de la radiación UV
natural y artificial sobre la piel humana.
La radiación visible, la constituyen ondas que están en el rango de frecuencias desde
los 4.6.10
14
Hz hasta aproximadamente 6.7.10
14
Hz. Este rango tan estrecho de radiación tiene
la particularidad de estimular la visión humana, de ahí su nombre. Por eso, se han construido instrumentos cada día más precisos para captar y poder estudiar las otras radiaciones, que por su frecuencia no podemos ver. Dentro de la luz visible, las frecuencias menores nos dan el color rojo, y al aumentar la frecuencia tendremos las ondas que corresponden a los colores naranja, amarillo y violeta.
Las ondas EM con frecuencias inmediatas superiores a la región visible del espectro
se denominan ultravioleta, UV. Si observas el espectro EM, verás que esta región alcanza fre-
cuencias de hasta 10
18
Hz, las cuales son emitidas por átomos excitados, como por ejemplo, en
las lámparas de mercurio. Estas ondas no son visibles para los humanos. La radiación UV que incide sobre la Tierra proveniente del espacio es filtrada por la capa de ozono, de ahí la impor-
tancia de mantenerla.
Rayos X
Si observas de nuevo el espectro EM verás que las frecuencias de los rayos X son su-
periores a la frecuencia de la radiación ultravioleta. Los rayos X debido a su pequeña longitud de onda (10
-2
nm y 10
0
nm) tienen la propiedad de atravesar, con cierta facilidad, sustancias
de baja densidad como los músculos de una persona y de ser absorbidos por materiales de densidad más elevada como los huesos del cuerpo humano. Por esta razón, se usan para obtener imágenes de los órganos internos mediante la impresión de ciertos tipos de placas fotográficas.
Otra de las aplicaciones comunes de
este tipo de radiación es su uso en los conocidos hornos microondas. En la figura 25.9 tienes un esquema de este tipo de equipo. Las microon-
das son absorbidas por los alimentos aumentan-
do la temperatura de los mismos, por aumento en las vibraciones de la moléculas, fundamen-
talmente las de agua.
Seguramente has oído mencionar o
incluso has utilizado, la radiación UV emitida por bombillos de bronceado artificial. Estas lámparas emiten una luz de una longitud de onda aproximada a UV-B (280-315 nm) y UV-A (315-400 nm). El bronceado, considerado en esta época como carácter de belleza, es un mecanismo de reacción natural de nuestro organismo, fotoprotección, frente a la radia-
ción ultravioleta (estrés).
Si te expones a la radiación UV artificial, es posible que sufras efectos negativos sobre
tu organismo. Entre los más conocidos tenemos: cáncer de la piel y daño grave en los ojos, reac-
ciones indeseables en la piel como alergias y quemaduras, e incluso afectar al feto si la expuesta a la radiación está embarazada. Como puedes ver, la exposición a este tipo de radiación puede ser perjudicial, ¿vale la pena arriesgar el organismo sólo por verte bronceada o bronceado?
Figura 25.11. Un tubo de rayos X. Los electrones
emitidos por el cátodo se aceleran hacia el ánodo,
donde colisionan con el material que lo conforma
(molibdeno…), cuyos átomos se excitan y emiten
radiación EM, para ciertas condiciones tendrán
mayor intensidad los Rayos X.

202 203
En la actualidad, los rayos X tienen un campo
muy amplio de aplicaciones, además de la menciona-
da. También se utilizan en el tratamiento médico del
cáncer, en la investigación de la estructura cristalina
de los sólidos (física del estado sólido), en pruebas in-
dustriales, y en muchos otros campos de la ciencia y
la tecnología.
Para saber más…

El físico alemán Conrad Röntgen (1845-1923) descubrió los rayos X. En 1895, al realizar
experimentos con tubos de rayos catódicos, observó la existencia de radiaciones de na-
turaleza desconocida a lo que llamó rayos X. Este descubrimiento lo hizo merecedor del
premio Nobel de Física, en 1901.
Para saber más…

El láser es un tipo especial de radiación electro-
magnética visible cuyas aplicaciones tecnológi-
cas y científicas aumentan cada día. El término
láser proviene del inglés: light amplification by
stimulated emission of radiation, lo que significa:
amplificación de la luz por emisión estimulada de
radiación (átomo que emite radiación). Un haz de
rayos láser se diferencia de la luz visible por: i) alta
Figura 25.12. (A) Radicaciones alfa, beta y gamma, separadas por la acción del campo eléctrico que se forma
entre las placas de un condensador conectado a una batería. (B) Poder de penetración de cada radiación.
Rayos gamma γ
Finalmente, las ondas electromagnéticas que presentan la frecuencia más alta conoci-
da, son los rayos gamma. Esta radiación es emitida por los núcleos atómicos de los elementos
al desintegrarse. Estas sustancias, cómo quizás ya lo sepas, se denomina elementos radiactivos.
En la figura 25.12.A puedes ver que un núcleo al desintegrarse emite tres tipos de
radiaciones, denominadas alfa (α), beta (β) y gamma (γ). Éstas al pasar por un campo eléctrico
se separan. Los rayos alfa (núcleos de helio) se desvían hacia un lado por ser partículas de car-
ga positiva; los rayos beta son electrones, por lo que se desvían hacia el otro lado; y los rayos
gamma no sufren desviación alguna, pues no son partículas cargadas, sino ondas electromag-
néticas de alta frecuencia.
En la figura 25.12.B se ilustra el poder de penetración que tiene cada uno de estos
rayos, y debido a la alta energía que transportan, los rayos gamma al igual que los rayos beta
pueden ocasionar daños irreversibles en las células. A todas y todos los profesionales que tra-
bajan en centros donde se emiten radiaciones gamma (incluso X) se les obliga a trabajar con
sistemas y procedimientos especiales para protegerse contra dosis excesivas de exposición a
estas radiaciones.
La empresa Petróleos de Venezuela, en colaboración con el Instituto Venezolano de
Investigaciones Científicas, elaboró un manual de normas de seguridad para las personas que
trabajen con radiación de este tipo, tanto en el Instituto como en cualquier otro centro en
donde haya exposición de su personal a la radiación. Entre las normas fundamentales están:
maximizar la distancia entre la fuente y el operador, minimizar los tiempos de permanencia,
establecer blindajes (encerramientos, pantallas, recubrimientos o barreras) de protección entre
el operador y la fuente, poseer un manual de procedimientos seguros donde se establezcan las
normas, las responsabilidades y acciones de cada persona en su área de trabajo, proveer a las
personas ocupacionalmente expuestas de los equipos de medición y protección apropiados
(detectores, dosímetros, alarmas personales) de acuerdo a la naturaleza del riesgo.
Esta radiación tiene aplicaciones valiosas para la ciudadanía y producción social. En
la industria, las radiaciones ionizantes pueden ser útiles para la producción de energía, para
la esterilización de alimentos, para conocer la composición interna de diversos materiales y
para detectar errores de fabricación y ensamblaje. En el campo de la medicina, las radiaciones
ionizantes también cuentan con numerosas aplicaciones. Con ellas se puede realizar una gran
variedad de estudios diagnósticos (Medicina Nuclear y Radiología) y tratamientos (Medicina
Nuclear y Radioterapia), entre otras.
En la explosión de una bomba de energía nuclear o en un accidente grave en una cen-
tral nuclear, se produce una colosal emisión de estas radiaciones, la cual es una de las causas del
gran peligro que representan. Es por esto que los desarrollos de la ciencia y tecnología tenemos
que ponerlos al servicio de la ciudadanía con responsabilidad social.
concentración de energía en áreas muy pequeñas; ii) una única frecuencia de valor deter-
minado (un color), iii) las ondas están rigurosamente en fase, hay coincidencia entre crestas,
y en consecuencia entre valles. Los colores de los haces de luz emitidos por cada láser de la
figura, se diferencian por la longitud de onda que emiten. El rojo está en 633 nm, el verde
532 nm y el azul 473 nm.
Figura 25.13. El haz de color rojo es emitido por
un láser de helio-neón, el de color verde y de azul
es producido por gas argón ionizado. También se
puede producir luz roja con un láser de rubí.
A B

204 205
Una de las grandes controversias desde la época de Newton hasta fines del
siglo XIX, fue dilucidar si la luz era una onda o si era una partícula. Los fenómenos de
interferencia, difracción y polarización se podían explicar de manera satisfactoria con-
siderando que la luz es una onda electromagnética. Sin embargo, se conocían otros
fenómenos que resultaban imposibles de entender mediante la teoría ondulatoria de
la luz, lo que constituía un gran reto para los físicos de la época. Entre esos fenómenos
estaban: la radiación emitida por los objetos calientes, el espectro de líneas (líneas de
ondas de diferentes longitudes emitidas por los átomos en una descarga gaseosa) y el
efecto fotoeléctrico.
Hubo que admitir que la luz tiene un comportamiento dual, es decir, para ex-
plicar ciertos fenómenos (interferencia, difracción y polarización) hay que considerarla
como una onda, pero en otras situaciones (radiación de cuerpo negro, efecto Compton
y efecto fotoeléctrico) la luz se nos revela como si estuviese constituida de corpúsculos
(fotones) que tienen energía de valor definido (cuantos). Para explicar esto se genera-
ron cambios radicales en la concepción de la luz y de la materia, como son la dualidad
onda-partícula y la cuantización de la energía.
La energía de un fotón es proporcional a la frecuencia de la radiación y, en un
sistema determinado, un fotón puede ser emitido o absorbido durante una transición
del sistema de un nivel de energía a otro. La teoría de los fotones fue apoyada por mu-
chos otros experimentos ya conocidos, como la producción de rayos X y la producción
de pares electrón-positrón. En este nuevo enfoque, la energía no sería una cantidad
que varía en forma continua como se había concebido durante muchos siglos, sino
que estaría cuantizada. Encontrarás en esta lectura una breve revisión de los experi-
mentos claves, que contribuyeron a sustentar la revolucionaria teoría cuántica.
Naturaleza ondulatoria de la luz
En las diversas lecturas de electricidad y magnetismo has podido ver cómo evoluciona-
ron las ideas de la Física desde el modelo de acción a distancia de Newton hasta la idea de los
campos electromagnéticos. Un acontecimiento importante fue la confirmación de que la luz
tenía una naturaleza ondulatoria. La luz es una onda electromagnética, es decir, una superpo-
sición de un campo eléctrico y un campo magnético que cambian en el tiempo. Por esta razón,
posee una naturaleza ondulatoria que experimenta los mismos fenómenos de interferencia,
difracción y polarización que las ondas de otra naturaleza.
Interferencia de ondas luminosas
Para que puedas conocer acerca de este fenómeno de interferencia es necesario que
revisemos algunos conceptos importantes.
Para una onda que viaja en el espacio, se considera el frente de onda al conjunto de
puntos que tienen la misma amplitud y fase. Así por ejemplo, cuando lanzas una piedra a un es-
tanque con agua en reposo, alrededor de la perturbación se forma círculos concéntricos que se
propagan en la superficie del agua, a los bordes de estos círculos que viajan se les denominan
frentes de onda. Para describir este fenómeno, en 1687 C. Huygens propuso un modelo bas-
tante sencillo en el cual se considera que: todos los puntos de un frente de onda se comportan
cono fuentes puntuales que producen a su vez ondas esféricas secundarias. Este modelo está
fundamentado en argumentos de tipo geométrico y con el cual se puede ubicar fácilmente la
posición de un frente de onda e incluso su evolución en el tiempo.
Para un fenómeno que varía en forma cíclica, como es el caso de la onda electromag-
nética, la fase indica la situación en que se encuentra tal fenómeno en un momento determi-
nado. Matemáticamente, la fase de una onda es una expresión que está formada por cuatro
propiedades fundamentales las cuales son: número de onda (k) la cual está relacionada con la
longitud de onda, variable espacial (puede ser x, para una onda unidimensional), la frecuencia
angular (ω), que es la frecuencia de vibración de la fuente, la variable temporal (t), y la constan-
te de fase (φ) que puede ser positiva o negativa y representa el corrimiento de la onda hacia
adelante o hacia atrás en el espacio o en el tiempo. A cada onda le corresponde una función
matemática, la cual está determinada por la amplitud de la onda y la fase que la describe, tanto
para cada punto del espacio, como para cada instante de tiempo. Dos ondas están en fase
cuando sus fases φ coinciden.
La luz emitida por un cuerpo incandescente es producida por la oscilación muy rápida
de sus átomos; cada uno vibra y emite radiación de forma independiente. En este proceso, las
oscilaciones de los átomos experimentan cambios muy frecuentes y erráticos en el tiempo.
Estos cambios son imperceptibles para tu ojo, debido a que ocurren en tiempo muy cortos.
Ahora imagina que tienes dos fuentes radiantes, si tratas de percibir la superposición
de la luz que emite cada fuente se te hace imposible, debido a que sus ondas no están en fase,
cada una “va por su lado”.
La controversia onda-partícul a y el
nacimiento de la cuántica26

206 207
Figura 26.1. (a) Experimento de Young. (b) Patrón de interferencia.
La diferencia de camino óptico recorrido por las ondas, hasta alcanzar el punto
P, es r
1
– r
2
. Si esta diferencia es un número entero de veces de la longitud de onda, la
interferencia será constructiva puesto que en el punto P las ondas estarán vibrando en fase.
Por el contrario, si la diferencia de camino óptico recorrido es un número semientero de veces
de la longitud de onda, entonces las ondas vibrarán desfasadas en media longitud de onda y
se anularán, produciendo lo que se conoce como interferencia destructiva. En este andar de
la luz se obtiene un típico patrón de interferencia de franjas oscuras y claras. Este experimento
ha resultado una prueba más de las predicciones de Maxwell, además resulta un método
experimental muy preciso para medir la longitud de onda de una radiación luminosa.
Dentro de las manifestaciones que corresponden al fenómeno de interferencia
tenemos los colores resplandecientes que se observan sobre las burbujas de jabón, o los
derrames de aceite en los charcos de agua, el plumaje de ciertas aves (pavo real) y las escamas
de los peces. En estos casos, cuando la luz incide sobre una película delgada transparente
(como las burbujas de jabón), se produce reflexión en sus dos superficies y como resultado
surgen dos ondas coherentes que en determinadas condiciones pueden interferir en forma
constructiva o destructiva
.
Otra aplicación importante es la interferometría, una manera de medir gracias a un
aparato llamado interferómetro. Este dispositivo se basa en la interferencia entre dos ondas
luminosas coherentes para medir distancias con una gran precisión. Tal técnica de medición
se utiliza en astronomía y en óptica electromagnética para medir longitudes de onda e índices
de refracción de distintos materiales. Estudiemos a continuación otro fenómeno muy parecido
pero no igual, ¡cuidado, las apariencias engañan!
Y ahora la difracción
La difracción se refiere a la desviación de las ondas a una nueva dirección alrededor
de los objetos que interfieren en su camino. Si la luz incide sobre una abertura, podrías pensar
que debería verse una proyección del agujero mucho más grande, sin embargo, en ciertas con-
diciones, se observa un patrón característico con regiones claras y oscuras como se observa en
la figura 26.2.a.
Figura 26.2. a. Difracción de Franhoufer (los haces de luz llegan paralelos a la pantalla). b.
Comportamiento de la luz incidente en la pantalla, como un conjunto de fuentes infinitas.
Esta relación de fases, permite clasificar a las fuentes de luz en coherentes e incohe -
rentes. Se dice que dos fuentes son coherentes si generan ondas luminosas con una relación de fase constante entre sí, y son incoherentes si su diferencia de fase cambia en el tiempo, incluso para ondas de igual frecuencia. Un ejemplo cotidiano de luz coherente lo podemos ver en el láser, el cual emite luz coherente producida por muchos átomos sincronizados en frecuencia y fase.
El fenómeno de la interferencia lo estudiaremos por medio de un experimento funda-
mental en el desarrollo de las ideas de la ciencia moderna conocido como el experimento de Young o de la doble rendija.
Considera el caso de las dos fuentes de ondas sincrónicas representadas en la figura 26.1
(son sincrónicas porque generan ondas coherentes) separadas una cierta distancia. A un punto en los alrededores de la zona de influencia de las fuentes, llegarán ondas producidas por ambas fuentes, superponiéndose en ese punto. Dependiendo de su diferencia de fase la superposi- ción nos dará una amplificación (franjas claras) o una eliminación (franjas negras).
Cada punto del frente de onda en el agujero se comporta como una nueva fuente, por lo
tanto la onda proveniente de cada porción del agujero interferirá con las otras, en una dirección
determinada. Un patrón de difracción no es más que la interferencia de muchos puntos de un
mismo agujero. La difracción depende del tamaño de la rendija, con lo cual si el tamaño de la
rendija es grande la onda producida es una onda casi plana. Al contrario, si la rendija es pequeña
comparada con la longitud de onda se produce esencialmente una sola onda secundaria con
frentes de onda esféricos. Esto lo puedes comprobar si miras por la rendija que queda entre las
bisagras de una puerta, si la abres mucho observas muy bien por su interior lo que está más
allá de ella y, al contrario, a medida que la cierras la imagen será cada vez menos nítida lo que
representa que los frentes de onda que te permiten observar lo que está después de la rendija
son esféricos.
El desarrollo del modelo de difracción ha permitido el surgimiento de técnicas y dispo-
sitivos altamente efectivos utilizados en la investigación científica y en el trabajo tecnológico.
Uno de ellos es el espectrómetro de rejilla, este dispositivo consta de una rejilla de difracción
a b

208 209
para separar los distintos colores de la luz y así determinar con exactitud longitudes de onda a
partir de la medición cuidadosa de los ángulos de difracción, pudiendo identificar sustancias a
partir de la luz que emiten sus átomos o moléculas.
Las rejillas de difracción están constituidas por un gran número de ranuras las cuales
resultan idénticas, paralelas e igualmente espaciadas. Al aumentar este número de ranuras, las
franjas del patrón se hacen más nítidas e intensas, lo cual es una ventaja desde el punto de vista
experimental porque permiten distinguirlas y medirlas con relativa facilidad. La posición de los
máximos de intensidad de la onda difractada (franjas claras de la figura 26.2a), está dada por la
siguiente expresión:
Si observas la figura 26.2.b podrás identificar con facilidad las variables que conforman
la expresión anterior. Fíjate que conocido el ángulo θ, la distancia α y el número de orden m, es
posible conocer la longitud de onda de la radiación incidente en la rendija.
Un ejemplo cotidiano de difracción es el siguiente: si tomas un CD de esos comunes,
podrás notar una serie de surcos paralelos e igualmente espaciados sobre la superficie, la cual
es metálica. Estos surcos son del orden de los 100 nm de profundidad, la luz incidente (blanca)
en el CD se refleja separándose en rayos de diferentes colores porque los surcos funcionan
como diminutas rejillas de difracción. Otro ejemplo lo conforma la ley de Bragg (en honor a
padre e hijo en 1913), en la cual se utiliza la reflexión de la radiación de rayos X que inciden en
un material cristalino. Conociendo el ángulo θ y la longitud de onda λ se puede determinar de
forma indirecta el espaciamiento entre los átomos contiguos que conforman la red del material
o sustancia.
También, en el campo de la sismología y las investigaciones petroleras este fenómeno
es utilizado con frecuencia, con el fin de conseguir un mejor reconocimiento de la zona de
estudio. En nuestro país, Pdvsa lo aplica para las investigaciones de perfiles de suelos. Este
estudio consiste en hacer un número de disparos de haces de onda EM con el fin de conseguir
un perfil de difracción de longitud de onda equivalente. El resultado es un grupo de trazas
sísmicas y de la constitución interna del terreno estudiado, procedentes de todos los tiros que
se analizan, los cuales se procesan y luego se reordenan en conjuntos de puntos reflectores
comunes. Así se obtiene la información de todas las reflexiones halladas y por ende un
conocimiento bastante preciso del terreno que se está estudiando.
Figura 26.3. Imagen de la técnica de difracción reflexiva para el estudio sísmico y petrolero.
Polarización
El último de los fenómenos que estudiaremos es el de polarización. Veamos cómo ocurre.
Conoces que una onda EM está conformada por dos campos, uno eléctrico y otro magnético
que viajan perpendiculares entre si. Por otra parte, el campo eléctrico y el magnético son vecto-
res, y cada uno de ellos está conformado por dos componentes (una horizontal y una vertical)
denominadas las componentes rectangulares. Estas componentes son perpendiculares entre sí
y gozan de independencia, de forma que si una de ellas desaparece el vector no deja de existir,
pero sí disminuye su intensidad (módulo).
Una onda se dice que está polarizada cuando una de las componentes que conforman
el campo eléctrico o el magnético es absorbida, y la otra pasa libremente, lo que disminuye la
intensidad de la luz incidente. Pero, ¿cómo puede suceder esto? Esta absorción de una de las
componentes del campo se logra al hacer incidir la luz en un material denominado dicroico. El
más común de éstos, es una lámina sintética denominada polaroid que se fabrica estirando una
hoja de alcohol polivinílico (un producto de la industria de los polímeros), alineando así largas
cadenas de hidrocarburos de las moléculas del polímero.
Normalmente la luz de un bombillo, un pedazo de metal a una temperatura muy alta o
la radiación del Sol no emiten luz polarizada, porque en su actividad oscilatoria de gran rapidez
actúan un conjunto muy grande de átomos que vibran en diferentes planos de forma simultá-
nea orientados al azar, y emitiendo ondas de forma aleatoria.
Un ejemplo de este tipo de fenómenos lo puedes experimentar con los llamados lentes
que polarizan la luz del Sol. Los polaroides de los lentes se colocan de modo que su dirección
de polarización sea vertical; logrando con esto que la componente de la luz en forma horizon-
tal no sea transmitida. De esta manera, la intensidad de la luz que llega a los ojos es disminuida
y el reflejo que producen los brillos molestos queda atenuado. Así que de ahora en adelante
cuando te ofrezcan unos lentes que polarizan la luz del Sol, puedes comprobar si no te están
engañando, para ello póntelos y evidencia esta disminución de la intensidad de la luz solar, así
podrás decidir si los compras o no. También se aprecia el fenómeno en el agua de una piscina,
en donde la luz solar que se refleja se polariza parcialmente en su plano horizontal.
Otro de los fenómenos que se pueden combinar con la polarización es la birrefrin-
gencia o doble refracción. En materiales como el cuarzo y la calcita se presenta una caracte-
rística especial, ellos presentan dos índices de refracción. Si incide luz, se divide en dos rayos
polarizados que emergen perpendiculares. Una
aplicación de este fenómeno se hace en la in-
geniería de materiales, en la cual para estudiar
estructuras opacas de piezas metálicas, por
ejemplo vigas, columnas y otras, se reproduce la
estructura (se hace un modelo) con un material
birrefringente, se ilumina y se somete a prue-
ba. Observando la luz que se refleja se aprecia la
distribución total de esfuerzos y se calcula si podrían resistirse en la estructura original.

210 211
La luz además es una partícula
Los fenómenos estudiados en la sección anterior están ligados al carácter ondulatorio
de la luz, en esta sección podrás estudiar que la luz también presenta una naturaleza corpus-
cular. Esta naturaleza dual, como ya sabes, es conocida desde hace tiempo y a finales del siglo
XVIII y principios del siglo XIX una serie de experimentos llamados cruciales dieron cuenta de
que las ideas que conformaban la Física clásica (leyes de Newton, mecánica estadística, óptica,
teoría electromagnética y termodinámica) ya no alcanzaban para justificar las observaciones
realizadas en los experimentos, dando entrada a una nueva era en la ciencia y en el modelo de
la naturaleza de la luz: la teoría cuántica.
Radiación de cuerpo negro
Como cosa curiosa, el origen de la teoría cuántica está relacionado con un fenómeno
bien conocido que no pertenece a la parte fundamental de la Física atómica. Cuando se ca-
lienta un pedazo de material metálico, por ejemplo hierro, este comienza a ponerse candente,
y llega al rojo a altas temperaturas. El color no depende mucho de la superficie del material, y
para un cuerpo negro (un sistema ideal que absorbe toda la radiación incidente y que también
es el mejor emisor que existe, es decir, un modelo, ya que tal cuerpo no existe) depende sólo de
la temperatura. Por lo tanto, la radiación emitida por tal cuerpo-modelo a altas temperaturas,
era un tema que debería explicarse sin problemas en base a las leyes conocidas de la radiación
y el calor.
Sin embargo, los intentos efectuados a fines del siglo XIX por Jeans y Lord Rayleigh
fallaron, y pusieron de manifiesto serias dificultades, la aplicación de las leyes conocidas no
conducía a resultados razonables. Así, en 1895, Planck comenzó transformando el problema
de la radiación, en el problema del átomo radiante. Esta trasformación no eliminaba ninguna
de las dificultades fundamentales, pero simplificaba la interpretación de los datos empíricos.

Veamos cuál fue esta interpretación. Para esa época, el espectro de luz de una cavidad
a una temperatura dada se interpretaba por un modelo que no dependía del material ni del
detalle de las paredes de tal material. Este modelo permitía dar interpretaciones de por qué los
metales cambian de color al calentarse.
Los modelos de la época estaban fundamentados en: la ley de Stephan-Boltzmann,
la ley de Wien y la teoría clásica de Rayleigh- Jeans. La primera de estas leyes muestra cómo la
intensidad de una radiación es proporcional a la cuarta potencia de la temperatura. La segun-
da, explica el hecho de que al crecer la temperatura en la cavidad, la longitud de onda varía en
proporción inversa con la temperatura de la cavidad.
La tercera, la hipótesis planteada por Rayleigh-Jeans, conforma un intento primario
de hallar una forma teórica que pueda explicar los datos experimentales conseguidos por ellos
mismos. En estos experimentos ocurrió una discrepancia para las longitudes de onda cortas
que no concordaban con lo conocido teóricamente, como se muestra en la figura 26.4. En la
historia de la ciencia se le conoce a esta discrepancia entre teoría y experimento como la ca-
tástrofe ultravioleta.
Figura 26.4. Curvas experimentales y
teóricas que muestran que, conforme
la longitud de onda se acerca al
ultravioleta, los resultados predichos
por la ley se diferencian cada vez más
de los experimentales.
En el año 1900, Max Planck encontró una fórmula de la radiación que concordaba con
los resultados empíricos encontrados por Rayleigh-Jeans, para todas las longitudes de onda,
y esto le valió nada más y nada menos que el premio Nobel de Física en 1918. En el discurso
dado en la entrega del premio, alguien de la prensa preguntó a Planck cómo pudo conseguir
tal explicación y de forma muy humilde el científico expresó “fue una feliz adivinanza”. Esta feliz
adivinanza muestra la cuota de creatividad de los científicos en su más pura esencia, ya que la
idea de Planck es maravillosa.
La idea de Planck supuso que los átomos que forman las paredes se comportan cómo
osciladores que irradian energía en la cavidad y absorben energía de ella, pero no con valores
continuos, como suponía la teoría clásica, sino en valores o unidades discretas, esto quiere
decir, que existen valores de energía no continuos sino que se pueden contar.
Para que entiendas mejor esto te presentamos el siguiente ejemplo. Cuando tienes un
billete de 100 bolívares lo puedes cambiar en el banco en monedas de 1 bolívar, con lo cual el
cajero te daría 100 monedas. En el caso, el billete representa el continuo cuyo valor es 100, y las
monedas representan el discreto que es de igual valor que el continuo, es decir, 100. Pensarás,
que es lo importante aquí? Bien, el asunto es que la energía está cuantizada en valores que
podemos medir y conocer, además, esta idea permitió interpretar de manera correcta la nueva
fórmula que surgió de los datos experimentales. Así se dio el comienzo de la confirmación de
que la luz también tiene una naturaleza corpuscular.
La idea de que la energía sólo podía ser emitida o absorbida en cuantos discretos de
energía era tan nueva que no se la podía incorporar a la estructura tradicional de la Física.
Un intento de Planck de conciliar su hipótesis con las antiguas leyes de radiación, falló en sus
puntos más importantes. El próximo paso en la nueva dirección tardó cinco años en darse.

212 213
Figura 26.5. Pantalla de simulación de efecto fotoeléctrico, electrones emitidos por
una placa de sodio sobre la que incide luz ultravioleta. http://phet.colorado.edu
Efecto fotoeléctrico
Esta vez fue el joven Albert Einstein, un genio revolucionario que no temió avanzar
apartándose de los viejos conceptos. Había dos problemas en los cuales pudo hacer uso de las
nuevas ideas. Uno era el llamado efecto fotoeléctrico: emisión de electrones por los metales
bajo la influencia de la luz, algo que en 1887 había encontrado el mismo Hertz pero que no
pudo explicar.
Las experiencias mostraban que la energía cinética de los electrones emitidos no de-
pendía de la intensidad de la luz, sino solamente de su color, es decir, de su frecuencia. Esto no
se podía entender con las ideas tradicionales acerca de la radiación. Einstein pudo justificar y
explicar las observaciones interpretando que la hipótesis de Planck ratifica que la luz consiste
en cuantos de energía que atraviesan el espacio (¿se te parece a algo que ya conoces esto que
viaja por el espacio?). La energía de un cuanto de luz debía ser, de acuerdo con las suposiciones
de Planck, igual a la frecuencia de la luz multiplicada por la constante de Planck (una constante
de proporcionalidad con las mismas propiedades de las que ya conoces). ¡Eureka, la luz tam-
bién tiene naturaleza corpuscular!
El otro problema era el del calor específico de los cuerpos sólidos. La teoría tradicional
conducía a valores del calor específico que se ajustaban a las observaciones a altas temperatu-
ras, pero que no se ajustaban a las observaciones a temperaturas bajas. Nuevamente, Einstein
pudo demostrar teóricamente que se podía comprender este comportamiento aplicando la
hipótesis cuántica a las vibraciones elásticas del átomo del cuerpo sólido.
Estos dos resultados significaron un notable avance, puesto que revelaron la existen-
cia del cuanto de acción de Planck (como acostumbran los físicos a llamar su constante), en
varios fenómenos que no se relacionaban directamente con la radiación de calor y revelaban,
al mismo tiempo, el carácter profundamente revolucionario de las nuevas hipótesis, ya que la
primera de ellas conducía a una descripción de la luz completamente diferente de la imagen
ondulatoria que ya se conocía y que también ya conoces tú.
Ahora estás en la capacidad de interpretar que la luz consiste, bien en ondas elec-
tromagnéticas, según la teoría de Maxwell, bien en cuantos de luz, paquetes de energía que
atraviesan el espacio con la velocidad de aquélla. En 1916, Robert Millikan realizó experimen-
tos muy cuidadosos sobre el efecto fotoeléctrico y encontró una relación muy importante
con la cual se confirmaban finalmente las predicciones de los fotones de Einstein. Gran triun-
fo para la ciencia.
Efecto Compton
En 1923 los experimentos de Arthur H. Compton dieron una nueva confirmación de
la naturaleza corpuscular de la radiación. Compton hizo incidir un haz colimado (de rayos pa-
ralelos) de rayos X de longitud de onda λ bien definida sobre un blanco de grafito y midió la
intensidad y la longitud de onda de los rayos dispersados en varias direcciones, ver figura 26.6.
Se observó que aunque el haz incidente consiste esencialmente de una única longitud
de onda, en los rayos X dispersados en direcciones que forman un ángulo θ no nulo con la di-
rección del haz, aparecen dos longitudes de onda: una con la misma λ de la radiación incidente
y la otra mayor, esto es λ + Δλ . Este corrimiento Δλ , denominado corrimiento Compton, varía
con el ángulo en que se observan los rayos X dispersados. El resultado de Compton puede
deducirse suponiendo que los fotones se comportan como partículas puntuales que chocan
elásticamente, como bolas de billar, con los electrones libres estacionarios.
Entre los derivados fenomenológicos del efecto Compton están la colisión frontal fo-
tón-electrón y la creación de pares en colisión fotón-electrón. En el primer caso, un fotón choca
con un electrón y cede una cantidad de energía al electrón, que es igual a la mitad de su ener-
gía. En este caso el electrón sale hacia adelante en el mismo sentido del fotón incidente. Puedes
visualizar esto en la figura 26.7.
Figura 26.6. Esquema del experimento de Compton.

214 215
Figura 26.7. El antes y después del
choque del fotón con el electrón. En
este caso el electrón sale en la misma
dirección que el fotón incidente.
Figura 26.8. El antes y después del choque
del fotón con el electrón. En este caso se
produce un positrón e
+
y un electrón.
Teoría del fotón
Einstein sabía, naturalmente, que los fenómenos bien conocidos de difracción e inter-
ferencia sólo podían explicarse sobre la base de la imagen ondulatoria. No podía refutar la con-
tradicción que existía entre esta imagen ondulatoria y la idea de cuantos de luz; y no intentó
siquiera eliminar la inconsistencia de su interpretación. Tomó, simplemente, la contradicción
como algo que quizá habría de entenderse sólo mucho más tarde. En la teoría de fotones, Eins -
tein considera al fotón como una partícula de energía E = h f que tiene propiedades especiales,
ya que puede viajar a la velocidad de la luz y su masa en reposo es cero. Es decir, el fotón es una
partícula de masa en reposo nula y con una energía total que es completamente cinética.
La materia además es una onda
En esta lectura has podido conocer que la luz actúa algunas veces como ondas y
otras como partícula. La espera de Einstein acerca de la inconsistencia iba a encontrar la tan
ansiada solución en 1924 con Louis de Broglie, quiene sugirió que la materia al igual que las
ondas también debería obedecer a la naturaleza dual. Esta sugerencia supone a la materia
comportándose algunas veces como onda; con la peculiaridad de que las propiedades ondu-
latorias sólo serían apreciables en partículas muy pequeñas como los electrones, protones y
neutrones.
La continuación de las investigaciones en este campo llevó a Erwin Schröndinger,
en 1924, a desarrollar una ecuación de onda análoga a la ecuación de onda para la luz y el so-
nido, con la cual se describen estas ondas de materia. Esta ecuación representa para la Física
cuántica lo mismo que representan las leyes de Newton para la mecánica o las ecuaciones de
Maxwell para el electromagnetismo.
Pero la historia no termina aquí, el experimento de Davisson y Germer en 1927 daría la
comprobación final de estas ondas de materia. Este experimento consistió en hacer incidir un
haz de electrones sobre cristales de níquel, encontrando que daban lugar a una figura de di-
fracción característica de una onda, ¡increíble! Este trabajo demostró por un lado que el sólido
cristalino funciona como una rejilla tridimensional de difracción para las ondas de los electro-
nes, y por el otro confirmó que la materia también presenta un comportamiento dual.
Imagínate que disparas pelotas con un lanzador, haciéndolas pasar por una rendija, el
sentido común nos dice que si las pelotas llegan hasta una pantalla que tenga algún tipo de
papel carbón por detrás, tales pelotas dejarán marcas puntuales, pues son partículas materiales
según la mecánica clásica. Pero a nivel cuántico esto no es así, Davisson y Germer demostraron
que para electrones, por ejemplo, no se marcan puntos como en el ejemplo de las pelotas,
sino un patrón de difracción como en las ondas, un resultado sorprendente. En el mismo año,
Thomson hijo, obtuvo otro resultado que terminaría de confirmar experimentalmente la pre-
dicción de De Broglie. Haciendo incidir electrones en aluminio pulverizado obtuvo un patrón
de difracción circular conocido como anillos circulares concéntricos, de nuevo la materia se
comportaba como onda.
Más adelante, nuevos problemas y soluciones surgieron en este campo de la ciencia,
y la mecánica cuántica vino a conformar la clave del conocimiento que ahora tenemos acerca
del micromundo, imperceptible a nuestros sentidos. Esta rama de la Física conllevó a que en
la actualidad tengamos una serie de nuevas ideas en nuestro conocimiento y comprensión
del mundo, permitiendo así la construcción de una realidad llena de adelantos tecnológicos.
Pero la carrera no se detiene aquí, estamos a la espera de nuevos descubrimientos y nuevas
aplicaciones en ese avanzar altamente dinámico que ha presentado la ciencia desde siempre
y que debe dirigirse, por siempre, al servicio de las comunidades humanas, a la preservación
de la vida y al entendimiento del Universo.
Para saber más…

En 1906, J. J. Thomson recibió el premio Nobel por haber demostrado la existencia de
la partícula electrón y haber medido su relación carga/masa. Treinta y un años después,
en 1937, su hijo George Thomson junto con Clinton Davisson y Lester Germer también
recibió el mismo premio por demostrar que el electrón era una onda, mediante la di-
fracción de electrones.
El otro caso está referido a la creación de pares en colisiones fotón-electrón. En éste un
fotón colisiona con un electrón en reposo produciéndose un par positrón-electrón. En la figura
26.8 puedes observar una representación de este fenómeno. Antes del choque, el fotón posee
energía E. Después del choque, la energía cinética final de cada partícula es 2/3 de la energía
cinética inicial del fotón.

216 217
Historia sin fin: problemas que generan nuevas ideas y problemas
La historia del desarrollo de la teoría de campos llega hasta nuestros días. Sin embar-
go, como punto más resaltante mencionaremos en qué momento de tal devenir ocurrió el
cambio radical de las ideas científicas. Fue Einstein quien planteó ideas que desataron sucesos
y cuestiones que abrieron nuevas líneas de investigación.
Estas ideas representan el comienzo de un nuevo intento de descubrir una verdadera
imagen del mundo, intento que aún hoy continúa, como podemos darnos cuenta en una re-
flexión de Einstein que dice así:
“¿El universo? Este gran romance lleno de misterios aún sin resolver…No estamos ni
siquiera seguros de que puedan tener una solución definitiva…”.
La teoría de la relatividad y la cuántica integran el campo de la Física moderna. A pesar
de estar fundamentadas en teorías previas como las que mencionamos antes, van mucho más
allá de éstas. Ya que introducen multitud de pensamientos nuevos, así cómo tecnologías, por lo
que se convierten en una auténtica revolución científica. Con repercusiones de mucho signifi-
cado en diversas áreas como: Biología, Cosmología, Ciencias de la Tierra, Química, Tecnología y
por supuesto en la evolución de las sociedades en los aspectos sociológicos, económicos, polí-
ticos e industriales. Incluso en nuevas formas de comprender y abordar problemas que atañen
al campo de la psicología del aprendizaje humano y la neurociencia.
Siempre quedan preguntas sin respuestas, los principales problemas de investigación
te los presentamos en el siguiente esquema de forma muy resumida:
Estas inquietudes esperamos que te motiven a continuar tus estudios en este fasci-
nante campo de la ciencia, y contribuir en esta historia sin fin, para que la mejora de las con-
diciones de vida de toda la humanidad se mantenga hoy y siempre. ¡Anímate! En cualquier
caso, te serán importantes para tu participación social con responsabilidad como ciudadano
educado científicamente.
Actividades de autoevaluación
1. Usen láminas de polaroid de esas comunes que se consiguen con facilidad. Es im-
portante que sean idénticas y que ustedes se encuentren en un espacio en donde haya luz. Normalmente las láminas de polaroid son bastante transparentes y cuando se coloca una lámi- na encima de la otra, lo siguen siendo. Giren lentamente una lámina con respecto a la otra, ¿qué observan en la región de superposición? Sigan girando la lamina hasta 90° ¿Qué observan? Si se sigue girando la region de contacto, una de las láminas empieza a aclararse y cuando ha con- cluido un giro de 90° la region de contacto vuelve a ser transparente ¿es cierto esto? Justifiquen y discutan.
2. Dos anteojos polaroides se colocan uno encima de otro, y se les hace incidir luz so-
lar. ¿Cuál debe ser el ángulo θ entre las direcciones características de los polaroides para que
la intensidad de la luz transmitida sea un cuarto de la intensidad de la luz incidente? Verifica el resultado con la ayuda de la profesora o el profesor.
3. Para que comprendan en qué consiste el efecto fotoeléctrico les sugerimos la inte-
racción con este simulador de la actividad experimental, disponible en la siguiente dirección:
http://www.didactika.com/fisica/fisica_moderna/fisica_moderna_efecto_compton.html
Con el uso del simulador les sugerimos las siguientes actividades:
- ¿Cómo la variación de intensidad de la onda afecta la emisión de electrones, para un material y una longitud de onda establecidos?
- ¿Qué rango de longitud de onda produce la emisión de electrones, para un material y una intensidad establecidos?
- Discutan en grupos las observaciones realizadas. Propongan un representante que exponga las observaciones de cada grupo y luego emitan una conclusión general en conjunto con él o la docente.
4. Construyan una línea del tiempo que resalte los avances en Física desde la teoría
electromagnética hasta el experimento de la naturaleza ondulatoria de la materia. Expongan en su institución los resultados del estudio, hagan la línea lo más atractiva y educativa posible, para que despierte el interés de su público.

218 219
El Albert Einstein científico: Teoría de la
relatividad especial
En 1905 el científico alemán Albert Einstein publicó un artículo en la revista Annalen der
Physik, denominado Zur Elektrodynamik bewegter Körper (Sobre la electrodinámica de cuerpos
en movimiento) que revolucionó el campo de las ciencias. En este artículo se señalan los prin-
cipios fundamentales de lo que hoy en día se conoce como “Teoría de la relatividad especial”.
Esta teoría significó un cambio radical en la manera de concebir las ideas de espacio y
tiempo, ya que se toma en cuenta a las “propiedades de la luz” en la relación entre la persona
que observa y el objeto observado.
Un experimento que resultó crucial en la construcción de esta teoría fue el realizado por
Michelson y Morley, en el año 1887, con la intención de demostrar la existencia del éter. Con
éste, y en una extraña paradoja de la historia, lo que se encontró fueron conclusiones sobre la
velocidad de la luz a las que se llamó leyes. Éstas se podrían resumir:
• El valor de la velocidad de la luz es constante, c = 300.000 km/s.
• La velocidad de la luz es independiente de la fuente.
Estas leyes muestran que la velocidad de la luz es la misma para todos los observadores
inerciales quienes siempre medirán el mismo valor, independientemente de que la fuente esté
en reposo o moviéndose a velocidad constante. Imagínate por un momento que tienes una
linterna en tu mano y estás buscando un objeto en un cuarto oscuro. Si estando en reposo
alumbras al objeto el rayo de luz sale de tu linterna a rapidez (c), pero también saldrá a velocidad
(c). Si acercas o alejas la linterna, la velocidad de la luz no cambia, aunque haya cambiado el
movimiento de la fuente que la produce.
Estos hechos generaron un dilema en la audaz mente de Albert Einstein, ya que los
mismos parecen no corresponder al principio de relatividad de Galileo Galilei, que para este
caso señala que, estando en un sistema móvil, la velocidad de un objeto respecto a un sistema
fijo será: la velocidad del objeto con respecto al sistema móvil más la velocidad del sistema
móvil con respecto al sistema fijo (figura 1.a). Es lo que se conoce como ley de transformaciones
de las velocidades de Galileo. Ley que no parece aplicar para la velocidad de la luz, como se
ejemplifica en la figura 1b.
Figura 1. a) La rapidez con la que el joven lanza la pelota respecto a la Tierra, será la rapidez con que él corre más la
rapidez de la pelota con respecto al joven; b) Si el joven “lanza” un rayo de luz, la velocidad de este será 300.000 km/s,
independientemente de la rapidez con que el muchacho corra.
Algo más para saber sobre Ciencia y Tecnol ogía

220 221
Sobre estas teorías, había otro hecho que considerar. Para esa época James Clerk
Maxwell, como lo viste anteriormente, había conseguido establecer teóricamente la naturaleza
ondulatoria de la luz, y señalaba que esta onda debería viajar a una velocidad constante (c).
Para resolver esta aparente contradicción, Albert Einstein asumió como válidas las le-
yes de la velocidad de la luz y las de Maxwell y por tanto planteó la necesidad de reestructurar
las leyes de transformación de Galileo. Con una nueva concepción del espacio y el tiempo que
desafiaba tremendamente al sentido común.
Los postulados acerca de cómo hacer tal reestructuración son conocidos hoy en día
como principio de la relatividad especial, y tres de sus más importantes ideas te las presenta-
mos a continuación:
1. Relatividad de la simultaneidad
Imagínate por un momento que estás en el centro de la plataforma que une a dos vago-
nes de un tren que se desplaza hacia la derecha y a ambos extremos de los vagones se produce
un “chispazo de luz” como se muestra en la figura 2(a). Tú dirás que los chispazos en el interior
se produjeron simultáneamente si logras detectar que ambos chispazos llegan a ti al mismo
momento, como en la figura 2(b). En cambio, un observador que se encuentra fijo, aseguraría
en ese momento que primero se produjo el chispazo en la parte trasera del tren. Esto significa
que para este caso lo que es simultáneo para un observador que se encuentra en un sistema
que se mueve a velocidad constante no es simultáneo para otro que se encuentra en un siste-
ma fijo. Es decir, la simultaneidad de los eventos es relativa.
Considera que viajas sentado en el vagón de un tren (S’) que va a velocidad constante
u y que el techo del vagón tiene pegado un espejo que refleja un rayo de luz enviado desde el
piso, para éste observador ubicado dentro del tren (S’), el rayo de luz, cuya velocidad es c, reco-
rrió una distancia 2D (figura 3 a) y por tanto el tiempo en ir y regresar de este rayo de luz será:
Recuerda que velocidad = distancia / tiempo. Consideremos ahora un observador ubica-
do en Tierra (S), éste dirá que la distancia recorrida por el rayo de luz reflejado por el espejo será
como la señalada en la figura 3(b) y su valor se determinará como:
y el tiempo
en ir y regresar es:
Despejando , tenemos:
Como en esta ecuación siempre se va a cumplir que , entonces comparando
con la ecuación para , se verifica que , esto demuestra que un observador en Tierra
registrará un mayor tiempo en la realización de ese evento que uno colocado dentro del vagón.
Es por eso que se afirma que el tiempo es relativo y que para el observador en Tierra se ha
dilatado el tiempo (se hace más largo) en comparación con el observador dentro del vagón.
Al tiempo que mide el observador en el vagón se le llama tiempo propio.
Se puede demostrar que la relación matemática entre
y es de la siguiente manera:

Donde
Esto demuestra que el tiempo es relativo a la velocidad a la que se mueva el sistema en
el cual se esté realizando la medición del tiempo. De esta dilatación del tiempo es que surge
lo que se llama la paradoja de los gemelos que señala que si un hermano gemelo viaja por
el espacio en una nave espacial a una velocidad próxima a la velocidad de la luz, al cabo de un
tiempo éste regresará más joven que el gemelo que se quedó en la Tierra. Porque para este
último el tiempo transcurre más lentamente.
a)
b)
Figura 2. a) Se producen chispazos de luz a los extremos de un tren con dos observadores colocados en el
centro, uno en tierra y otro sobre el tren; b) si el observador en tierra asegura que los chispazos de luz se
produjeron simultáneamente el observador en el tren dirá que no fueron simultáneos.
2. Relatividad del tiempo (dilatación
del tiempo)
Otra de las consecuencias importantes
que se deben considerar, por tomar la veloci-
dad de la luz como ley fundamental, surge es
al momento de comparar las mediciones del
tiempo que hacen dos observadores, uno en
un sistema fijo (S) y otro en un sistema móvil
(S’). Esta diferencia la podemos demostrar a
través del siguiente “experimento pensado”.
Figura 3. En la figura se muestran las diferencias en la
medida del tiempo que harán dos observadores; a) uno
colocado dentro de un sistema móvil y b) otro fijo colocado
en Tierra.
a)
b)

222 223
3. Relatividad de las posiciones (Contracción de las longitudes)
En el caso de la medición de la longitud, ocurre algo similar que con el tiempo, ya que
debemos tomar en consideración las leyes de la velocidad de la luz. Consideremos el siguiente
“experimento pensado”. Para medir la longitud de una barra, coloquemos un observador en un
sistema móvil (S’) (Rojo) y que lanza un rayo de luz desde la parte final de la barra hasta un espe-
jo colocado al inicio de la misma, este observador dirá que la “longitud propia” de la barrar será:

Considerando que la distancia que recorrió el rayo de luz en el viaje de ida al
espejo, es igual a la que recorrió en el viaje de regreso.
En cambio un observador colocado en un sistema de referencia fijo (S) (Azul), dirá que
el rayo de luz recorrió menos distancia en el viaje de regreso porque debe considerar que en ese tiempo la barra se estaba moviendo junto con el sistema, es decir él ve la barra de un menor tamaño, es por eso que para este observador se contraen las longitudes, en la dirección en la que se desplaza el objeto. Es decir la medición de las longitudes es relativa, depende de la rapidez del sistema de referencia. Se puede demostrar que la relación entre estas longitudes es:
El Albert Einstein pacifista, sabio y humanista
“Nunca consideres el estudio como una obligación,
sino como una oportunidad para penetrar en el bello y maravilloso mundo del saber”
Albert Einstein representa al científico creativo por definición. Son ampliamente cono-
cidos sus descubrimientos y sus teorías en torno a la relatividad y a la moderna concepción del
espacio-tiempo con que la humanidad inauguró el siglo XX, teorías que regulan actividades
en este siglo XXI y que posiblemente trascenderán los siglos por venir. Sus ideas dieron base
al inicio de la Era Nuclear, con la fisión del átomo, desarrollo que ha abierto un mundo, a la vez
fascinante y riesgoso para la civilización.
La época moderna se caracteriza por descubrimientos científicos extraordinarios,
avances tecnológicos y aplicaciones prácticas cada vez más sorprendentes. ¿Quién no queda
impresionado por ello? No obstante, conviene recordar a Einstein cuando afirma: “el conoci-
miento y las aptitudes técnicas no necesariamente llevan a la humanidad a una vida digna y
feliz”, idea que nos hace pensar en el sentimiento humanista que defendía para el uso de la
Ciencia y la Tecnología.
Paradójicamente, un derivado de su creación científica fue usado como arma letal
que acabó con la vida de miles de personas cuyos líderes políticos no medían sus ansias de po-
der y hegemonía en el mundo. Esto nos recuerda las bombas atómicas en Hiroshima y Nagasa-
ki (Japón, 1945). Y decimos paradójico porque Einstein fue un partidario entusiasta de la paz y
el desarme en la época que le tocó vivir. Tal es su mensaje social, que se extiende a la aspiración
de un mundo mejor, en el que la paz y la igualdad establezcan en los hombres y las mujeres una
verdadera comunión entre Ciencia, Tecnología y humanidad.
De este período en la vida de Albert Einstein deriva una filosofía social, (como un hilo
conductor), que trama su preocupación por la vida comunitaria y por el destino del ser humano,
contemplado como un ciudadano de paz y no para la guerra.
A Einstein le gustaba posar para los fotógrafos con su pipa en la mano, a veces mostraba
la lengua, burlándose de la pomposidad científica. Todo el mundo sabe que Albert Einstein fue
un alumno desaplicado en su época de bachillerato. Y un adulto poco convencional.
Criticaba que el sistema educativo hiciera énfasis en lo meramente intelectual; que se
dirigiera sólo a lo eficaz y a lo práctico, descuidando los valores éticos.
Reprochaba que la escuela utilizase el temor y la fuerza como elementos para ejercer
presión en los estudiantes, ya que desde ese enfoque se destruyen en el individuo los senti-
mientos sólidos, la sinceridad y la confianza en sí mismo.
Einstein censuraba el egoísmo y la competencia malsana entre las jóvenes y los jóve-
nes estudiantes que propiciaban el afán de aprobación, hecho que conduciría a un excesivo
egoísmo en las personas. Y lo definía de esta manera: “El enfrentamiento entre miembros de
una comunidad atenta contra su supervivencia”.
Figura 4. El observador colocado en el sistema de referencia fijo (azul) mide una longitud (l) menor de la
barra en comparación con el observador colocado en el sistema de referencia móvil (rojo), longitud l’.
El considerar la velocidad de la luz para medir los tiempos y las posiciones, trajo
como consecuencia que también hay que considerar su efecto al momento de determinar la
velocidad, fuerza, cantidad de movimiento, energía, es decir se da un cambio completo en las
ideas de la mecánica de Newton. Una de las ideas que surgieron es la denominada energía en
reposo, o energía para constituir la materia, con lo cual se demostró la relación permanente
entre la materia y la energía. Por esta relación, todo cambio en la materia (desintegración o
creación) se transforma en energía en una proporción representada por la siguiente fórmula
.
Estas ideas cambiaron las concepciones absolutas de espacio y tiempo y luego con la
teoría general de la relatividad cambió la concepción de fuerza, en un principio tales cambios
fueron vistos con cierto escepticismo y el premio Nobel de Física le fue otorgado a Albert Eins-
tein por otro trabajo, sobre el efecto fotoeléctrico, presentado en una lectura anterior. A conti-
nuación te mostraremos el lado humano de este notable científico.

224 225
Einstein recreaba una sociedad ideal partiendo de una postura humanista, y desde allí hacía
grandes cuestionamientos al sistema que dominaba, y aún domina, las relaciones en el mun-
do. Definía con las siguientes palabras su postulado: “Estoy convencido de que hay solamente
un camino para eliminar estos graves males, el establecimiento de una economía socialista,
acompañada por un sistema educativo orientado hacia metas sociales. En una economía así,
los medios de producción son poseídos por la sociedad y utilizados de una forma planificada”
(Einstein, 1949).
Albert Einstein era un adelantado, en su época supo mirar al Siglo XXI, y vislumbró que
“una economía planificada, que ajuste la producción a las necesidades de la comunidad, distri-
buiría el trabajo a realizar entre todos los capacitados para trabajar y garantizaría un sustento
a cada hombre, mujer, y niño”.
La postura social del Einstein pedagogo podría definirse en sus propias palabras:
“La educación del individuo, además de promover sus propias capacidades naturales,
procuraría desarrollar en él un sentido de la responsabilidad para sus compañeros-hombres en
lugar de la glorificación del poder y del éxito que se da en nuestra sociedad actual”.
Sobre el desarrollo científico de su tiempo, llegó a afirmar:
“Nuestra época ha producido muchos espíritus innovadores cuyos inventos podrían
beneficiar considerablemente nuestras vidas. Gracias a la fuerza de las máquinas podemos cru-
zar los mares y también podemos utilizar la fuerza de las máquinas para liberar a la humanidad
del trabajo muscular que produce fatiga. Hemos aprendido a volar y gracias a las ondas elec-
tromagnéticas podemos difundir informaciones y noticias por todo el mundo. Pero, en cambio,
como no se ha organizado en absoluto la producción y distribución de las mercancías, el indivi-
duo tiene que seguir viviendo con el miedo de verse excluido del proceso económico”.
¡Como para pensar y actuar, buscando una solución!
¡Aviva tu chispa científica!
Oportunidades de estudio
en el área de las C iencias Naturales
Al haber reflexionado sobre los conocimientos presentados en esta colección sería
muy satisfactorio, para quienes creamos sus páginas, que pudieras tener una visión integral
sobre cómo debe ser la interacción naturaleza-seres humanos, para el bien de la vida y de la
humanidad en el planeta.
Más aún, nos gustaría poder convertir la chispa científica que pudo haberse encendi-
do en ti con cada tema, con cada actividad, con cada dibujo, con cada mensaje, en una llamara-
da de amor que sirva al país, a la patria grande y a la humanidad para alcanzar sus más nobles
propósitos. Y por retruque que traiga plenitud y felicidad, para ti misma, para ti mismo y para tu
familia. En el país existen diversas posibilidades para estudiar carreras universitarias en el área
de las Ciencias Naturales. Ahora que estás en tu último año de educación media, seguramente
quisieras conocer algunas de ellas.
Sobre el particular, es bueno recordar que
desde el año 2003, con la “Misión Sucre”, se ha veni-
do desarrollando un proceso de transformación en
la educación universitaria; se crearon los Programas
Nacionales de Formación (PNF), modalidad educativa
acreditada por diversas instituciones universitarias,
que enfatiza la vinculación con las comunidades. En-
tre esta modalidad y los esquemas tradicionales de
formación, hoy se ofrece una diversidad de oportu-
nidades, instituciones, enfoques y carreras para estu-
diar, ¡sólo es cuestión de que te informes!
Liceo Bolivariano Rafael Benito Perdomo, sector
La Matera, municipio San Rafael de Carvajal,
estado Trujillo.
La educación universitaria venezolana comprende dos niveles: el de pregrado y el de
posgrado. Estos niveles se cursan en instituciones de educación universitaria (IEU), las cuales
son muy variadas.
Las IEU que ofrecen estudios de pregrado en el país son: colegios universitarios (CU);
institutos universitarios (IU); institutos universitarios de tecnología (IUT); universidades poli-
técnicas territoriales (UPT) y universidades (U). Las universidades pueden ser nacionales o na-
cionales experimentales. Entre las IEU, hay unas de gestión privada (en las que se paga por
estudiar) y otras públicas, es decir, las financiadas por el Estado venezolano para garantizar el
derecho al estudio de toda la población, sin distinción ¡incluyendo la edad!
Según su duración y plan de estudio, hay dos tipos de carreras: las llamadas cortas,
que duran 3 años y cuyo título profesional ofrecido es el de Técnica o Técnico Superior Univer-
sitario (TSU) y las llamadas carreras largas (de 5 a 7 años) que confieren el título de Licenciada,
Licenciado o sus equivalentes (Profesora, Profesor, Médica, Médico, Ingeniera, Ingeniero, entre
Uno de los postulados más hermosos
de Einstein sostiene que “el hombre que triunfa
es aquel que recibe mucho más de sus semejan-
tes… incluso, más que lo correspondiente al ser-
vicio prestado”. Apostaba, además, a la idea de
que era pertinente aprender a discernir las moti-
vaciones de los seres humanos, sus sufrimientos
e ilusiones, para así conseguir una relación ade-
cuada con su prójimo y con la comunidad. Estos
elementos, que él consideraba espirituales, se-
rían transmitidos a las próximas generaciones a
través del contacto personal con la maestra o el
maestro que tenía la responsabilidad de educar.
Desde una mirada crítica, asumiendo
que la crítica es no conformarse con lo evidente,

226 227
otros). Con los PNF, que por ahora son 26, se forman TSU en 2 años, y Licenciadas o Licenciados,
o sus equivalentes, en 4 años.
Muchos PNF se desarrollan en Aldeas Universitarias que constituyen una red de espacios
e
ducativos que funcionan en locales de las IEU y en otros ámbitos. Si deseas mayor información
al respecto, puedes consultar la siguiente dirección electrónica: http://www.misionsucre.gob.ve/
websitems/web/frontend.php/index/pnf/p/p/img/img03
Bajo la Misión Alma Mater (2010) se han creado instituciones y carreras universitarias
nuevas. De igual forma, se han convertido algunos IUT en Universidades Politécnicas Territoria-
les (UPT) que ofrecen carreras relacionadas con necesidades prioritarias del país, combinando
la demanda de estudios con las potencialidades de las regiones. En las UPT se ofrecen estudios
para TSU en 2 años, y para licenciaturas, o sus equivalentes, en 4 años.
Los posgrados se estudian en las universidades y exigen, como requisito, haber culmi-
nado una licenciatura o sus equivalentes.
Los estudios universitarios son regidos por el Ministerio del Poder Popular para la Edu-
cación Universitaria (MPPEU) y las posibilidades a cursar están contenidas en un material de-
nominado Libro de Oportunidades de Estudio en las Instituciones de Educación Universitaria en
Venezuela, el cual es actualizado cada año. Este libro puedes consultarlo en la dirección elec-
trónica http://loe.opsu.gob.ve/ Busca información en tu liceo o colegio acerca del proceso de
inscripción ¡desde el inicio del año escolar!
En cuanto al tipo de carreras ofrecidas en el país, éstas se organizan en ocho áreas de
conocimiento. Estas áreas son: Ciencias Básicas; Ingeniería, Arquitectura y Tecnología; Ciencias
del Agro y del Mar; Ciencias de la Salud; Ciencias de la Educación; Ciencias Sociales; Humani-
dades, Letras y Artes; y Ciencias y Artes Militares. Cada área tiene subáreas y en ellas están las
carreras, ya sean cortas, largas o PNF.
A continuación te presentamos información específica relacionada con las oportuni-
dades de estudio en el área de las Ciencias Naturales.
Para tu mejor comprensión, es oportuno que sepas que las Ciencias Básicas se rela-
cionan directamente con la investigación científica realizada sin fines prácticos inmediatos. Su
finalidad es aumentar y mejorar el conocimiento, por sí mismo, sobre los principios y procesos
de la naturaleza. Estos conocimientos son presentados en forma de teorías o de leyes que lue-
go son transformados en aplicaciones prácticas como procedimientos, instrumentos, aparatos
o equipos para resolver problemas de la sociedad; a esta parte concreta, transformada, es lo
que llamamos tecnología o Ciencia Aplicada.
Con relación a la información ofrecida, te presentamos a continuación una muestra de
carreras, organizadas por áreas y subáreas de conocimiento. Vale destacar que la mayoría están
dirigidas hacia la formación profesional tecnológica. Muchas ofrecen variedad de horarios y
localidades a lo largo y ancho de la geografía nacional.
UCV: Universidad Central de Venezuela. UBV: Universidad Bolivariana de Venezuela.
UC: Universidad de Carabobo.
UNELLEZ: Universidad Nac. Exper. de los Llanos
Ezequiel Zamora.
ULA: Universidad de los Andes.
UNEFA: Universidad Nac. Exper. Politécnica de la
Fuerza Armada.
LUZ: Universidad del Zulia. IUTI: : Instituto Universitario de Tecnología Industrial.
UDO: Universidad de Oriente.
IUTFRP: Instituto Universitario de Tecn. Dr. Federico
Rivero Palacios.
UNESB: Universidad Nacional Experimental Simón
Bolívar.
IUTJLCH: Instituto Universitario de Tecn. José Leonardo
Chirino.
UNEFM: Universidad Nacional Experimental Francisco
de Miranda.
IUTPC: Instituto Universitario de Tecn. de Puerto
Cabello.
UNERG: Univ. Nac. Exp. de los Llanos Centrales
Rómulo Gallegos.
Carreras Descripción Campo de Trabajo IEU
Biología
5 años
(Licenciatura)
Estudia el origen, desarrollo y otros aspectos de los organismos vegetales y animales, tanto en laboratorios, como en condiciones naturales. Estudia el comportamiento de cultivos orgánicos ante estímulos. Incluye Botánica, Zoología y Ecología Celular.
Centros de investigación, industria alimenticia farmacéutica y agrícola. Docencia en IEU
UCV, UC
ULA,
LUZ,
UDO,
UNESB
Física
5 años
(Licenciatura)
Estudia la naturaleza, la energía, la estructura de la materia, las leyes que rigen los movimientos de los cuerpos y su interacción. Incluye óptica cuántica, geofísica, astrofísica y las propiedades eléctricas, magnéticas, y térmicas en su estado sólido. Comprueba y propone leyes.
Centros de investigación. Asesoría en industria petrolera, metalúrgica, petroquímica, microscopía y radioterapia.
UCV, UC
ULA,
LUZ,
UDO,
UNESB
Química
5 años
(Licenciatura)
Estudia la materia, sus propiedades y la transformación en su estructura celular, molecular y atómica. Realiza investigaciones y experimentos con las sustancias.
Centros de investigación. Industria petroquímica, minera, alimenticia y farmacéutica.
UCV, UC
ULA,
LUZ,
UDO,
UNESB
Carreras Descripción Campo de Trabajo IEU
Mecánica
Térmica  
3 años
(TSU)
Ejecuta programas de mantenimiento de má- quinas y equipos como turbinas a gas, vapor o hidráulicas, aire acondicionado, refrigeración, calderas, intercambiadores de calor, bombas, compresores y motores diesel, de corriente continua y alterna.
Centrales termoeléctricas, hidroeléctricas, plantas diesel, turbinas de gas, sistemas eólicos. Industria alimenticia, plásticos y procesos químicos.
IUTPC, IUT (Guacara), IUTI (Caracas, Maracay, Valencia, Maracaibo), IUTJLCH (Punto Fijo).
Siglas de las IEU:

228 229
Quizás te resulte interesante saber que existe un centro de investigación llamado Cen-
tro de Estudios Avanzados (CEA), adscrito al Instituto Venezolano de Investigaciones Cien-
tíficas (IVIC), el cual ofrece un programa para las estudiantes y los estudiantes de pregrado
de carreras científicas, de universidades nacionales y extranjeras, que deseen vincularse a la
actividad investigativa y al manejo de equipos y técnicas de laboratorio para ampliar su forma-
ción, mientras estudian. Las pasantías se realizan en tiempo variables, previa aceptación de una
tutora o tutor del Centro y del cumplimiento de otros requisitos.
El programa tiene cinco categorías que son: Estudiante Visitante, Estudiante Asistente,
Estudiante Tesista, Estudiante en Entrenamiento y, el que quizás te interese más, el Pasante de
Bachillerato. Para ser aceptado en esta categoría debes estar cursando el último año de educa-
ción media. Las solicitudes de ingreso se hacen durante todo el año. Para información detallada
puedes visitar la siguiente dirección: http://cea.ivic.ve/
En tus manos, mente y corazón está el presente y el futuro de la nación. Aprovechar
las oportunidades de formarse, para un desarrollo científico-tecnológicos, en armonía con la
naturaleza y que beneficie a todas y todos, es una forma de contribuir con ella.
Venezuela un territorio de C iencia, Tecnología e Innovación
Joseph A. Schumpeter, economista
austriaco (1883-1950).
El concepto de innovación es introducido por
primera vez por Joseph A. Schumpeter quien, en 1939,
planteó que un factor esencial para el desarrollo de las
economías, debe ser permitir a los individuos aumentar
sus capacidades y oportunidades. Además, estable-
ció que la innovación, en combinación con las fuerzas
socioculturales, conlleva a una nación a sumirse en el
proceso de transformación y mejoras en lo económico,
lo social y lo cultural.
Como se observa, el concepto de innovación
proviene del mundo de la Ciencia económica y no
de la Ciencia experimental. Su fundamentación es
muy ecléctica o diversa, derivada de la corriente del
pensamiento económico evolucionista e industrial, la
nueva teoría del crecimiento o crecimiento endógeno
y la economía institucional.
En la mayoría de las economías del mundo actual, la innovación se vincula con el desa-
rrollo científico y tecnológico impulsado por la oferta y la demanda del sector empresarial
privado, y en menor cuantía, del sector público, haciendo que cualquier tipo de inversión
produzca un bien o servicio que genere ganancia. En este modelo de innovación prevalece el
criterio del mercado y no el de la función social, además favorece el monopolio del conocimiento
a favor de las grandes corporaciones transnacionales y se ancla a una visión clasista y de
jerarquía cientificista del conocimiento.
Este modelo de creación choca con los criterios que se han establecido en la Constitución
venezolana para alcanzar mayores niveles de justicia social, atendiendo a una distribución
equitativa de los beneficios ofrecidos por la Ciencia y la Tecnología.
Venezuela, en el ámbito de la Ciencia, la Tecnolo-
gía y la Innovación, inició su carrera a mediados del siglo
XX con una institución, en particular, que contextualiza el
potencial que tenemos en esta área y que es necesario te-
nerla presente.
Se trata del Instituto Venezolano de Investigaciones
Científicas (IVIC), institución pionera y que fue ejemplo para
muchas en América Latina. Fue creada en 1955, en los Altos
de Pipe, estado Miranda, por Humberto Fernández Morán,
investigador destacado que en los primeros tiempos instala
en este espacio el Instituto Venezolano de Neurología e In-
vestigaciones Cerebrales (IVNIC). Con la caída de la dictadu-
ra pérezjimenista, el instituto tecno-científico fue olvidado.
Humberto Fernández-Morán
investigador venezolano.
Carreras Descripción Campo de Trabajo IEU
Biología Marina
5 años
(Licenciatura)
Diagnostica los ecosistemas marinos
(arrecifes, estuarios, manglares,
litorales). Investiga sobre el ciclo de
vida de los organismos marinos.
Centros de Investigación e IEU,
industria pesquera, Ministerios
(Agricultura y Tierras, Ambiente,
Comercio) y otros.
UDO (Nueva
Esparta).
¡Aviva tu chispa científica! Hay más de cuatrocientas ofertas de carreras.
¡Revisa el libro de oportunidades!
Carreras Descripción Campo de Trabajo IEU
Medicina Integral comunitaria
6 años
(Médica
o Médico
Integral
Comunitaria)
Realiza investigación e innovación para
brindar atención médica integral, a través
del diagnóstico, promoción, prevención,
curación y rehabilitación del individuo, la
familia, la comunidad y el ambiente. Tiene un
acentuado enfoque social con valores éticos,
humanísticos, solidarios y ciudadanos para
transformar la situación de salud. Trabaja
estrechamente con las comunidades.
Hospitales, clínicas,
ambulatorios.
Atención integral
individual, familiar,
escolar, laboral y
comunitaria en
promoción de la
salud.
UBV (Caracas, Cd. Bolívar,
Maturín), UNERG (San
Juan), UNEFM (Coro),
UNELLEZ (Barinas),
UNEFA (Pto. Píritu, Pto.
Ayacucho, San Tomé,
Tucupita, Cumaná y Juan
Griego).
Carreras Descripción Campo de Trabajo IEU
PNF en Química
2 años
(TSU)
Se aplican eficientemente los métodos de
análisis y síntesis industrial para efectuar
cálculos de acuerdo con fórmulas y ecuaciones
químicas aplicables en la industria. Forma
con valores de pertinencia social, ética,
responsabilidad, preservación ambiental y
compromiso con la comunidad y con la nación.
Asistente directo
en el área de la de
química, ingeniería
e investigación en el
área.
IUTFRP
(Caracas),
UPTOSCR
(Cumaná).
4 años
(Licenciatura)

230 231
Como se puede detallar, el IVIC ha sido y es el centro pionero de la investigación en
nuestro país desde sus inicios en la década de los 50, es gracias a él y otros institutos tecno-
científicos de la nación que surge la necesidad de gestionar la innovación tecnológica y cien-
tífica de manera formal respaldada por un ente ministerial especializado y con un significativo
fundamento legal.
Marcel Roche, primer director del IVIC.
Pero su infraestructura y potencial no, a pesar
del revuelo sociopolítico de la nación. En 1959 fue
creado, por decreto el IVIC, y dirigido por el Dr. Mar-
cel Roche por una década. Dicho instituto autónomo
tenía como finalidad investigar en áreas cómo la Bio-
logía, la Medicina, la Física, la Química y las matemá-
ticas para el desarrollo tecnológico e innovación de la
nación, con un especial servicio para el ejecutivo na-
cional.
Con el tiempo, el instituto creció y capacitó a
muchas investigadoras e investigadores venezolanos
de excelente rendimiento académico, becando a mu-
chos de éstos en el extranjero. Con más de 50 años de
servicio, el IVIC ha promovido innovaciones tecnológi-
cas en áreas como la Ingeniería, la Química, la Física, la
biología y otras ciencias aplicadas. De las investigado-
ras e investigadores formados en él se han generado
grandes especialistas que han migrado, innovando y
gestando otros institutos de prestigiosos estudios en
sectores de la Ciencia y la Tecnología venezolana.
La capacidad de innovación del IVIC ha tenido impacto importante en el desarrollo
tecnológico y científico de la nación, pues ha promovido la fundación de otras instituciones,
como la Fundación para la Investigación en Hidrocarburos y Petroquímica (INTEVEP) en 1976,
que ha desarrollado avances en la industria del petróleo. Para 1982, con la participación de
especialistas en Biofísica del IVIC, se funda el Instituto de Estudios Avanzados (IDEA) que ofrece
posgrados en ciencias aplicadas e investigación en Agro, Salud, Educación y otras.
Además de promover el avance de la Ciencia y
la Tecnología, el IVIC cuenta con diversos departamen-
tos de estudios de pregrado y postgrado que realizan
investigaciones y promueven la innovación, generan-
do conocimientos importantes y vitales para el desa-
rrollo científico, social, económico, político y cultural
de Venezuela.
Un ejemplo de servicio para la nación es el
que brinda la Biblioteca Marcel Roche del IVIC, que
es uno de los centros de referencia de información
científica más completos en Latinoamérica.
La biblioteca recibe cerca de 4.500 revistas periódicas y ha incorporado las técnicas
modernas de la informática, disponible para el público en general. También ha incorporado
programas de atención para la investigación en Antropología, Bioquímica, Ecología, Fisiología,
Biofísica, Genética humana, Inmunología y Microbiología, Biología de la reproducción humana,
Estudios sociales de la Ciencia, Física, Matemáticas, Química, Física médica y modelos aleatorios.
Gracias al IVIC, y sus otros institutos hermanos, en la nación se ha impulsado el desarrollo
de la Ciencia, la Tecnología y la Innovación.
Sabiendo lo esencial de estas instituciones y a partir de organismos previos de menor
rango, el Ejecutivo Nacional crea el Ministerio de Ciencia y Tecnología en 1999, (hoy, Ministerio
del Poder Popular para Ciencia, Tecnología, e Innovación) cuya misión es hacer posible un
nuevo modelo productivo y de generación de conocimiento, más humanista y democrático.
Para lograrlo tiene la responsabilidad de conformar y mantener el Sistema Nacional de Ciencia,
Tecnología e Innovación (SNCTI) e impulsar procesos de investigación, innovación, producción
y transferencia de conocimientos, con pertinencia a los problemas y demandas fundamentales
que afectan a la sociedad venezolana, a través del trabajo liberador. Esto favorecerá la
transformación de la realidad y el alcanzar mayores niveles de bienestar y felicidad social.
Para el logro de dicha misión, en el año siguiente, el Estado crea la Ley de Orgánica
de Ciencia, Tecnología e Innovación, que sustenta legalmente al nuevo ministerio. Esta ley se
diseña con el objetivo de enmarcar “la generación de una ciencia, tecnología, innovación y sus
aplicaciones, con base en el ejercicio pleno de la soberanía nacional, la democracia participativa
y protagónica, la justicia y la igualdad social, el respeto al ambiente y la diversidad cultural,
mediante la aplicación de conocimientos populares y académicos”.
Con base en esto, podemos afirmar que Venezuela es un territorio de innovación y que
su futuro se ve prometedor, si en ellos hay la participación de todas las ciudadanas y ciudadanos
para poder dar buen uso a estos espacios del conocimiento, el aprendizaje y el descubrimiento,
logrando enmarcar al país hacia el éxito.

232 233
Ciencia y Tecnología para un modelo de sociedad…
con más sentido común
Atención especial de este programa la merece la innovación popular. En esta
modalidad investigativa participan personas que desarrollan tecnologías por iniciativa propia,
que no pertenecen a una institución o empresa en particular. Estas tienen las ideas pero no
los recursos; pueden tener formación académica, o no, aun cuando reconocen y valoran su
importancia en los tiempos modernos. En la mayoría de los casos, dominan un conocimiento
empírico amplio. Trabajan desde y con necesidades comunitarias reales para buscarles
soluciones. Muchas veces utilizan desechos como materia prima para sus creaciones y creen
en la posibilidad de construir una soberanía científica-tecnológica humanista, para compartirla
con la gran nación latinoamericana y caribeña y con toda la humanidad.
La tecnología popular lleva implícita unas características particulares: es producida
localmente, reparable, repetible, accesible, refuerza a su comunidad de origen. En ella, la técnica
se transforma en una herramienta al servicio humano para resolver problemas específicos en
lugares específicos y, al involucrarse con sujetos colectivos, su pertenencia no es privada, al
contrario, es comunitaria y compartida. Además, promueve una sana y respetuosa convivencia
con la naturaleza.
Para incentivar la actividad investigativa bajo este modelo, el Mppcti fortaleció los
siguientes premios: el Premio Nacional de Ciencia y Tecnología, el Premio Nacional al Mejor
Trabajo Científico, Tecnológico y de Innovación (en 4 áreas, a saber: Ciencias naturales, Ciencias
exactas, Ciencias sociales, Investigación tecnológica) y el Premio Nacional a la Inventiva
Tecnológica Popular Luis Zambrano (PLZ).
El PLZ, en especial, está dirigido a destacar la inventiva popular desde la función social
comprometida, antes descrita. Su origen nace de la actividad creadora y solidaria de Luis
Zambrano (1901-1990), un campesino que dotó de electricidad a Bailadores, y a otros pueblos
andinos, ¡mucho antes de que llegara el servicio eléctrico público estatal! Esto lo logró a través
de unas turbinas, construidas por él, que generaban este tipo de energía, con el movimiento
del agua de los ríos.
Luis Zambrano sólo pudo estudiar hasta cuarto grado, pero fue un autodidacta
permanente, observador de la naturaleza y de los molinos y trapiches de su entorno inmediato.
Esto lo llevó a relacionarse con los principios básicos de la Física y de la Ingeniería mecánica.
Con materiales y equipos desechados, creó diversas máquinas para aligerar las labores
de las comunidades campesinas cercanas. Entre sus numerosos inventos se cuentan: un telefé-
rico corto para transportar cargas, una bicicleta moledora de granos y huesos, un trapiche eléc-
trico para moler caña de azúcar, y otras más. Su trabajo se basaba en el respeto a la naturaleza
y en el uso de fuentes de energía alternativa. Expresaba “en la vida hay que tratar de producir,
porque no vinimos a puro consumir”; de igual modo, “eso de vivir para crear, para servir… eso es
el resumen de mi vida”. Ambas ideas resumen la actualidad y pertinencia de su legado.
Las tecnólogas y tecnólogos que se inscriben para este premio, o que solicitan su in-
corporación al Programa de Apoyo a la Inventiva Tecnológica, reciben asesoría por parte del
Estado así como el acompañamiento y eventual financiamiento de sus proyectos, hasta el es-
calamiento de los mismos, es decir, la producción en serie, a nivel industrial. También existen
otros programas de estímulo a la investigación e innovación; ¡sólo es cuestión de informarte y
dar rienda suelta a tu creatividad!
Un bipedestador vehicular, o silla de ruedas especial, que permite a las personas con
paraplejia mantenerse erguidas y movilizarse de manera independiente…
Una prótesis articulada para personas sin piernas por debajo de la rodilla, que costaría
unos 4.500 bolívares, a diferencia de unos 115.000 bolívares, en promedio, que cuestan
las prótesis importadas de este tipo…
Un nebulizador que, en lugar de servir a 48 pacientes en 24 horas, permite atender a
144 personas en el mismo lapso…
Un combustible ecológico, eficiente y renovable, elaborado a partir del yare, que es un
pasivo ambiental o desecho de la yuca con que se prepara el casabe…
Una incubadora-nacedora automatizada que pase a producir, de 180 pollos mensuales,
a 600 pollos en el mismo tiempo…
Moldes para construir viviendas de concreto aligerado con anime, cuyo costo estaría
alrededor de los 70.000 bolívares, construidas en 25 días aproximadamente…
Baldosas de arcilla y fibra de coco…
Son prototipos elaborados por venezolanas y venezolanos, con inventiva criolla, y con
la finalidad de atender las necesidades de las personas y comunidades más humildes, en con-
traposición a objetivos comerciales de lucro… ¿No te parecen inventos y fines interesantes?
Así es. Ésta es una de las políticas que está desarrollando el Ministerio del Poder Po-
pular para la Ciencia, Tecnología e Innovación (MPPCTI) para apoyar el trabajo investigativo
de innovadoras e innovadores, quienes combinan el conocimiento académico-científico con
los saberes empíricos, provenientes de las experiencias populares, para contribuir a solucionar
diversos problemas de las comunidades, sobre todo de las más desasistidas.
La crisis social y económica que viven millones de personas en el mundo, y que se tra-
duce como una crisis de humanidad, nos obliga a revisar no sólo la finalidad del conocimiento
científico y tecnológico actual sino también la manera como éste es valorado por la sociedad y
el modelo que se construye, se difunde y se utiliza.
Es práctica común en la mayoría de los países del mundo, producto del modelo econó-
mico dominante, que este tipo de conocimiento lo administren comisiones gubernamentales
e instituciones privadas para que el contexto de la producción científica-tecnológica esté muy
orientado hacia el sector de las grandes empresas transnacionales.
Contra esta visión, el MPPCTI está desarrollando, desde el año 2006, el Programa de
Apoyo a la Inventiva Tecnológica Nacional para promover la articulación entre los sectores
académico, de investigación, productivo, tecnológico y comunidades organizadas, en general,
a fin de crear procedimientos o productos que permitan solucionar problemas en las áreas de
salud, educación, ambiente, vivienda y actividades socioproductivas en escala local, regional o
nacional. Con ello se mejorarían las condiciones de vida de la población, con sello endógeno,
nacional y sustentable.






234 235
Para obtener detalles acerca de los mencionados premios, y de los diversos proyectos
que desarrolla el Mppcti para estimular el desarrollo del conocimiento científico-tecnológico,
puedes visitar la siguiente dirección electrónica http://www.mcti.gob.ve/Ciencia y activar los en-
laces de tu interés.
En el país existe la Fundación para el Desarrollo de la Ciencia y la Tecnología (Fundacite)
en cada Unidad Territorial o estado. Este es el organismo que articula con el Mppcti y otras
instancias regionales y nacionales las necesidades y capacidades científicas, tecnológicas y de
innovación en su entidad. En la Fundacite de tu localidad también puedes recibir información
acerca del tema.
El nuevo sentido común del conocimiento científico y tecnológico debe estar orientado
hacia la promoción de mayores niveles de humanización, tomando como referencia lo que
expresa Florentino Vielma, tecnólogo popular merideño quien sostiene que “si el ser humano
no está en contacto con los otros, con lo que sucede alrededor, jamás sabrá cuáles son las
necesidades de la gente. El tecnólogo debe combinar este conocimiento, con el de los avances
de la ciencia”.
Luis Zambrano en su casa en Mérida.
Tomado de: es.wikipedia.org.
Picadora portátil de pasto, de Florentino
Vielma (2003). Ahorra el trabajo de llevar el
pasto a una máquina grande para picarlo.
Prototipo de bipedestador vehicular (primer plano) del
tecnólogo popular Víctor Allievi.
Ética en la investigación científica y social
Ante los avances científicos y tecnológi-
cos que se han venido dando en la humanidad,
en los últimos tiempos ha surgido la necesidad de
normar algunas actividades que se realizan en la
investigación. Entre ellas se encuentran la manipu-
lación genética, el uso de células madre y la repro-
ducción asistida.
Los temas mencionados y otros que invo-
lucren el estudio, a cualquier escala, de un ser vivo,
su uso en laboratorios para experimentación o, en
el caso de la especie humana, para estudios socia-
les, se encuentran sometidos a una serie de leyes
que es necesario conocer. Este marco jurídico esta-
blece los llamados principios bioéticos.
Según el Código de Bioética y Bioseguri-
dad de nuestro país, la bioética es entendida “cómo
un conjunto de orientaciones filosóficas y meto-
dológicas, [que] guían los procesos y decisiones
en las investigaciones científicas, sociales y huma-
nísticas, con el propósito de alcanzar el bien. Todo
ello, como resultado del debate que incorpora la
diversidad y pluralidad del pensamiento en pro del
resguardo y respeto a la vida, fundamentados en
principios y normas básicas que han sido tomadas
de la filosofía y de la práctica humana.”
El objetivo de este marco jurídico es man-
tener los principios basados en valores éticos de
responsabilidad, no
maleficencia, justicia, benefi-
cencia, autonomía, derecho a la vida, respeto y dig-
nidad en los estudios que involucren el uso de la
biodiversidad en las investigaciones. Esto es parte
esencial de la Bioética.
El término Bioética (del griego  bios: vida y ethos: ética)
se popularizó a partir del trabajo publicado por el bioquímico Van
Rensselaer Potter (1911-2001), titulado “Bioética: la ciencia de la su-
pervivencia” en 1970. Ya antes, en 1927, el alemán Fritz Jahr lo había
utilizado en un contexto parecido. Potter propuso fundar una disci-
plina que integrara la Biología, la Ecología, la Medicina y los valores
humanos, logrando la mezcla terminológica de ética y biología.

236 237
En nuestro país, el Código de Bioética y
Bioseguridad tiene lineamientos sobre cómo ma-
nejar la investigación en seres vivos desde diversos
ámbitos. Entre ellos tenemos:
Para la investigación en humanos, es
necesario el consentimiento informado, es decir,
solicitar la autorización por escrito de las personas
para participar en la investigación con el propósito
de que ejerzan su derecho de autonomía. Siempre
se mantendrá la confidencialidad de la información,
para mantener la privacidad del participante o la
participante.
En el caso de la investigación con anima -
les en laboratorios especializados o en la do-
cencia: en primer lugar, debe considerarse si real-
mente es necesaria la utilización de animales. En el
código se recomienda aplicar el enunciado de “las
tres erres” el cual consiste en: Reemplazar a los ani-
males por cultivos in vitro o modelos de simulación
en computadora, Reducir la cantidad de pruebas
experimentales y Refinar o mejorar las técnicas uti-
lizadas con el propósito de disminuir el sufrimiento
del animal. Esto se hace con el fin de procurar un
trato a los seres vivos como organismos sensibles,
evitando o minimizando su incomodidad, sufri-
miento y dolor.
Algunos códigos, leyes, reglamentos y nor-
mas relacionadas con la Bioética, a nivel interna-
cional son:
Declaración Universal de los Derechos Humanos (1948).
Declaración Universal sobre Bioética y Derechos Humanos (2005). 
Carta de la Tierra (2000).
Convenio sobre Diversidad Biológica (1994).
Declaración Universal sobre el Genoma Humano y los Derechos Humanos (1997).  
Declaración Internacional sobre los Datos Genéticos Humanos (2003). 
Declaración sobre las Responsabilidades de las Generaciones Actuales para con las Ge-
neraciones Futuras (1997).
Pautas Éticas Internacionales para la Investigación Biomédica en Seres Humanos
(CIOMS, 2002).




















A nivel nacional tenemos:
Código de ética para la vida (2010).
Constitución de la República Bolivariana de Venezuela (1999).
Ley Orgánica de Ciencia Tecnología e Innovación (2010).
Ley Orgánica de Pueblos y Comunidades Indígenas (2005).
Ley Orgánica para la Protección de Niños, Niñas y Adolescentes  (1998).
Ley Orgánica del Ambiente (2006).
Ley de Gestión de Diversidad Biológica (2008).
Estrategia Nacional de Conservación de la Diversidad Biológica de la República Boliva-
riana de Venezuela (2010).
Para pensar y reflexionar
Es muy importante que reflexionemos sobre el uso de seres vivos en la ciencia, ya que
esa práctica involucra una diversidad de valores éticos universales, los cuales hay que conside-
rar, en mayor o menor grado, para toda forma de vida en el planeta. Te invitamos a compartir
con tus compañeras y compañeros las siguientes ideas:
“Nuestra tarea debe ser liberarnos a nosotros mismos, ampliando nuestro círculo de
compasión para abrazar en él a todas las criaturas vivientes y la totalidad de la natura-
leza y su hermosura”. (Albert Einstein).
“Se necesitan más de 50 animales para hacer un abrigo de piel, tan solo uno para lle-
varlo puesto”. (Anónimo).
“Cuando un hombre se apiade de todas las criaturas vivientes, sólo entonces será no-
ble”. (Buda).
“Para crear una paz interior, lo más importante es la práctica de la compasión y el amor,
la comprensión y el respeto por todas las formas de vida”. (Dalai Lama).

238 239
Milagros de la C iencia y la Tecnología para dar vida
La reproducción asistida o fecundación artificial es una técnica para el tratamiento de
la infertilidad o la esterilidad que requiere de la manipulación directa de los gametos con el
propósito de ayudar en el proceso de reproducción, en caso de que exista algún problema por
parte de uno o ambos progenitores.
Se habla de esterilidad cuando uno o ambos miembros de la pareja presentan
imposibilidad de concebir, bien sea por problemas en sus estructuras reproductoras o porque
sus gametos sean defectuosos; mientras que la infertilidad consiste en la imposibilidad de
llevar un embarazo a término y poder conseguir un nacimiento vivo.
La ciencia, a fin de dar una alternativa de solución a las parejas que deseen concebir un
hijo, y que presenten problemas de infertilidad o esterilidad, ha creado diversas técnicas para
realizar la reproducción asistida.
Para la reproducción asistida, la fecundación de un óvulo se puede llevar a cabo ha-
ciendo uso de diversas técnicas. Éstas dependerán de los requerimientos y las condiciones
biológicas de los progenitores. Entre estas técnicas se encuentran:
Coitos programados. Se recomienda a parejas que no son estériles pero que, por
alguna causa en el ciclo biológico de producción y liberación de gametos, no pueden
concebir con facilidad. Esta técnica se basa en sincronizar el período de ovulación con
las relaciones sexuales y, en algunos casos, se incorpora un tratamiento para estimular
la ovulación y mantener el endometrio en condiciones óptimas para la implantación
del embrión.
Inseminación artificial de una mujer. Puede realizarse con semen proveniente del cónyuge o
con semen de un donante.

Inseminación artificial. Se realiza depositando los espermatozoides en el aparato
reproductor de la mujer con la ayuda de un equipo médico especializado; en esta
técnica también se controla el período de ovulación de la mujer.•
La fecundación in vitro (FIV) es una técnica que se utiliza en casos de infertilidad
masculina y femenina. Consiste en extraer los óvulos realizando una punción folicular.
En esta técnica se debe inducir la ovulación para propiciar la formación de los folículos;
los óvulos extraídos son fecundados con los espermatozoides y posteriormente
se mantienen en el laboratorio observando su desarrollo en cultivos realizados en
cápsulas colocadas en incubadoras, que poseen condiciones similares a las del útero,
hasta que los embriones de mejor calidad son seleccionados para colocarlos en el
útero de una mujer apta para la maternidad. También se conoce como transferencia
embrionaria. •

240 241
Inyección intracitoplasmática de espermatozoides (ICSI). Es una de las técnicas
más utilizadas ante la infertilidad masculina, cuando los espermatozoides tienen
dificultades para penetrar en el óvulo por sí solos. También se utiliza cuando el
recuento de espermatozoides es muy bajo. Consiste en elegir el espermatozoide de
mejor calidad, el cual se coloca en una aguja de microinyección; luego, se introduce en
el interior del citoplasma de un óvulo que está siendo sostenido por una pipeta para
facilitar el proceso. Este óvulo fecundado se coloca luego en el útero de la mujer para
que siga su desarrollo normal.
Inyección intracitoplasmática de espermatozoides.
Los espermatozoides utilizados en las técnicas, bien sea provenientes de la pareja
que desea procrear, o de un donante, se seleccionan considerando su morfología, forma y
motilidad. Para ello se realizan pruebas selectivas.
El primer caso de fecundación in vitro exitoso, conocido en el mundo, ocurrió en el año
1978, cuando nació Louise Joy Brown en Inglaterra. Su nacimiento fue muy difundido y causó
debates éticos con respecto a la reproducción humana.
¡No es ciencia ficción, es real!
Actualmente los científicos están trabajando en la creación de placentas y úteros
artificiales. Esta técnica se basa en desarrollar embriones fuera del organismo materno, es
decir, que sea posible mantener el desarrollo de un feto fuera de él. El útero artificial se encarga
de bombear sangre, oxígeno, nutrientes y extraer los desechos.
Uno de los objetivos de la creación de este tipo de estructuras es ayudar a las mujeres
que tengan problemas uterinos y no puedan procrear fácilmente.
En la siguiente dirección electrónica podrás ver una entrevista realizada a una de las
científicas que trabaja con esta técnica:
http://www.dailymotion.com/video/xb7kd1_utero-artificial-hung-ching-liu_school.
Igualmente observarás una simulación del proceso en:
http://www.dailymotion.com/video/xqz33c_utero-artificial-el-co-cultivo_school?ralg=meta2-
only#from=playrelon-1.
También puedes ver el desarrollo de animales en laboratorio con esta técnica en:
http://www.dailymotion.com/video/xq0w7c_utero-artificial-la-cabra-ectogenesica-
yoshinori-kuwabara_school,
Así como posibles cambios anatómicos y fisiológicos que se pueden observar en
especies que se desarrollen con esta técnica en: http://www.dailymotion.com/ video/xqebcm_
neurobiologia-el-utero-artificial_school,
Enlaces donde observarás procesos de reproducción asistida
Punción folicular
http://www.youtube.com/watch?v=aB8q4qvMJqY&feature=player_embedded
Inseminación artificial 
http://www.youtube.com/watch?v=tgSHsCoGUys&feature=player_embedded
Fecundación in vitro
http://www.youtube.com/watch?v=DhYtWGfIpSc&feature=related
Inyección intracitoplasmática de espermatozoides
http://www.youtube.com/watch?v=ws9XARtCNGw&feature=player_embedded




Louise Joy Brown

242 243
Marie Curie: una científica con principios humanistas
¿Tú crees que existe una forma masculina o femenina de resolver los problemas
científicos? ¿No será más importante la metodología utilizada para encontrar la solución de
estos problemas, que el género de quien lo hace?
Hasta muy entrado el siglo XX, la exclusión de las mujeres del campo científico se
justificó con el argumento de que éstas son más elementales, intuitivas y ligadas a la naturaleza
debido a que se embarazan, paren, amamantan y crían la descendencia. ¿Será cierto que
la inteligencia científica es un asunto exclusivamente masculino? ¿No será más bien que la
Química, la Física y la Matemática forman parte del pensamiento de toda persona?
Afortunadamente, contamos con el ejemplo de científicas pioneras como la polaca
Marie Salomea Sklodowska Curie (1867-1934) quien revolucionó nuestros conocimientos de
Física nuclear demostrando que el éxito puede formar parte de la vida de una mujer dedicada
a la ciencia. Esta gran mujer dedicó su vida a luchar por el bienestar de la humanidad.
Marie siguió el ejemplo de su abuelo y de su padre, quienes fueron docentes de
Física y
Matemática. Desde joven trabajó y ahorró, lo que le permitió pagarse sus estudios en
Francia. En 1893, con mucho esfuerzo, logró licenciarse en Física, siendo la número uno de su
promoción, un año más tarde se licenció también en Matemática. Era apasionada de la lectura
de textos de Física e Historia natural, hablaba además de polaco, ruso, alemán y francés. A los
34 años, se doctoró en Ciencias, mención Cum Laude, en la Universidad de la Sorbona de París,
su tesis doctoral versó sobre la radioactividad natural.
Adoptó la nacionalidad francesa y contrajo matrimonio con el físico francés Pierre Curie;
juntos, investigaron sobre la radioactividad por lo que recibieron un Premio Nobel de Física en
1903. Fue la primera mujer en recibir este galardón. Los esposos Curie sentaron un precedente
al negarse a patentar sus descubrimientos por lo que éstos son patrimonio científico de la
humanidad ¡su desprendimiento es admirable!
Después de la muerte de Pierre, en 1906, ocupó su cátedra de física en la Universidad
de la Sorbona, siendo la primera mujer profesora de esta institución.
Pese a que sus investigaciones iniciales se realizaron en condiciones difíciles, Marie
Curie demostró gran tesón, compromiso, organización y equilibrio para cumplir con sus
diversas actividades como madre, esposa y científica. El reconocimiento social le era total-
mente indiferente, más bien era sencilla, tímida y humilde y un ser humano ampliamente
generoso con los estudiantes de nacionalidad polaca, sin recursos, que se residenciaban
en París. En 1911 recibió un segundo Premio Nobel en Química, por obtener radio en forma
metálica. Después de su muerte, su hija Irene Joliot-Curie, junto con su esposo Frédéric Joliot-
Curie, fueron galardonados con un Premio Nobel por el descubrimiento de la radioactividad
artificial.
La Universidad de la Sorbona y el Instituto Pasteur colaboraron con ella, en 1914, en
la fundación del Instituto Curie del Radio en París y luego en Varsovia. Sus investigaciones
fueron muy útiles porque han permitido, desde entonces, el uso de radiografías para realizar
diagnósticos más precisos, la aplicación de radioterapias en la cura del cáncer, la obtención
de energía nuclear a partir de materiales radioactivos y un sinfín de aplicaciones tecnológicas
adicionales.
Durante la Primera Guerra Mundial (1914-1918), a través de la Cruz Roja y la Unión de
Mujeres de Francia, se dedicó a atender, junto con su hija Irene, heridos en el campo de batalla
en una ambulancia que ella misma conducía y donde instaló un aparato de rayos X; llegó a
equipar, con el apoyo voluntario de la población, hasta 20 coches que fueron conocidos como
“petit curie”. También supervisó la instalación de 200 salas de cirugía y formó, junto con su hija,
a 150 personas en radiología.
Se convirtió en una personalidad de renombre internacional, por lo que viajó a varias
partes del mundo a dar conferencias sobre el radio. Por la misma época, fue nombrada
integrante de la Comisión Internacional para la Cooperación Intelectual por la Liga de las
Naciones. Muere de leucemia, prematuramente envejecida, por la exposición prolongada a la
radiación.
Debes conocer que, para aplicaciones médicas o usos industriales, el especialista o la
especialista que manipula permanentemente el material radiactivo, debe protegerse con el
llamado blindaje biológico (paredes, puertas, ventanas, delantales) interpuesto entre la fuente
radiactiva y la persona. Este blindaje es elaborado con hormigón, láminas de plomo o acero y
cristales especiales enriquecidos con plomo.
Para Curie “una sociedad bien organizada deberá siempre asegurar a sus trabajadores
los medios eficaces para cumplir con su función, en una vida desembarazada de las
preocupaciones materiales, y libremente consagrada al servicio de la investigación científica”
.
También expresaba que “la ciencia
tiene una gran belleza. Un sabio en su labo-
ratorio no es sólo un teórico. También es un niño colocado ante los fenómenos natura-
les que le impresionan como un cuento de hadas. No pensemos que todo el progreso científico se limita a mecanismos, máquinas y engranajes… Si veo a mi alrededor algo vi-
tal, es precisamente este espíritu de aventura emparentado con la curiosidad”.
Si quieres saber más sobre Marie
Curie, puedes consultar la siguiente dirección
electrónica: www.quimicaweb.net/.../marie_
curie/marie_curie_y_la_ radiactividad

244 245
La Gaia y los humanos, ¿qué pasa cuando se pierde el equilibrio?
La vida en el planeta depende de las interacciones que tienen los organismos con su am-
biente. Bien se plantea en la Teoría de Gaia que la atmósfera y la parte superficial de la Tierra se
comportan como un sistema complejo. Nuestro planeta tiene unas características únicas en todo
el Sistema Solar que le ha permitido mantener la vida.
La biosfera se mantiene en constante proceso de autorregulación. Factores como la
temperatura, la composición química, la salinidad de los océanos, las rocas de la superficie y la
biota se vinculan y permiten el equilibrio del sistema llamado Gaia.
Todo los organismos nos hemos aclimatado y adaptado a las diversas modificaciones
ambientales de forma gradual y paulatina. La homeostasis que se ha promovido desde Gaia
nos ha permitido sobrevivir a las condiciones variables del entorno.
Sin embargo, el ser humano ha perturbado el equilibrio dinámico de Gaia. Él, por buscar
mejoras en la calidad de vida y el confort, ha violentando las sencillas normas de convivencia
enmarcadas en la ética ambiental, es decir, ha promovido la expansión de su especie a cuesta
de muchos sacrificios sobre Gaia.
La violencia del ser humano contra el ambiente ha tomado, en los últimos años, una escala
global con consecuencias catastróficas, no sólo por los eventos ocurridos después de la Segunda
Guerra Mundial, donde el uso de la energía nuclear puso en peligro, desde entonces, la genética
de muchas especies y el funcionamiento de los ecosistemas, sino también por la explotación
violenta de los recursos naturales en pro de un desarrollo humano de exagerado consumo.
Los líderes mundiales más poderosos que toman hoy las decisiones y el rumbo del
supuesto progreso son un conglomerado de seres humanos, que quizás sean numerables con
los dedos de las manos, pero somos muchos los seres vivos que sufrimos las consecuencias.
Las secuelas ambientales de las acciones antrópicas son largas, sin embargo, hay una en
particular que ha tomado un auge singular en la última década. Esta es el cambio climático,
situación a la que no se le había dado importancia, quizás porque el aumento de unos grados
en la temperatura inicialmente no parecían importantes, hasta que la humanidad comenzó a
sufrir sus efectos.
Una de las más graves agresiones del humano sobre la Tierra es el favorecimiento
del calentamiento global, efecto invernadero, o cambio climático. Por éste, se aumentan las
concentraciones de los gases atmosféricos causando modificaciones de la temperatura y la
dinámica climática a escala global. Este efecto es apreciable en un período cercano de tiempo
y espacio, es lo que hoy se encuentra en el tapete como un problema de índole mundial.
Las condiciones de temperatura se han modificado de manera usualmente paulatina
en la historia de Gaia, permitiendo la evolución de la vida sobre el planeta, pero en el último
siglo la tecnología desarrollada por los humanos ha ejercido una mayor presión en ese pro-
ceso natural de homeostasis planetaria, lo que ha provocado un incremento de los gases de
efecto invernadero.
Las concentraciones naturales de este tipo de sustancias, como dióxido de carbono,
metano, óxidos nitrosos y clorofluorocarbonos, han promovido un clima ideal para la vida.
Pero, al incrementarse su concentración en la atmósfera, ello permite atrapar mayor radiación
infrarroja, proveniente del Sol, y la temperatura aumentará hasta un punto que imposibilitará
la vida de las especies y de la Gaia misma.
Las consecuencias del efecto invernadero se han documentado en todo el mundo.
Venezuela no está aislada de este fenómeno global y en los últimos años se ha realizado un
esfuerzo por llevar registros de evidencias de los cambios en el clima y sus consecuencias; sin
embargo, el conocimiento público del problema se ha visto opacado por otras situaciones,
haciéndose caso omiso del mismo y su impacto.
Algunos investigadores han planteado evidencias de que en Venezuela se viene
sufriendo, desde hace un tiempo significativo, las consecuencias del cambio climático. Esto,
evidentemente, nos indica que debemos potenciar un cambio cultural profundo para prevenir
o mitigar la problemática climática en el país, la cual ha tenido efectos graves con pérdidas
materiales y humanas importantes.
A continuación se presenta un cuadro sobre algunos eventos naturales ocurridos en el
país probablemente relacionados con el cambio climático, y sus nefastas consecuencias:

246 247
Esta realidad nos impone la urgente necesidad de educarnos en el tema ambiental
y no subestimar lo grave que puede ser el aumento de 2 o 3 °C en nuestra atmósfera local.
Las derivaciones serían incalculables para la nación, debido a que se afectaría el bienestar
económico, social y natural. Entre los efectos que se cree tendrán mayor impacto están los
relacionados con la disposición del agua, la producción de alimentos, la dinámica en los
ecosistemas, el desarrollo energético y, en una mayor medida, se afectaría la salud humana.
Se cree que con el aumento incluso leve en la temperatura serán más comunes las
enfermedades vinculadas con vectores como el mal de Chagas, la malaria, el dengue, el cólera
y otras típicas del trópico, que hasta el momento han sido casi erradicadas o minimizadas. De
igual manera, se podría aumentar la cantidad de muertes como consecuencia del calor.
Además, se cree que el cambio climático tendrá efectos psicológicos por desmoralización
de la población ante las perturbaciones económicas, degradaciones ambientales y situaciones
conflictivas vinculadas a la calidad del agua, del aire y de los alimentos, así como a su disponibilidad.

En general, se puede decir que el impacto en la salud podría ser muy grave y variable.
Dependerá mucho de las condiciones ambientales locales y las circunstancias socioeconómicas
de la población, así como de las diversas adaptaciones sociales, institucionales, tecnológicas
y comportamentales orientadas a reducir el conjunto de amenazas para la salud, que debe
prever la nación venezolana.
Las investigaciones que describen brevemente el contexto del problema, sus
consecuencias y posibles soluciones, deben ser tomadas en cuenta para el desarrollo de las
políticas futuras en la nación. Las mismas están a la disposición del público para entenderlas,
capacitarse y actuar, exigiendo respuestas al Estado. Queda bajo la responsabilidad de la
población preocuparnos y educarnos para enfrentar esta crisis ambiental y abordarla, desde
la ética, en todos los espacios educativos tanto en las instituciones como en el hogar, para
mejorar nuestra relación con Gaia y mitigar el efecto del cambio climático.
¡La Tierra nos cuenta sus secretos!
¿Sabías que las rocas nos cuentan la historia de los eventos climáticos, geológicos y
biológicos que han ocurrido en la Tierra? Sí, las profesionales y los profesionales de la Geología
y la Paleontología pueden leer en las rocas como en las páginas de un libro, donde se narran
las historias de terribles catástrofes, extinciones en masa, glaciaciones y aparición de nuevas
especies. Los sedimentos de la corteza terrestre se van acumulando en los lechos de océanos,
mares y lagos, y con el tiempo y la presión constituyen estratos de rocas; los más antiguos
están debajo y los más jóvenes arriba, excepto cuando algún movimiento tectónico los altera.
En estos estratos y subestratos se encuentran fósiles característicos, que ayudan a identificar
los depósitos que se formaron aproximadamente en la misma época en distintos lugares del
mundo, y que nos cuentan increíbles acontecimientos de tiempos muy antiguos.
En pocos lugares encontramos las capas de estratos completas, pero aun así, ellas
ofrecen bastante información de la historia de nuestro planeta. Podemos dividir esta historia
en cuatro grandes etapas llamada eones. El eón Hádico comprende desde la formación de la
Tierra hace unos 4.600 millones de años hasta hace 3.800 millones de años. No hay suficientes
evidencias geológicas para hablar mucho de este período, aunque quedan algunas rocas.
Durante ese tiempo se formó la corteza terrestre. El eón Arcaico cubre un período desde 3.800
millones de años hasta 2.500 millones de años atrás, es un lapso de gran actividad volcánica
en una Tierra muy caliente y con una corteza todavía en consolidación. Las primeras evidencias
de vida datan de hace 3.500 millones de años: acumulaciones de carbonatos producidos por
colonias de cianobacterias.
El eón Proterozoico se extiende desde 2.500 millones de años hasta 543 millones de
años atrás. La concentración de oxígeno en la atmósfera aumentó radicalmente en esta etapa.
La vida microscópica se fue diversificando y hacia el final de este eón aparecen los primeros
organismos pluricelulares de cuerpo blando, sabemos de ellos por restos químicos que dejaron
en las rocas. Fue sólo hace unos 543 millones de años cuando surgieron las primeras formas
de vida animal pluricelulares con exoesqueleto, y luego con endoesqueleto, así como gran
cantidad de algas, hongos y plantas, en una explosión de vida. Ellas han dejado una amplia
evidencia fósil: es el eón Fanerozoico, que todavía transcurre. En la Tabla siguiente puedes ver
las eras de este eón. El tiempo anterior se suele agrupar en un supereón llamado Precámbrico.
Localizacion Evento Fecha Pérdidas
Vargas/Vargas
Alud
torrencial
15/12/1999
25.000 muertos, 20.000 viviendas
destruidas, 40.000 dañadas
Distrito Capital Lluvias 16/12/1999 50 muertos, 1.740 casas destruidas
Miranda Lluvias 16/12/1999 5.000 casas afectadas
Bolívar/Guri Sequía 01/06/2002
Cerca de alcanzarse el nivel crítico del
embalse
Apure/Guasdualito Inundación 02/07/2002 4 muertos, 7.000 viviendas destruidas
Costa Norte del paísHuracán Iván 08/09/2004
5 muertos, 46 embarcaciones dañadas, 25
casas destruidas
Mérida/Sta Cruz de
Mora Costa Norte del
país
Alud
torrencial
Inundación
07 al
11/02/2005
121 muertos, 500 viviendas destruidas
Cuadro 1. Eventos climáticos mayores en Venezuela desde 1999 a 2005 (Tomado y modificado de Sánchez, 2010).

248 249
Millones de
Años
Eras Períodos Épocas Geología y Clima Organismos
De 10.000
años al
presente
Cenozoica
Cuaternario
Holoceno
Final de la última
glaciación. Se eleva el
nivel del mar. Clima más
cálido.
Agricultura y cría de
animales.
Auge de las herbáceas.
2 Pleistoceno
Glaciaciones en el
hemisferio norte.
Aparece el Homo sapiens.
Extinción de especies
vegetales y animales.
Mamíferos grandes.
5
Terciario
Plioceno
Se unen Norteamérica y
Suramérica por el Istmo
de Panamá. Surgimiento
de montañas y volcanes.
Variedad de mamíferos
herbívoros y carnívoros.
Primeros primates
antropoides conocidos.
25 Mioceno
Formación de montañas.
Clima más frío y seco.
Aparecen aves canoras.
Diversidad de mamíferos
herbívoros.
38 Oligoceno
Se levantan los Alpes e
Himalayas. Clima frío y
seco.
Aparecen los primeros
simios. Dominio de
plantas con flores.
55 Eoceno Clima más cálido.
Dominio de plantas con
flores. Aparecen las aves
modernas. Se diversifican
los mamíferos.
65 Paleoceno
Desaparecen los mares
continentales.
Proliferan y se diversifican
las angiospermas y los
mamíferos primitivos.
136
Mesozoica
Cretácico  
Se separan los
continentes, formados
por tierras bajas. Mares
interiores grandes y
pantanos. Clima cálido.
Auge de las plantas con
flores y de los dinosaurios.
Extinción de aves con
dientes y de dinosaurios
al final del período.
193 Jurásico  
Inicia la deriva
continental. Clima
templado. Mares
interiores. Formación de
montañas.
Grandes dinosaurios
especializados. Primeras
aves con dientes. Los
mamíferos insectívoros se
diversifican.
225 Triásico  
Se forman grandes
montañas y desiertos.
Clima seco y cálido.
Dominio de las
gimnospermas y
helechos. Aparecen los
primeros dinosaurios y
mamíferos.
Millones de
Años
Eras Períodos Épocas Geología y Clima Organismos
280
Paleozoica
Pérmico  
Glaciación. Se unen los
continentes. Aparece
Pangea.
Diversificación de
las gimnospermas.
Aparecen las cicadáceas.
Aparecen los insectos
modernos. Extinción de
muchos invertebrados y
vertebrados al final del
Pérmico.
345 Carbonífero  
Tierras bajas y
pantanosas. Clima cálido
y húmedo seguido de
enfriamiento.
Bosques de helechos,
equisetos, licopodios,
gimnospermas, musgos y
hepáticas. Diversificación
de los anfibios e insectos.
Primeros reptiles.
Abundan los tiburones
antiguos.
395 Devónico  
Glaciares. Mares
interiores.
Se diversifican las plantas
vasculares. Aparecen
gimnospermas, briofitas,
peces con mandíbula,
anfibios e insectos
ápteros.
435 Silúrico  
El mar cubre la mayor
parte de los continentes.
Clima cálido.
Peces sin mandíbulas
se diversifican; arrecifes
de coral. Primeros
artrópodos.
500 Ordovícico  
El mar cubre la mayor
parte de los continentes.
Algas marinas, esporas
fósiles de plantas
terrestres, primeros peces.
570 Cámbrico  
Rocas muy antiguas
con abundantes fósiles.
Clima templado y
húmedo.
Algas, bacterias,
cianobacterias, hongos e
invertebrados marinos.
Tabla 1. Eras, períodos y épocas del eón Fanerozoico de la Tierra. Adaptación hecha por Carmen Hidalgo.

250 251
Los fósiles son una lotería
Los fósiles son restos o huellas de animales o plantas que vivieron en épocas geológicas
anteriores a la actual y que se hallan en sedimentos y en rocas sedimentarias. Son estudiados
por la Paleontología. Su estudio ha permitido reconstruir eventos devastadores como las
extinciones masivas de fauna y flora, glaciaciones y el surgimiento de nuevas especies.
No es fácil que se forme un fósil, ¿sabes? Es necesario que, primeramente, los restos
del organismo sean cubiertos rápidamente. Ésta es la verdadera clave de la fosilización: el
enterramiento rápido, lo cual lo aísla del oxígeno y reduce la descomposición y la destrucción
física. Lo siguiente que debe ocurrir es la compresión por el peso de los sedimentos. Este
aprisionamiento hace que los minerales de los sedimentos circundantes y los de los restos se
intercambien, hasta que adquieren las características físicas y químicas de las rocas sedimentarias.
Por esta razón, la mayoría de los fósiles son de organismos marinos, pues los sedimentos
se depositan más rápidamente en el mar. También son de cuando los animales o plantas
quedaron atrapados en trampas de brea, lodo, turberas o arenas movedizas. Los tejidos duros
como huesos, dientes, escamas, plumas, pelo se fosilizan mejor que las partes blandas.
¿Cómo sabemos la edad de un fósil?
También se mide la edad de un fósil por métodos
radiométricos, lo que involucra el uso de algunas series de
isótopos como rubidio-estroncio, torio-plomo, potasio-
argón, argón-argón o uranio-plomo, los cuales pueden
tener vidas medias muy largas, entre 0,7 y 4,6 millardos
de años, a diferencia del C14, que es de 5.730 años.
Las diferencias entre las proporciones relativas de dos
isótopos pueden proveer buenas fechas para rocas de
cualquier edad.
El registro fósil es fundamental para comprender la evolución de los organismos vivos,
ya que no sólo documenta cómo aparecieron o se extinguieron los distintos grupos, sino que
también nos habla de las catástrofes que extinguieron gran parte de la vida de otras eras y de
los sobrevivientes, y cómo se ha transformado el planeta a lo largo del tiempo.
¿Un dinosaurio venezolano?
¿Sabías que fue hallado el fósil de un dinosaurio en nuestro país? Sí. Se llama
Lesothosaurus diagnosticus. Fue descubierto en la Formación La Quinta, en La Grita, Estado
Táchira, por un equipo investigador francés, en 1992. Se clasificó cómo «Lesothosaurus», o
dinosaurio de Lesotho, por ser la zona en Sudáfrica donde fue encontrado otro dinosaurio con
esta taxonomía, en 1978.
Algo curioso de este fó-
sil es que el primero de ellos fue
hallado en la Formación Ellio
Superior, en Lesotho, Sudáfrica,
mientras que el Lesothosaurus
venezolano fue encontrado en la
Formación La Quinta, en el Esta-
do Táchira. La comparación entre
las dataciones de ambos fósiles
confirmó que pertenecían a la
misma época y que, por ende, la
Teoría de la Tectónica de Placas
era cierta. Ambos continentes es-
taban unidos en esa época.
Era un herbívoro de aproximadamente 0,5 m de
alto, que vagó por este continente cuando aún estaba unido a África. La arquitectura de sus patas nos dice que fue un excelente corredor, capaz de alcanzar los 40 Km por hora.
Afloramiento fósil: los
terrenos cubiertos por el
mar emergen.
La edad de los fósiles se puede determinar de varias
maneras. Uno de los métodos más empleados es el méto-
do de medición del Carbono 14. El Carbono es un elemento
químico que, junto al hidrógeno, constituye los esqueletos
moleculares de los seres vivos. El Carbono 14 es un isóto-
po que se descompone a un ritmo constante. Se forman
isótopos radioactivos de C14 en la alta atmósfera, cuando
los neutrones presentes en los rayos cósmicos bombar-
dean átomos de nitrógeno. Las plantas capturan por igual
átomos de C14 o C12, pasando a los tejidos vivos. Cuando
mueren los organismos vivos, ya no se incorporan nuevos
átomos de C14. Es ahí cuando su concentración comienza a
decaer. La velocidad con que lo hace es constante. Mientras
menos Carbono 14 le quede a un fósil, más antiguo será.

252 253
Ciencia indígena y la ciencia del futuro
El estudio de las culturas originarias del continente americano se circunscribe, por lo
general, a las grandes civilizaciones aztecas, mayas e incas. No obstante, y en esto coinciden
etnólogos de la talla de Miguel Acosta Saignes, cada etnia habitante de este continente tenía
para el momento de la Conquista, y en muchos casos conservó después de ella, una particular
cosmovisión de su universo transcendente y cotidiano.
Entendemos por cosmovisión la forma, personal o colectiva, de concebir e interpretar
el mundo.
Uno de los ejemplos más representativos de lo que afirmaba Acosta Saignes lo cons-
tituye la etnia Caribe, cuya población se extendía a lo largo y ancho de las costas de ese mar
que hoy lleva su nombre, y se dispersaban hasta el corazón mismo de la Amazonia y la región
Andina.
La cosmovisión Caribe englobaba, cómo ya hemos mencionado, lo transcendente y
lo cotidiano, visto como un todo integral donde coincidían el arte, la ciencia, la agricultura
y las manifestaciones ceremoniales en comunión con esa sublime entidad que hoy todo el
continente americano llama Pachamama, la Madre Tierra.
Todas estas culturas hicieron su aporte a las matemáticas, a la astronomía, a la creación
y utilización de tecnologías autóctonas para domeñar los elementos, desviar y aprovechar el
cauce de los ríos, y valerse de las corrientes marinas que les permitieron recorrer magníficas
Mediante palos cruzados y usando como guía el horizonte, construían los planos para
sus ciudades y edificios más importantes. Las líneas equinocciales les servían de orientación a la hora de hacer los centros de culto. El Templo Mayor, por ejemplo, fue alineado de tal forma que durante el equinoccio de primavera el Sol sale entre dos de sus construcciones.
distancias como las que separan Cubagua de Borinquén.
Para que tengamos una idea panorámica mencionaremos algunos ejemplos de los
aportes de las culturas originarias en materia de ciencia y tecnología.
Es imposible hablar de la astronomía en los aztecas sin mencionar su relación con la
arquitectura. Este pueblo construyó grandes edificaciones, especialmente pirámides, en honor al Sol, la Luna y otros astros, como modo de agradecer a las estrellas y glorificarlas. En ellas se realizaban sacrificios, los que según su pensamiento mágico-religioso aseguraban el correcto funcionamiento astral y la bonanza del planeta.
La observación de los ciclos celestes permitió que los aztecas descubrieran la duración
del año solar, el mes lunar y las revoluciones de Venus (584 días). Por esa razón desarrollaron sus
calendarios y establecieron sus propios días de ceremonias.
Otro gran avance astronómico fue la predicción de eclipses solares y lunares, así como
del paso de cometas y estrellas fugaces. Naturalmente, el interés mayor de los aztecas por la
astronomía se debía en lo fundamental al significado religioso que le otorgaban a la adivinación
y a los rituales relacionados con los astros.
En relación a los incas, desarrollaron avances tecnológicos y científicos como la arqui-
tectura con diseños monumentales y sin uso de amalgama (cemento) para unir los bloques;
utilizaban el arte decorativo y funcional en su cerámica. Crearon hermosos templos, ostentosos
palacios, grandes puentes colgantes, canales para riego y acueductos. La creación de la piedra
con 12 ángulos utilizada para la construcción, constituyó un gran logro para la arquitectura in-
caica. Para medir el tiempo crearon un calendario solar basado en el movimiento de los astros.
Practicaron intervenciones quirúrgicas como la trepanación de cráneos, verdaderas operacio-
nes al cerebro, y usaban hierbas medicinales. No tenían escritura, pero sí un sistema de regis-
tro: el quipu, cuerdas anudadas para recordar acontecimientos y censar a la población. Sabían
además que mezclando el cobre con el estaño se obtenía el bronce.
Dentro de la cultura maya, observamos que el desarrollo científico y técnico se extendió
con gran brillo en las matemáticas; conocían el cero, contaban con un calendario lunar y solar,
elaboraron un sistema de complejos cálculos matemáticos aplicados a la arquitectura. La rueda
la utilizaron en sus calendarios, pero no como forma y medio de transporte.
Los aztecas tenían un sistema matemático vigesimal; las cifras del uno al diecinueve se
indicaban con puntos, dedos o círculos coloreados, el 20 se representaba por una bandera, el
400 por una pluma y el 8.000 por un saco. Desconocían el uso del cero, por lo que no podían
realizar cálculos complejos como los realizados por los mayas. Tenían dos calendarios que
cumplían un rol astrológico y de premoniciones.
Por su parte, las etnias caribes reconocieron los cuerpos celestes: Sol, Luna, Venus, las
Pléyades, y otras estrellas, organizadas en algunos casos en algo parecido a las constelacio-
nes creadas en Occidente, pero vinculadas a su cosmovisión, algunos otros planetas, algunos
cometas muy grandes y visibles a simple vista, los meteoros, y la parte visible de la galaxia
(Vía Láctea). Midieron el paso del tiempo, partiendo de lo que consideramos es su unidad
fundamental de medida: el día, así como períodos parecidos en algo a los meses y el año, que
utilizamos actualmente.
Es interesante el hecho de que, tanto en el pasado como en la actualidad, en nuestras
comunidades indígenas existe una unión de las ciencias, arraigada a la vida, donde todas las
ciencias eran, y son para el bien de sus comunidades. Artes, ciencias naturales, filosofía, familia,
salud, todos los saberes integrados para el bien común.
Es pertinente motivarnos a pensar e indagar sobre las ciencias en el seno de nuestros
pueblos originarios y acercarnos a dar respuestas a tan grandes enigmas. Así como permitirnos
comprender y apropiarnos de otras formas de pensar, sentir y actuar. Es un reto que tenemos
como ciudadanas y ciudadanos, implica nuestro compromiso con el mundo y la conservación
de la vida para el futuro de nuestro planeta.
Observatorio astronómico. Chichén Itzá, México.
Muchos de estos espacios eran también ob-
servatorios, desde donde rastreaban el movimiento
celeste, tal como hacían otros pueblos mesoame-
ricanos como los mayas. La labor era realizada por
nobles y sacerdotes, quienes cumplían rituales noc-
turnos que les permitían definir sus calendarios. Los
templos eran lugares altos para poder seguir la sali-
da y puesta de los astros.

254 255
Fuentes recomendadas para las educadoras y los educadores
• Arias, C. (2007). Fundamentos y casos exitosos de la Biotecnología moderna. 2ª edición. Fran-
cisco Bolívar Zapata. Compilador y editor. [Documento en línea]. Disponible en http://
es.scribd.com/doc/40678990/Fundamentos-y-Casos-Exitosos-de-La-Biotecnologia-Moder-
na. [Consulta: 2012, Agosto 30].
• Audesirk, T. y Audesirk, G. (1997). Biología 1. Unidad en la Diversidad. México: Prentice Hall.
• Belendez, A. (2008) La unificación de luz, electricidad y magnetismo: la “síntesis electro-
magnética” de Maxwell. Revista Brasileira de Ensino de Física, v. 30, n. 2, 2601 (2008) Dispo-
nible en: www.sbfisica.org.br o http://rua.ua.es/handle/10045/9175.
• Bugallo, A. (1995). La didáctica de la Genética: Revisión bibliográfica enseñanza de las ciencias.
Investigación y experiencias didácticas, 13 (3), pp. 379-385
• Dobzhansky, T., Ayala, F., Stebbins, G. y Valentine, J. (1980). Evolución. España: Ediciones
Omega.
• Franco, A. (2010) Curso Interactivo de Física por Internet. (Recurso en línea) http://www.
sc.ehu.es/sbweb/fisica/default.htm (Consulta: Agosto, 2012)
• Furio, C. y Guisasola, J (1997) Deficiencias epistemológicas en la enseñanza de los conceptos
de campo y potencial eléctrico. Revista Enseñanza de las Ciencias Vol 15(2) Recurso dispo-
nible en: http://ddd.uab.cat/pub/edlc/02124521v15n2p259.pdf. Consultado: Agosto, 2012)
• Hubp, J (2007) Reseña de la venganza de la Tierra: Teoría de Gaia y el futuro de la humanidad
de Loveck J. Investigaciones Geográficas. [Revista en línea]. Disponible: http://redalyc.uae -
mex.mx/redalyc/src/inicio/ArtPdfRed.jsp?i Cve=56906414 [Consulta: 2012, Agosto 11].
• Jaimes, E. (s. f.). Ecosocialismo. Una visión más allá de Río+20. Disponible: http://rio20.net/
wp-content/uploads/group-documents/26/1336616322-Eco-Socialismo.Unavisinmsallde-
Ro20.pdf [Consulta: Julio, 2012].
• Lacueva, A. (2000). Ciencia y Tecnología en la Escuela. Madrid, Caracas: Laboratorio Educativo
/ Popular.
• Lindorf, H., De Parisca, L. y Rodríguez, P. (2006). Botánica. Caracas: Ediciones de la Biblioteca
de la Universidad Central de Venezuela.
• Organización Mundial de la Salud. (2008). Cambio climático y salud humana: riesgos y res -
puestas: Resumen. [Documento en línea]. Organización Mundial de la Salud. Disponible:
http://whqlibdoc.who.int/publications/2003/9243590812.pdf. [Consulta: 2012, Agosto 01].
• Rivero, F. (2011). Plan Educativo Ambiental para el manejo sustentable de los animales de uso
etnomedicinal y mágico-religioso expendidos en las tiendas del ramo ubicadas en la Av. Baralt
de Caracas y zonas aledañas. Trabajo de grado de maestría no publicado, Universidad Peda-
gógica Experimental Libertador, Instituto Pedagógico de Caracas, Caracas.
Fuentes recomendadas para las estudiantes y los estudiantes
• Ayala y J. A. Kiger. (1984) Genética moderna. México: Omega.
• Barriga, I. (2006). Breve historia de la Genética. [Documento en línea]. Disponible: http://do -
cencia.izt.uam.mx/ibs/Gen%E9ticaMendeliana.pdf. [Consulta: 2012, julio 2012].
• Consejo Argentino para la Información y el Desarrollo de la Biotecnología. ¿Por qué Bio-
tecnología es el Programa Educativo? [Documento en línea]. Disponible: http://www.por-
quebiotecnologia.com.ar/index.php?action=cuaderno&opt=5&tipo=1&note=1e [Consulta
2012, Agosto 21].
• Duke, J.( 2010). Biotecnología. Panorámica de un sector. España. [Documento en línea]. Dispo -
nible: http://books.google.es/books?id=77eWLHLyMNcC&printsec=frontcover&dq=qué+e
s+la+biotecnología+tradicional,+libros&source=b [Consulta 2012, Setiembre 10].
• E-Fasciculos de astronomía para niñ@s. Disponible en: http://www.cida.gob.ve/cida_home/
index.php?option=com_content&view=article&id=354:e-fasciculos-astronomia-para-
nins&catid=113:eventos-astronomicos-cida. (Consulta: Agosto, 2012)
• El sistema Solar. http://www.cida.gob.ve/~kervinv/sistemasolar/sistemasolar.html (Consul-
ta: Agosto, 2012)
• Evolutionibus: Pasado, presente y futuro de la revolución científica. [Documento en línea]. Dis-
ponible en: http://evolutionibus.eresmas.net/campana.html. [Consulta 2012, Agosto 13].
• Fenotipo.com. (s/f) [Pág web en línea]. Disponible en: http://www.fenotipo.com/ interac-
cin_entre_genotipo_y_ambiente [Consulta 2012, Agosto 22].
• Hewitt, P., (2005) Conceptos de Física. México: Limusa, S.A
• Interactive Simulations. (2011) Universidad de Colorado. [Página web en línea] http://phet.
colorado.edu/en/simulations/category/new. Simulaciones sugeridas: Cargas y campos / La-
boratorio electromágnetico de Faraday / Ley de Faraday / Laboratorio de Capacitores/ On-
das de Radio y campo electromagnético/ Efecto fotoeléctrico/ Difracción de electrones
• Sánchez, J. (2010). Consecuencia del cambio climático en Venezuela. [Documento en línea].
Ponencia presentada en el XI Encuentro Internacional de Seguros, Porlamar 2009. Disponi-
ble: http://www.camaraseg.org/archivos/a143c00c8W/file/Juan%20Carlos%20S%C3%A1n
chez.pdf. [Consulta: 2012, Agosto 12].

• Universidad Autónoma de Ciudad Juárez. Manual de prácticas Biología de la repro-
ducción. (2009). [Documento en línea]. Disponible en: http://www.uacj.mx/ICB/cqb/
licenciaturaenbiolog%C3%ADa/Documents/Manuales/optativas/BIOLOGIA%20DE%20
LA%20REPRODUCCION.pdf [Consulta: 2012, Julio 23].

• Karp , G. (2005). Biología Celular. México: McGraw Hill.
• Klug, W.; Cumings, M. y Spencer, CH. (2006). Conceptos de Genética. Madrid: Prentice Hall
Iberia.
• Kuldell, N. (2005). Genética I: las leyes de Mendel sobre la herencia. [Documento en línea]. Dis-
ponible: http://www.visionlearning.com/library/module_viewer.php?mid=129&l=s [Con-
sulta 2012, Agosto 20].
• Menchada, A. El discreto encanto de las partículas elementales. Recurso disponible en:
http://bibliotecadigital.ilce.edu.mx/sites/ciencia/volumen2/ciencia3/068/htm/discreto.
htm. (Consultado: Agosto, 2012)
• Naturaleza educativa. Portal educativo de Ciencias Naturales aplicadas. Disponible en: http://
www.natureduca.com/anat_funcreprod_gestac.php. Asociación Española para la Cultura, el
Arte y la Educación (ASOCAE O.N.G.D.)
• Paniagua, A y otros. (sf) LABDEMFI Recurso en línea. Disponible en: http://webdelprofesor.
ula.ve/ciencias/labdemfi/electrostatica/html/electrostatica.html (Consulta: Julio, 2012)
• Simulador de sistema de control eléctrico. (Recurso en línea) http://www.ree.es/educacion/
controla/El portal educativo argentino. http://www.educ.ar/recursos/ver?rec_id=14472
Organización Mundial de la Salud (2009) Las radiaciones ultravioleta y la salud humana.
Nota descriptiva No 135, Recurso en línea, disponible en: http://www.who.int/mediacentre/
factsheets/fs305/es/index.html (Consulta: Agosto, 2012)
• Solomon, E., Berg, L., Ville, C. (1998). Biología. México: McGraw-Hill Interamericana.
Enlaces de interés
• http://www.genome.gov/25019
• http://www.saber.ula.ve/bitstream/123456789/16704/1/bioetica1.pdf
• http://aportes.educ.ar/biologia/nucleo-teorico/estado-del-arte/un-plan-maestro-de
sarrollo-embrionario/cómo_se_logra_la_especializaci.php
• http://www.elmundo.es/especiales/2003/02/salud/genetica/descifrar_la_vida.
• http://www.mhhe.com/physsci/chemistry/essentialchemistry/flash/hyb
• Wilson, J. y Buffa, A. (2003) Física. 5ta. Edición Mexico: Pearson Educación. S.A.

Ministerio del Poder Popular
para la Educación
Sólo en la ejercitación de nuestro sentido creativo
estaremos preparándonos para enfrentar la lucha por
nuestra liberación con nuestros propios recursos.
Además, a través de la comprobación diaria de nuestra
propia creatividad de pueblo se irá fortaleciendo la
convicción de la necesidad de nuestra propia dirección
independiente e irá cimentando en nuestro pueblo la fe
en sus propias fuerzas, destruyendo en él la cara más
peligrosa de la colonia, que es la raigambre en la
conciencia popular de la imposibilidad de alcanzar por
sus propios recursos el éxito de la creación tecnológica,
con cuya creencia lo han subyugado las naciones
industrializadas.
I L G