Historia de la inteligencia artificial

nanotechnology 1,950 views 57 slides Sep 20, 2015
Slide 1
Slide 1 of 57
Slide 1
1
Slide 2
2
Slide 3
3
Slide 4
4
Slide 5
5
Slide 6
6
Slide 7
7
Slide 8
8
Slide 9
9
Slide 10
10
Slide 11
11
Slide 12
12
Slide 13
13
Slide 14
14
Slide 15
15
Slide 16
16
Slide 17
17
Slide 18
18
Slide 19
19
Slide 20
20
Slide 21
21
Slide 22
22
Slide 23
23
Slide 24
24
Slide 25
25
Slide 26
26
Slide 27
27
Slide 28
28
Slide 29
29
Slide 30
30
Slide 31
31
Slide 32
32
Slide 33
33
Slide 34
34
Slide 35
35
Slide 36
36
Slide 37
37
Slide 38
38
Slide 39
39
Slide 40
40
Slide 41
41
Slide 42
42
Slide 43
43
Slide 44
44
Slide 45
45
Slide 46
46
Slide 47
47
Slide 48
48
Slide 49
49
Slide 50
50
Slide 51
51
Slide 52
52
Slide 53
53
Slide 54
54
Slide 55
55
Slide 56
56
Slide 57
57

About This Presentation

La Inteligencia Artificial surge a partir de algunos trabajos publicados en la década de 1940, los cuales no tuvieron gran repercusión, pero a partir del influyente trabajo en 1950 de Alan Turing, matemático británico, se abre una nueva disciplina de las ciencias de la información.


Slide Content

Historia de la inteligencia artificialy características
1
Ms.Ing.Jairo E. Márquez D.
LaInteligencia Artificialsurge a partir de algunos trabajos publicados en la década de
1940, los cualesno tuvieron gran repercusión, pero a partir del influyentetrabajo en 1950
de AlanTuring, matemático británico, se abre una nueva disciplina de las ciencias de la
información.
Si bien las ideas fundamentales se
remontan a la lógica y algoritmos de los
griegos, y a las matemáticas de los árabes,
varios siglos antes de Cristo, el concepto
de obtener razonamiento artificial aparece
en el siglo XIV. A finales del siglo XIX se
obtienen lógicas formales suficientemente
poderosas y a mediados del siglo XX, se
obtienen máquinas capaces de hacer uso de
tales lógicas y algoritmos de solución.
Entonces, ¿qué es la inteligencia artificial?
-Es elnuevo y excitante esfuerzo de hacer que los computadorespiensen…
máquinas con mentes, en el más amplio sentido literal.(Haugeland, 1985).
-El estudio de los cálculos que hacenposible percibir, razonar yactuar. (Winston,
1992).
-El arte de desarrollar máquinas con capacidad para realizarfunciones que cuando
son realizadas por personas requieren deinteligencia. (Kurzweil, 1990).
-Es el resultado de combinar distintas áreas (ciencias) con el propósitode crear
máquinas que puedan(inteligencia). (Grupo 13).
-El estudio de como hacer computadoras que hagan cosas que, de momento, la gente
hace mejor. (Rich y Knight, 1991).
-Un campo de estudio que busca explicar y emular el comportamiento inteligente en
términos de procesos computacionales. (Schalkoff, 1990).
-El estudio de las facultades mentales a través del estudio de modelos
computacionales.(Charniak y McDermott, 1985)
Estos conceptos confluyen a lo que se puede definir como Máquina inteligente; la cual es
todaaquella que toma una decisión opiensa, producto de deducir de la información que
disponeen su memoria. En otras palabras, lo que deduce no seencuentra exactamente igual
en la memoria, sino que setoma información que fue almacenada anteriormente para
1
Fuente de consulta. Historia de la inteligencia artificial .
http://es.wikipedia.org/wiki/Historia_de_la_inteligencia_artificial[En línea] Consultado el 18 de noviembre
de 2011. Modificado y/o adaptado por el autor.

realizar una deducción.Por consiguiente, se infiere que la IA a diferencia de los sistemas
operacionales presenta ciertos elementos que la distinguen, como son:
Los sistemas operacionales se caracterizan por:
-Pensar el algoritmo para luego programarlo.
-Procesamiento de datos mayormente.
-Solo acepta la mejor solución posible.
Para el caso de la IA:
-Busca la información necesaria para solucionar un problema.
-Procesamiento de conocimiento.
-Acepta una respuesta osolución viable.
LaInteligencia Artificialcomenzó como el
resultado de lainvestigaciónenpsicología
cognitiva ylógica matemática. Se ha enfocado
sobre la explicación del trabajo mental
yconstruccióndealgoritmosde solución
aproblemasde propósito general. Punto de vista
que favorece la abstracción y la generalidad.
LaInteligenciaArtificial es una combinación
dela cienciadelcomputador,fisiologíay
filosofía, tan general y ampliocomo eso, es que
reúne varios campos (robótica,sistemas
expertos, por ejemplo), todos los cuales tienen
en común la creación demáquinasque pueden
"pensar".
Trabajos teóricos fundamentales fueron el desarrollo de algoritmos matemáticos por
WarrenMcCullock y Walter Pitts, en 1943, necesarios para posibilitarel trabajode
clasificación, o funcionamiento en sentido general, deuna redneuronal. En 1949 Donald
Hebb desarrolló unalgoritmodeaprendizajepara dichasredes neuronalescreando, en
conjunto con los trabajos de McCullock y Pitts, laescuelacreacionista. Esta escuela se
considera hoy como el origen de la Inteligencia Artificial, sin embargo se trató poco por
muchos años, dando paso al razonamiento simbólico basado en reglas deproducción, lo
que se conoce como sistemas expertos.
Características de la Inteligencia Artificial
2
1.Unacaracterística fundamental que distingue a losmétodosdeInteligencia
Artificial de losmétodos numéricoses el uso de símbolos no matemáticos, aunque
2
Fuente. Neurociencia y Realidad virtual.http://neurocienciaeia.blogspot.com/[Online] Consultado el 20 de
julio de 2012.

no es suficiente para distinguirlo completamente. Otros tipos de programascomo
los compiladores y sistemasdebases de datos, también procesan símbolos y no se
considera que usentécnicasde Inteligencia Artificial.
2.Elcomportamientode los programas no es descrito explícitamente por el algoritmo.
La secuencia de pasos seguidos por elprogramaes influenciado por el problema
particular presente. El programa especifica cómo encontrar la secuencia de pasos
necesarios para resolver un problema dado.
3.Estos programasincorporan factores y relaciones del mundo real y del ámbito
delconocimientoen que ellos operan.
4.Aplicabilidad adatosyproblemasmal estructurados, sin las técnicas de Inteligencia
Artificial los programas no pueden trabajar con este tipo de problemas.
Heurística e Inteligencia Artificial
3
La heurística se trata del arte de innovar, de visualizar en el diseño, de concebir nuevas
ideas, de hacer descubrimientos o logros, también es la capacidad de un sistema para
realizar de forma inmediatainnovaciones positivas para sus fines. La capacidad heurística
es un rasgo característico de los humanos, desde cuyo punto de vista puede describirse
como el arte y la ciencia del descubrimiento y de la invención o de resolver problemas
mediante la creatividad y el pensamiento lateral o pensamiento divergente.
Los procesos que se llevan a cabo en el cerebro pueden ser analizados, a un nivel de
abstraccióndado, como procesos computacionales de algún tipo.
En cierto sentido, el enfoque heurístico es el característico de la IA. Newell y Simon
asociaban el "método de búsqueda heurística" con el tipo de representación de soluciones
3
Heurística e Inteligencia Artificial. Revista. Hiperenciclopedica de Divulgación del saber. Año 2006. Vol. 5,
némuro 4. Octubre a diciembre de 2011.

parciales. Nosotros nos vamos a limitar a explicar qué significa el término "heurística" en el
ámbitode la inteligencia artificial.
Desde el inicio de la IA, el término "heurística" osciló entre dos sentidos fundamentales
vinculados a la utilización de información del dominio de problemas (con el fin de hacer
una búsqueda más eficiente) y a la imposibilidad de garantizar encontrar la solución de un
problema.
Estas definiciones se refieren, a dos conjuntos diferentes de métodos: dispositivos que
mejoran la eficiencia y dispositivos que no garantizan obtener un resultado. El paradigma
metaheurístico consiste en una familia de métodos de búsqueda que comenzó a
desarrollarse con ese nombre a partir de la década del 80. Estrictamente no se lo considera
un paradigma sino simplemente un conjunto de métodos o herramientas de búsqueda, pero
es posible que tarde o temprano entre en esta categoría. Osman y Kelly (1996) describen la
metaheurística del siguiente modo: "Estas familias de enfoques incluyen pero no se limitan
a procedimientos adaptativos aleatorios golosos, algoritmos genéticos, búsqueda de umbral
y sus híbridos. Incorporan conceptos basados en la evolución biológica, la resolución
inteligente de problemas, las ciencias matemáticas y físicas, el estudio del sistema nervioso
y la mecánica estadística". Un poco más adelante los autoresdescriben a la disciplina de la
siguiente forma: "Las metaheurísticas son una clase de métodos aproximados, que están
diseñados para atacar problemas de optimización combinatoria difíciles para los que las
heurísticas clásicas fracasaron en ser efectivas yeficientes. Las metaheurísticas
proporcionan marcos generales que permiten crear nuevos híbridos combinando diferentes

conceptos de: heurísticas clásicas; inteligencia artificial; evolución biológica; sistemas
neuronales y mecánica estadística".
Finalmente, Osman y Kelly comentan: "Debe notarse que existen convergencias teóricas
para algunas de las metaheurísticas bajo algunos supuestos. Sin embargo, estos supuestos
no pueden satisfacerse o aproximarse en la mayoría de las aplicaciones prácticas.Por lo
tanto, se pierde la capacidad para demostrar optimalidad y se obtienen soluciones
aproximadas. A pesar de este inconveniente, las metaheurísticas han sido altamente
exitosas en encontrar soluciones óptimas o cuasi óptimas en muchas aplicaciones prácticas
de optimizaciones en diversas áreas, más que sus heurísticas subordinadas".
Yagiura e Ibaraki (1996) mencionan la combinación de herramientas heurísticas en marcos
más sofisticados como característica distintiva de las metaheurísticas y consideranque dos
de sus propiedades atractivas son la simplicidad y la robustez.
Finalmente y para que conste la estrecha relación entre heurística e inteligencia artificial
presentamos algunas definiciones clásicas de Inteligencia Artificial:
Systems that can demonstrate human-like reasoning capability to enhance the quality of
life and improve business competitiveness.(Japan-S’pore AI Centre)

La Inteligencia Artificial es el estudio de técnicas de resolución de problemas con
complejidad exponencial a partir delconocimiento del campo de aplicación del
problema. (Rich)
Tipos de algoritmos Heurísticos
En una primera clasificación podemos decir que los algoritmos heurísticos pueden ser
simples o complejos. Los algoritmos simples tienden a tener reglas de terminación bien
definidas, y se detienen en un óptimo local, mientras que los algoritmos más complejos
pueden no tener reglas de terminación estándar, y buscan soluciones mejores hasta alcanzar
un punto de parada arbitrario.
Dentro de los algoritmos heurísticos complejos podemos hacer una segunda clasificación,
esta vez orientada a la funcionalidad de los mismos. En primer lugar podemos encontrarnos
con algoritmos que fueron diseñados para dar solución a problemas de búsqueda de
óptimos o clasificación y por otro lado tenemos los algoritmos que tratan de deducir
conocimiento a partir de un conjunto de axiomas, estos últimos conocidos como sistemas
basados en el conocimiento.
Entre los algoritmos de búsqueda de óptimos se encuentran los siguientes métodos:
Búsqueda Tabú
Temple Simulado
Algoritmos Genéticos
Redes Neuronales
Agentes inteligentes
Lossistemas basados en el conocimiento definen un área muy concreta dentro de la
inteligencia artificial, conocida como Ingeniería del conocimiento. Los sistemas
desarrollados en este campo siguen un patrón heurístico similar al razonamiento humano.
BúsquedaTabú

La búsqueda tabú es un procedimiento o estrategia dado a conocer en los trabajos de
Glover, y que esta teniendo grandes éxitos y mucha aceptación en los últimos años. Según
su creador, es un procedimiento que "explora el espacio de soluciones másallá del óptimo
local", (Glover y Laguna). Se permiten cambios hacia arriba o que empeoran la solución,
una vez que se llega a un óptimo local. Simultáneamente los últimos movimientos se
califican como tabús durante las siguientes iteraciones para evitar que se vuelvan a
soluciones anteriores y el algoritmo cicle. El término tabú hace referencia a un tipo de
inhibición a algo debido a connotaciones culturales o históricas y que puede ser superada en
determinadas condiciones. (Glover).
Temple Simulado
El uso del temple simulado en problemas
de Optimización se ha extendido desde
mediados de los ochenta hasta ahora, a
partir de los trabajos de Kirpatrick, Gelatt
& Vecchi. Los algoritmos Temple
Simulado están basados en una estrecha
analogía entre los procesosfísicos
termodinámicos y los elementos de un
problema de optimización combinatoria.
Aunque asintóticamente estos algoritmos
se comportan como exactos, (un análisis
exhaustivo de esta afirmación se puede
encontrar en el trabajo de Aarts & Korst),
en la práctica se diseñan como heurísticos.
El campo de aplicaciones se ha extendido
durante estos años. En problemas de rutas
destacan las aportaciones de Osman, para
el VRP; y Aarts y otros, para el problema
del viajante de comercio.
Algoritmos Genéticos
En losaños setenta, de la mano de John Holland surgió una de las líneas más prometedoras
de la inteligencia artificial, la de los algoritmos genéticos. Son llamados así porque se
inspiran en la evolución biológica y su base genético-molecular. Estos algoritmos hacen
evolucionar una población de individuos sometiéndola a acciones aleatorias semejantes a
las que actúan en la evolución biológica (mutaciones y recombinación genética), así como
también a una selección de acuerdo con algún criterio, en función del cualse decide cuáles
son los individuos más adaptados, que sobreviven, y cuáles los menos aptos, que son
descartados.
Redes Neuronales

En inteligencia artificial las redes de neuronas artificiales (RNA) son un ejemplo de
aprendizaje y procesamiento automático basado en el funcionamiento del sistema nervioso
animal. Se trata de simular el comportamiento observado en las redes neuronales biológicas
a través de modelos matemáticos mediante mecanismos artificiales (circuitos integrados,
ordenadores...). Con las RNA se pretende conseguir que las máquinas den repuestas
similares a las del cerebro humano, caracterizadas por su generalización y robustez.
Sistemas expertos
Los sistemas expertos se basan en simular el razonamiento humano con un doble interés: en
primer lugar el del analizar el razonamiento de un experto en la materia para poder
codificarlo con la ayuda de un determinado lenguaje informático; por otra parte, la síntesis
artificial de los razonamientos para que se parezcan a los del experto humano en la
resolución de un determinado problema. Estos dos intereses han hecho que los
investigadores del campo de la IA intenten establecer una metodología que les permita
verificar la "comunicación" con los expertos y separar los distintos tipos de razonamiento
(formal, deductivo, inductivo...), además de construir los elementos necesarios para
modelizarlos.
Mientras que en la programación clásica se diferencia solamenteentre el programa y los
datos, en los sistemas expertos se diferencian tres componentes:
Una base de conocimientos
Una base de hechos
Un motor de inferencia
La base de conocimientos
almacena toda la información
específica relativa al campo de
conocimientodeseado. Para ello se
hace uso de un lenguaje específico
para representar los conocimientos
y que permite definir al experto su
propio vocabulario técnico.
En la base de hechos se encuentran
los datos relativos a los problemas
que se quieren resolver conla
ayuda del sistema. La memoria de
trabajo almacena los resultados
intermedios, pudiendo guardar el rastro de las inferencias realizadas. Es por eso que puede
utilizarse para explicar la forma en la que el sistema ha deducido la información durante
una sesión de trabajo o describir el comportamiento del propio sistema. Al comienzo del
período de trabajo, en la base de hechos sólo se encuentran los datos introducidos por el
usuario del sistema, pero a medida que actúa el motor de inferencia, almacena las
inducciones y deducciones que ha llevado a cabo el sistema para conseguir las
conclusiones.

El motor de inferencia, es un programa que a partir del "conocimiento" puede resolver el
problema especificado. Esto se consigue gracias a los datos de la base de hechos del
sistema. Por lo general, las reglas de la base de conocimiento son silogismos demostrativos
(si A es cierto entonces deducimos B). En este caso, el motor de inferencias selecciona,
valida y activa las reglas que permiten obtener la solución correspondiente al problema en
cuestión.
Existen dos tipos de motor de inferencia: los que emplean el razonamiento aproximado
(cuyo resultado puede ser erróneo) y los que usan un tipo de razonamiento a partir del que
se puede obtener resultado verdadero.
Los elementos básicos de todo sistema experto son:
1.Base de conocimientos: diseñada a partir del conocimiento de unexperto o
grupo de expertos humanos, está formada por reglas devalidez general,
distribuciones de probabilidad,...
2.Motor de inferencia:sistema de procesamiento lógico oprobabilístico que
permiteobtener unas conclusiones a partir deunos datos.
3.Interfacede usuario: medio de comunicación entre el usuario y lamáquina.
A través de lainterfaceel sistema solicita datos alusuario y lemuestra las
conclusiones obtenidas.
4.Subsistema de adquisición de conocimiento: controla la forma enla que
nuevo conocimiento es incorporado a la base deconocimientos.
5.Subsistema de explicación: se encarga de justificar lasconclusiones
obtenidas.
Esquema de funcionamiento de un sistema experto

Agentes inteligentes
En los últimos años, dentro de la Inteligencia Artificial se están dedicando importantes
esfuerzos a la construcción de programas conocidos comoagentes inteligentes. Se trata de
programas capaces de llegar a averiguar los gustos o preferencias del usuario y adaptarse a
ellos. Aunque son muchos los posibles usos, uno de los más destacados es la búsqueda de
información en Internet. En la red pueden encontrarse ya programas que son capaces de
llegar a identificar los temas de interés de un usuario particular a partir de las búsquedas
que habitualmente realiza, una vez identificados esos temas pueden actuar como filtros,
mostrando al usuario únicamente la información quele pueda resultar relevante, o
informando automáticamente de la aparición de nuevas páginas sobre sus temas de interés.
(Cobo O. Ángel).
Introducción a la verificación en la ingeniería del conocimiento.
Al igual que la ingeniería del software, la ingeniería del conocimiento cuenta entre sus
fases con una destinada a la evaluación del sistema desarrollado.
Fases habituales en la ingeniería del conocimiento:
1.Estudio de viabilidad
2.Adquisición del conocimiento
3.Conceptualización (análisis)
4.Formalización(diseño)
5.Implementación
6.Evaluación
La fase de evaluación en la ingeniería del conocimiento se caracteriza por los siguientes
aspectos a tener en cuenta
Verificación
Sintaxis y estructura adecuada (no redundante, completa, consistente)
Se realiza en modelosconceptuales, formales y computables
Validación
Semántica adecuada [experto]
Se realiza en modelos conceptuales, formales y computables
Por lo tanto podemos considerar como un proceso fundamental en la evaluación de
"software inteligente" la creación demodelos matemáticos.
Modelos Matemáticos
Una de las fases del método heurístico se
basa en construir modelos.Aunque
existen muchas definiciones de modelo,

una de las más interesantes es la de Aracil: "Un modelo constituye una representación
abstractade un cierto aspecto de la realidad, y tiene una estructura que está formada por los
elementos que caracterizan el aspecto de la realidad modelada y por las relaciones entre
estos elementos".
Nosotros estamos interesados en modelos formales basados en la lógica matemática, y estos
están basados en un conjunto de relaciones matemáticas (relaciones lógicas, ecuaciones,
inecuaciones, etc.) que representan las relaciones existentes en el mundo real. Un modelo
queda por lo tanto definido por las relaciones que contiene.
Podemos clasificar los modelos matemáticos según su función:
Modelos predictivos: Son aquellos que nos informan sobre el comportamiento de la
variable en el futuro, esto es, lo que debería ser. Los modelos basados en técnicas
estadísticas se corresponden con este tipo.
Modelos evaluativos: Se basan en medir las diferentes alternativas para comparar los
resultados de ellas. Este es el caso de los árboles de decisión.
Modelos de optimización: Estos modelos tratan de localizar un optimo del problema
(generalmente el óptimo global), es decir, buscan la mejor alternativa posible. Están
basados en técnicas de programación matemática.
Una vez se ha mostrado una breve clasificación de los modelos, es necesario aportar una
medida de su solución, puesto que el objetivo de definir un modelo es, resolverlo
"cómodamente" y extraer los resultados necesarios para tomar alguna decisión.
La resolubilidad de los problemas depende de tres características:
1.El tamaño del problema: La variables y ecuaciones que contiene.para un mayor
número de éstas resultará más difícil resolver el problema.
2.El tipo del problema: entero, lineal y no lineal. Los problemas lineales son "fáciles"
de resolver, mientras que los no lineales son muy difíciles.
3.El tipo de instancias: Deterministas o ciertas, con riesgo (conociendo la
probabilidad de ocurrencia), con incertidumbre (se conocen los posibles resultados
pero no la probabilidad de que ocurran) y turbulencia (no conocemos ninguna
cosa).
Punto de inflexión de la disciplina
En su histórico artículo de 1950, Turing propuso que la pregunta «¿puede pensar una
máquina?» era demasiado filosófica para tener valor y, para hacerlo más concreto, propuso
un «juego de imitación». En la prueba de Turing intervienen dos personas y un
computadora. Una persona, el interrogador, se sienta en una sala y teclea preguntas en la
terminal de una computadora. Cuando aparecen las respuestas en la terminal, el
interrogador intenta determinar si fueron hechas por otra persona o por una computadora. Si
actúa de manera inteligente, según Turing es inteligente. Turing, señaló que una máquina
podría fracasar y aún ser inteligente. Aun así creía que las máquinas podrían superar la
prueba a finales del siglo XX.

De todas maneras esta prueba no tuvo el valor práctico que se esperaba, aunque sus
repercusiones teóricas son fundamentales. El enfoque de Turing de ver a la inteligencia
artificial como una imitación delcomportamiento humanono fue tan práctico a lo largo
del tiempo y el enfoque dominante ha sidoel delcomportamiento racional, de manera
similar, en el campo de la aeronáutica se dejó de lado el enfoque de tratar de imitar a los
pájaros y se tomó el enfoque de comprender las reglas de aerodinámica. Aunque desde
luego, el enfoque delcomportamiento humanoy el delpensamiento humanosiguen
siendo estudiados por las ciencias cognitivas
4
y continúan aportando interesantes resultados
a la Inteligencia Artificial, y viceversa.
Disciplinas sobre las que se apoya
La ciencia no se define, sino que sereconoce. Para la evolución de la Inteligencia Artificial
las dos fuerzas más importantes fueron la lógica matemática, la cual se desarrolla
rápidamente a finales del siglo XIX, y las nuevas ideas acerca de computación y los
avances en electrónica que permitieron la construcción de los primeros computadores en
1940. También son fuente de la inteligencia artificial: la filosofía, la neurociencia y la
lingüística. La lógica matemática ha continuando siendo un área muy activa en la
inteligencia artificial. Incluso antes de la existencia de los ordenadores con los sistemas
lógicos deductivos.
4
Se denominaciencia cognitivaal estudio interdisciplinario de cómo la información es representada y
transformada en la mente/cerebro. Es el conjunto de disciplinas que surgen de la convergencia
transdisciplinaria de investigaciones científicas y tecnológicas, en torno a los fenómenosfuncionales y
emergentes, dados a partir de las actividades neurofisiológicas del encéfalo y del sistema nervioso,
incorporados, y que típicamente se les denomina como: mente y comportamiento.
La naturaleza de las investigaciones cognitivas es necesariamente transdisciplinaria (es decir, tanto inter como
multidisciplinarias), surgiendo en un primer momento a partir de disciplinas autónomas como la lingüística, la
psicobiología cognitiva y la inteligencia artificial, y añadiéndose en una etapa más reciente la neurociencia y
la antropología cognitiva.

Orígenes y Evolución Cronológica
Antecedentes
Los juegos matemáticos antiguos, como el de
las Torres de Hanói (hacia el 3000a.C.),
muestran el interés por la búsqueda deun modo
resolutor, capaz de ganar con los mínimos
movimientos posibles.
Cerca de 300a.C., Aristóteles fue el primero
en describir de manera estructurada un conjunto
de reglas, silogismos, que describen una parte
del funcionamiento de la mente humana y que,
al seguirlas paso a paso, producen conclusiones
racionales a partir de premisas dadas.
En 250a.C. Ctesibio de Alejandría construyó
la primera máquina autocontrolada, un
regulador del flujo de agua que actuaba
modificando su comportamiento
"racionalmente" (correctamente) pero
claramente sin razonamiento.
En 1315, Ramon Llull tuvo la idea de que el razonamiento podía ser efectuado de manera
artificial.
En 1847 George Boole estableció la lógica proposicional (booleana), mucho más completa
que los silogismos de Aristóteles, pero aún algo poco potente.
En 1879 Gottlob Frege extiende la lógica booleana y obtiene la Lógica de Primer Orden la
cual cuenta con un mayor poder de expresión y es utilizada universalmente en la actualidad.
En1903Lee De Forest inventa el triodo, también llamado bulbo o válvula de vacío.

En1937Alan Turingpublicó un artículo de bastante repercusión sobre los "Números
Calculables", un artículo que estableció las bases teóricas para todas las ciencias de
computación, y que puede considerarse el origen oficial de la informática teórica. En este
artículo introdujo el concepto de Máquina de Turing, una entidad matemática abstracta que
formalizó el concepto de algoritmo y resultó ser la precursora de las computadoras
digitales. Podía conceptualmente leer instrucciones de una cinta de papel perforada y
ejecutar todas las operaciones críticas de un computador. El artículo fijó los límites de las
ciencias de la computación porque demostró que no es posible resolver problemas con
ningún tipo de computador. Con ayuda de su máquina, Turing pudo demostrar que existen
problemas irresolubles, de los que ningún ordenador será capaz de obtener su solución, por
lo que se le considera el padre de lateoría de la computabilidad
5
.
En1940Alan Turingy su equipo construyeron el primer computador electromecánico y en
1941Konrad Zuse creó la primera computadora programable y el primer lenguaje de
5
LaTeoría de la computabilidades la parte de la computación que estudia los problemas de decisión que
pueden ser resueltos con un algoritmo o equivalentemente con una máquina de Turing. La teoría de la
computabilidad se interesa a cuatro preguntas:
¿Qué problemas puede resolver una máquina de Turing?
¿Qué otros formalismos equivalen a las máquinas de Turing?
¿Qué problemas requieren máquinas más poderosas?
¿Qué problemas requieren máquinas menos poderosas?
La teoría de la complejidad computacional clasifica las funciones computables según el uso que hacen de
diversos recursos en diversos tipos de máquina.

programación de alto nivel Plankalkül. Las máquinas más potentes, aunque con igual
concepto, fueron la ABC y ENIAC.
En1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales,
el cual se considera el primer trabajo del campo de inteligencia artificial, aun cuando
todavía noexistía el término.
1950´s
En 1950 Turing consolidó el campo de la inteligencia artificial con su artículoComputing
Machinery and Intelligence, en el que propuso una prueba concreta para determinar si una
máquina era inteligente o no, su famosa Prueba deTuringpor lo que se le considera el
padre de la Inteligencia Artificial. Años después Turing se convirtió en el adalid que
quienes defendían la posibilidad de emular le pensamiento humano a través de la
computación y fue coautor del primer programa para jugar ajedrez.
En1951 William Shockley inventa el transistor de unión. El invento hizo posible una nueva
generación de computadoras mucho más rápidas y pequeñas.
Durante este periodo la IA se redujo a una actividad académica poco conocida fuera de los
ambientes especializados. La ambición exagerada en los objetivos planteados se contrapuso
con las limitaciones de la tecnología de la época, lo que conllevaría una desilusión
generalizada al final de estos años, y no solo por estas limitaciones, sobre todo porla
constatación teórica de la imposibilidad de obtener resultados en ciertos casos.
A pesar de esto, se realizaron avances menos ambiciosos, y entre los proyectos más
destacados se encuentran:
6
-Logic theorist.(1956). Fue programado por Alan Newell, Herbert Simon y J.C. Shaw y
buscaba las demostraciones de Teoremas Lógicos, es decir, de la forma: supuesto que o
bien X o bien Y es verdadera, y supuesto que Y es falsa, entonces X es verdadera.
En1956se acuñó el término "inteligencia artificial" en Dartmouth durante una conferencia
convocada por McCarthy, a la cual asistieron, entre otros, Minsky, Newell y Simon. En esta
conferencia se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo
que provocó el abandono casi total de las investigaciones durante quince años.
-General Problem Solver.(GPS)Este programa intentaba resolver problemas mediante una
técnica que permitiera, dados el objetivo y los medios disponibles, encontrarla manera de
utilizar dichos medios para alcanzar el objetivo (análisis medios-fines), pero solo se pudo
aplicar a algunas tareas muy simples ya que requería gran cantidad de conocimientos sobre
el dominio.
6
Fuente de consulta. Historia e la inteligencia artificial.
http://matap.dmae.upm.es/LE/Divulgacion/IA/ISMAESWEB/historia/historia.htm[On line] Consultado el 20
de julio de 2012.

-Perceptrón.(1958). Fue iniciado por Frank Rosenblatt, con la intención de determinar
algunas de las propiedades fundamentales de los sistemas inteligentes. Rosenblatt creía que
la conducción de la información a través de las redes neuronalesteníaun gran componente
aleatorio, y por eso utilizó la teoría de probabilidad. La mejora del Perceptrón hizo que
fuera capaz de distinguir y clasificar patrones muy complejos, y aunque en 1969, Minsky y
Papert con su "Perceptrons: An Introduction to Computational Geometry" pusieron de
manifiesto las limitacionesde este tipo de redes, como el de solucionar problemas que no
sean linealmente separables, el Perceptrón ha servido como base para otros modelos de red
neuronal como la Adaline, o las redes multicapa.
-LISP.(1958). Jhon McCarthy creo el lenguaje de programación de los investigadores de
la IA
-SAINT.(1961) Programa de J. Slagle, que inicia la automatización de la integración
simbólica.
-Geometry Theorem Prover.(1958). Programa desarrollado por IBM para resolver
problemas geométricos.
-Programa para jugar a las damas.(1962). Creado por Samuel, y también desarrollado
por IBM, era capaz de aprender de la experiencia, y corregir sus propios errores para
partidas posteriores. Bernsteinlogró lo mismo para el ajedrez, pero las quejas de los
accionistas de IBM, al considerar que se estaba gastando su dinero que frivolidades acabo
con estos proyectos.
-Traducción Automática.Tras la II Guerra Mundial, en la que los británicos utilizaron
ordenadores para descifrar códigos secretos nazis, la CIA intento crear un programa que
tradujera casi en el acto cualquier texto de cualquier idioma, pero tras un gran esfuerzo
humano y económico el proyecto resulto un fracaso y se paralizaron todos las
investigaciones lingüísticas financiadas con dinero público. Un ejemplo del resultado de la
traducción del inglés al ruso y luego del ruso al inglés.
Original en ingles: El espíritu es fuerte, pero la carne es débil.
Resultado después de traducir al ruso yluego al inglés: El vodka es bueno, pero el filete
está podrido.
-Micromundos de Bloques.(1963). Tras desistir de los intentos en visión artificial, en los
que se intentaba conectar una cámara a un ordenador y que este describiera lo visto, se
intento llevarlo a cabo con unos objetivos más humildes. Los micromundos son
"representaciones" de laboratorio de la vida real, donde quien interactué con la realidad sea
un ordenador, y así en 1964 se crearon los programas STUDENT y SIR. El primero, creado
por Bobrow, entendía enunciados de problemas algebraicos y respondía a preguntas del
tipo: Juan tiene 10 años más que Pedro que tiene el doble de Luis... Por su parte el SIR
comprendía oraciones sencillas. Ambos funcionaban por "comparación de patrones", es
decir,detectando unas palabras clave en una posición determinada obtenía la información
necesaria.

-ELIZA.(1965) Creado por Weizenbaum, que perfeccionaba al STUDENT y al MIT,
permitiendo cambiar de tema, por ejemplo. ELIZA es un programa de gran importancia
dentro de la IA, pero su forma de entablar una conversación se debe a numerosos "trucos",
como repetir frases cambiando el "yo" por el "tu" o utilizar frases hechas ("ya veo", etc).
Parecía que el ELIZA lograría superar el test de Turing, pero no lo hizo, pues este
programa, en medio de una conversación, intercala frases hechas que un humano no
utilizaría.
-SHAKEY.(1969) Un equipo de investigación de Stanford tuvo la idea de poner ruedas a
un robot. El ejército americano vio en este proyecto la posibilidadde lograr un espía
mecánico, pero su apariencia no pasaba ni mucho menos inadvertida, y se redefinió el
proyecto. Al robot se le llamo Shakey, y se investigo su uso para recibir órdenes y llevar
objetos a determinados sitios, pero el proyecto dejo de sersubvencionado.
-DENTRAL.(1965) También en Stanford, y es el primer sistema experto. Significa árbol
en griego, y permitió a los químicos estudiar las características de un compuesto químico,
ya que hasta entonces su única forma de investigación era tomarhipótesis y compararlas
con los resultados experimentales. El exceso de optimismo, como anunciar con antelación
resultados que luego nunca se conseguirían marcaron hizo mucho mal a la inteligencia
artificial, y así, subestimar la dificultad de los problemas a los que se enfrentaban
desacreditaron mucho a la IA, llegando incluso a perder subvenciones millonarias.
1970 a 1979
7
Durante este periodo, se inicia la institucionalización de la comunidad científica de la IA,
con el Primer Congreso Internacional de Inteligencia Artificial y la aparición de la primera
revista especializada, Artificial Intelligence. También, se extiende su estudio de los círculos
académicos a centros de investigación y a las universidades, donde se tratan problemas
menos teóricos y se realizan aplicaciones más experimentales, como los sistemas expertos y
la programación lógica.
El exceso de optimismo y susnefastas consecuencias dieron paso a un replanteamiento de
los objetivos y como consecuencia el tratamiento de problemas más concretos. Se
empezaron a utilizar sistemas expertos, que se basan en la simulación del razonamiento
humano y que supuso un gran avance, los mas destacados son:
-MYCIN(1976) Creado en Stanford por Feigenbaum y Buchanan se trata de un sistema
experto para el diagnóstico de enfermedades infecciosas. Desde los resultados de análisis
de sangre, cultivos bacterianos y otras datos, es capaz de determinar, o al menos sugerir el
microorganismo causante de la infección, y después de esto, recomienda una medicación
que se adaptaba perfectamente a las características del sujeto.
-PROSPECTOR(1978) Sistema experto capaz de encontrar yacimientos de minerales, en
particular cobre y uranio.
7
Ibid.

-XCON(1979) Creado por Jhon McDermott, es el primer sistema experto con aplicaciones
fuera de los ámbitos académicos y de los laboratorios de investigación. Este sistema
permitía configurar todos los ordenadores que DEC iba a sacar al mercado, y que tenían
configuraciones distintas entre sí, evitando de esta manera que los fallos de estos
ordenadores obligaran a arreglarlos uno por uno. Tras un primer fracaso, su posterior
desarrollo logro conseguir los objetivos marcados.
Dentro de la programación lógica se logra uno de los avances mas destacables con la
aparición del lenguajePROLOG,en 1972 por la Universidad de Marsella. Los éxitos de
estos sistemas expertos animaron a muchas empresas a invertir en IA. Su desarrollo hizo
que estos programas fueran más rentables y así empezaron a sustituir a personas expertas en
determinadas materias.
1980´s
En 1980 la historia se repitió con el desafío japonés de la quinta generación, que dio lugar
al auge de los sistemas expertos pero que no alcanzó muchos de sus objetivos, por lo que
este campo sufrió una nueva interrupción en los años noventa.
En 1980 se crea el sistema experto matemático MAPLE, al que sigue en 1988 el
MATHEMÁTICA. Ambos programas permiten trabajardirectamente con expresiones
simbólicas como derivadas, matrices o tensores.
En 1982 se funda el ECCAI (European Coordinating Committee for Artificial Intelligence).
En 1985 la Nasa crea el CLIPS, un generador de sistemas expertos codificado en C. Ese
mismo año se crea un juego de ajedrez que alcanza el nivel de Gran Maestro.
En 1987 Martin Fischles y Oscar Firscheindescribieron los atributos de un agente
inteligente. Al intentar describir con un mayor ámbito (no sólo la comunicación) los
atributos de un agente inteligente, la IA se ha expandido a muchas áreas que han creado
ramas deinvestigación enorme y diferenciada. Dichos atributos del agente inteligente son:
1.Tiene actitudes mentales tales como creencias e intenciones.
2.Tiene la capacidad de obtener conocimiento, es decir, aprender.
3.Puede resolver problemas, inclusoparticionandoproblemas complejos en otros más
simples.
4.Entiende. Posee la capacidad de crearle sentido, si es posible, a ideas ambiguas o
contradictorias.
5.Planifica, predice consecuencias,evalúa alternativas (como en los juegos de
ajedrez)
6.Conoce los límites de suspropias habilidades y conocimientos.
7.Puede distinguir a pesar de lasimilitud de las situaciones.
8.Puede ser original, creando incluso nuevos conceptos o ideas, y hasta utilizando
analogías.
9.Puede generalizar.
10.Puede percibir y modelar el mundo exterior.
11.Puede entender y utilizar el lenguaje y sus símbolos.

A finales de los 80 se recuperan los esquemas del Perceptrón para las redes neuronales, y se
empiezan a utilizar los nuevosmicroordenadores de Apple e IBM, siendo este el fin de las
LISP.
Podemos entonces decir que la IA posee características humanas tales como el aprendizaje,
la adaptación, el razonamiento, la autocorrección, el mejoramiento implícito, y la
percepción modulardel mundo. Así, podemos hablar ya no sólo de un objetivo, sino de
muchos, dependiendo del punto de vista o utilidad que pueda encontrarse a la IA.
1990´s
En los 90´s surgen los agentes inteligentes.
“En 1997 se produjo uno de los hechos más
populares relacionado con la IA cuando Deep
Blue logro vencer a Kasparov, pero la industria
japonesa ha ido más alla y primero Honda con
ASIMO, un robot humanoide capaz de andar y
subir escalaras, y luego Sony con su AIBO, un
robot-perro al que se le han programado
emociones e instintos. Sus actos buscan
satisfacer sus deseos, que previamente han sido
generados por sus instintos, si los satisface
estará contento, sino mostrara su enfado hasta
lograr la atención que quiere y la manera con
que el amo responda a estas expresiones de emotividad influirá en su "personalidad". AIBO
puede reconocer hasta 40 voces y puede recordar el nombre que se le de y responder ante
su llamada.
Otros logros de la IA, son por ejemplo el reconocimiento de la voz para reservar billetes de
avión, protección de fraudes de tarjetas de crédito, detección de pequeñas anomalías
invisibles al ojo humano en radiografías, traducción automática de documentos o la
utilización de sistemas expertos en eldiagnostico de enfermedades o incluso en el
funcionamiento del trasbordador espacial.”
8
2000´s
El programa Artificial Linguistic Internet Computer Entity (A.L.I.C.E.) ganó el premio
Loebner al Chatbotmas humano en 2000, 2001 y 2004, y en 2007 el programa Ultra Hal
Assistant ganó el premio.
2010´s
En la actualidad se está tan lejos de cumplir la famosa prueba de Turing como cuando se
formuló:Existirá Inteligencia Artificial cuando no seamos capaces dedistinguir entre un
ser humano y un programa de computadora en una conversación a ciegas. Como anécdota,
8
Ibidem.

muchos de los investigadores sobre IA sostienen que «la inteligencia es un programa capaz
de ser ejecutado independientemente de la máquina que lo ejecute, computador o cerebro»:
En 2010 el programa Suzette ganó el premio Loebner. Algunos programas de inteligencia
artificial gratuitos son Dr. Abuse, Alice, Paula SG, Virtual woman millenium.
2011
Se crea por parte de investigadores de la EcolePolytechnique Federale de Lausanne en
Suiza, un sistema que permite identificar y rastrear jugadores de baloncesto. Por ahora se
emplea para telemetría, pero lo que sigue es comentar las peripecias del juego, y otros
como la Formula 1. Ver
http://www.youtube.com/watch?feature=player_embedded&v=ZgbCZgXRRkY
SmartBird:Creado por Festo, este robot vuela como un ave. Ver
http://www.youtube.com/watch?feature=player_embedded&v=nnR8fDW3Ilo#!

Chatbot:El laboratorio Creative Machines de Cornell en los EE. UU diseñó este
experimento en el que dos IA conversaron de forma fluida. Ver
http://www.youtube.com/watch?feature=player_embedded&v=WnzlbyTZsQY
ASIMO.Este robot de Honda, ha venido evolucionando a lo largo de los años, en la que
hasta el 2011 ya este sistema reconoce voces en una conversación. Ver
http://www.youtube.com/watch?feature=player_embedded&v=MTtWETnWfHo#!

Robot Flexible.Científicos de Harvard mostraron el prototipo de un robot flexible, hecho
de materiales blandos, que le permite reconfigurar su estructura morfológica, de tal manera
que le permite obviar obstáculo . Ver
http://www.youtube.com/watch?feature=player_embedded&v=Z19OZUQV20E
Swarmanoid:Es la creación de varios robots actuando de forma colectiva.En la queunos
se especializan en la manipulación de objetos y la escalada, algunos se mueven en el suelo
y trasportan objetos, otros vuelan y observan el entorno desde lo alto. Este video presenta
este sistema cordianado por Marco Dorigo, financiado por la Comisión Europea.Ver
http://www.youtube.com/watch?feature=player_embedded&v=M2nn1X9Xlps

Otros proyectos que vale la pena mencionar son:
-Un equipo deneurocientíficos españoles ha desarrollado una interfaz cerebro-
ordenador basada en un teléfono móvil. Las personas con movilidad reducida
podrían beneficiarse de este innovador sistema en un futuro próximo. En el
experimento que aparece en la fotografía de portada, el participante utiliza
únicamente su pensamiento para marcar un número de teléfono.
-Supercomputador Watson:IBMdesarrolló una supercomputadora llamadaWatson,
la cual ganó una ronda de tres juegos seguidos de Jeopardy
9
, venciendo a sus dos
máximos campeones, y ganando un premio de 1 millón de dólares que IBM luego
donó a obras de caridad
2012
Científicos de un proyecto llamado COSPAL, patrocinado por la Unión Europea,han
creado unrobotcuya inteligenciaArtificialescomparableaun bebé humano de 2 a 3 años.
“Según los científicos que diseñaron el robot, el gran paso se dio al unificar en un solo
sistema las dos filosofías clásicas sobre cómo diseñar sistemas de Inteligencia Artificial
(IA). Por un lado está la manera clásica deproveerle a una IA un conjunto extenso de
reglas, las cuales son evaluadas por la IA y toma decisiones en base a ellas. La otra manera
más moderna es proveer lo que se llama una red neuronal, que permite que la IA misma
aprenda las reglas y se adapte al medio ambiente.Como ejemplo, al robot (el cual tiene
9
Jeopardyes unconcurso de televisiónestadounidense con preguntassobre historia, literatura, arte, cultura
popular, ciencia, deportes, geografía, juegos de palabras, y otros temas. El programa tiene un formato de
"respuesta y pregunta", en el cual a los concursantes se les presentan pistas en forma de respuestas, y deben
dar sus respuestas en forma de una pregunta.

cámaras para ver y un brazo para manipular objetos) se le mostró el popular juguete para
niños en donde se le provee al bebé varias piezas de diferentes formas geométricas, y este
tiene que aprender a insertarlas en agujeros de la forma compatible con ellos.Se procedió a
entrenar al robot como se entrenaría a un niño, diciéndole simplemente si lo estaba
haciendo mal o no, pero en ningún momento programándole las reglas del juego, o ni
siquiera lo que debería hacer.El robot, poco a poco empezó a entender lo que debía hacer,
y no solo eso, sino que empezó a aprender la manera en que debíacolocar las piezas en su
lugar.Esto, por mas sencillo que parezca, es un gigantesco paso en el desarrollo de
verdaderas entidades de IA, y sin duda alguna de aquí en adelante este tipo de tecnología
solo hará que estas Inteligencia Artificiales se tornen cada vez mas inteligentes, y
conscientes, de sí mismas.”
10
Test de Turing
Si usted señor lector hablara con una máquinaa través de internet, ¿podría distinguir si se
trata de un computador?
La prueba de Turing.
Los seres humanos evalúan la inteligencia de sus congéneres a través de la interacción con
ellos, si un computador pudiera hacerse pasar por una persona... ¿se podría afirmar que es
10
Fuente de información. Crean inteligencia artificial con inteligencia de un bebe. [On line]. Consultado el
17 de julio de 2012.http://www.eliax.com/?post_id=4615

inteligente?Existen algunos candidatos que están muy cerca de aprobar este examen,
conocido como el test de Turing, incluyendo al robot cleverbot.
ElTest de Turing(oPrueba de Turing) es una prueba propuesta por Alan Turing para
demostrar la existencia de inteligencia en una máquina. Fue expuesto en 1950 en un
artículo (Computing machinery and intelligence) para la revistaMind, y sigue siendo uno
de los mejores métodos para los defensores de la Inteligencia Artificial. Se fundamenta en
la hipótesis positivista de que, si una máquina se comporta en todos los aspectos como
inteligente, entonces debe ser inteligente.
La prueba consiste en un desafío. Se supone un juez situado en una habitación, y una
máquina y un ser humano en otras. El juez debe descubrir cuál es el ser humano y cuál es la
máquina, estándoles a los dos permitido mentir al contestar por escrito las preguntas que el
juez les hiciera. La tesis de Turing es que si ambos jugadores eran suficientemente hábiles,
el juez no podría distinguir quién era el ser humano y quién la máquina. Todavía ninguna
máquina puede pasar este examen en una experiencia conmétodo científico.
En 1990 se inició un concurso, el
Premio Loebner
11
, una
competición de carácter anual
entre programas de ordenador
que sigue el estándar establecido
en la prueba de Turing. Un juez
humano se enfrenta a dos
pantallas de ordenador, una de
ellas que se encuentra bajo el
control deun ordenador, y la otra
bajo el control de un humano. El
juez plantea preguntas a las dos
pantallas y recibe respuestas. El
premio está dotado con 100.000
dólares estadounidenses para el programa que pase el test, y un premio de consolación para
el mejorprograma anual. Todavía no ha sido otorgado el premio principal.
Pruebas paralelas
Existe otra prueba parecida, propuesta porJohn Searle y popularizada por Roger Penrose:
la "sala china"
12
, para argumentar que la máquina no ha superado laPrueba de Turing. En
esencia, es igual en la forma, pero se realiza con personas encerradas en una habitación y se
11
ElPremio Loebneres una competición de carácter anual que concede premios a un programa de
ordenador que esté considerado por el jurado que lo compone, como el más inteligente de los que se han
presentado. El formato de la competición sigue el estándar establecido en el test de Turing. Un juez humano
se enfrenta a dos pantallas de ordenador, una de ellas que se encuentra bajo el control de un ordenador, y la
otra bajo el control de un humano. El juez plantea preguntas alas dos pantallas y recibe respuestas. En base a
las respuestas, el juez debe decidir qué pantalla es la controlada por el ser humano y cuál es la controlada por
el programa de ordenador.

requiere que estas no conozcan el idioma en que se realiza la conversación. Para ello se usa
un diccionario que permite confeccionar una respuesta a una pregunta dada, sin entender
los símbolos. Como consecuencia, se argumenta que por mucho que una persona sea capaz
de enviar una cadena de símbolos en chino relacionada con otra cadena recibida, no quiere
decir que sepa chino, sino que sabe aplicar un conjunto de reglas que le indican lo que ha
de enviar.
Falta la semántica en el proceso y por esoes muy cuestionada como inteligencia artificial,
puesto que equipara una máquina pensante con una que parece que piensa.Ray Kurzweil
predice que el ordenador pasará laprueba de Turinghacia el2029, basado en el concepto
de singularidad tecnológica.
Aplicaciones
Una de las aplicaciones de la prueba de Turing es el control despam. Dado el gran volumen
decorreos electrónicosenviados, el spam es, por lo general, enviado automáticamente por
una máquina. Así la prueba de Turing puede usarse para distinguir si el correo electrónico
era enviado por un remitente humano o por una máquina (por ejemplo por la prueba
Captcha).
El Captchaes el acrónimo deCompletely Automated Public Turing test to tell Computers
and Humans Apart(Prueba de Turing pública y automática para diferenciar máquinas y
humanos).
Este es untípico test para la secuencia "smwm" que dificulta el reconocimiento de la
máquina distorsionando las letras y añadiendo un degradado de fondo.
Se trata de una prueba desafío-respuesta utilizada en computación para determinar cuándo
el usuario es o no humano. La típica prueba consiste en que el usuario introduzca un
conjunto de caracteres que se muestran en una imagen distorsionada que aparece en
pantalla. Se supone que una máquina no es capaz de comprender e introducir la secuencia
de forma correcta por lo que solamente el humano podría hacerlo.
Los captchas son utilizados para evitar que robots, también llamados spambots, puedan
utilizar ciertos servicios. Por ejemplo, para que no puedan participar en encuestas,
registrarse para usar cuentas de correo electrónico (o su uso para envío de correo basura)
y/o más recientemente, para evitar que correo basura pueda ser enviado por un robot (el
remitente debe pasar el test antes de que se entregue al destinatario).
El sistema captcha tiene las siguientes características por definición:

Soncompletamente automatizados, es decir, no es necesario ningún tipo de
mantenimiento / intervención humana para su realización. Esto supone grandes
beneficios en cuanto a fiabilidad y coste.
Elalgoritmo utilizado es público. Deesta forma la ruptura de un captcha pasa a ser un
problema de inteligencia artificial y no la ruptura de un algoritmo secreto.
La habitaciónChina
Lahabitación chinaes un experimento mental, propuesto originalmente por John Searley
popularizado por Roger Penrose, mediante el cual se trata de rebatir la validez del Test de
Turing y de la creencia de que una máquina puede llegar a pensar.
Searle se enfrenta a la analogía entre mente y ordenador cuando se trata de abordar la
cuestión de la conciencia. La mente implica no sólo la manipulación de símbolos, y además
de una sintaxis posee una semántica.
El experimento de la habitación china
Supongamos que han pasado muchos años, y que el ser humano ha construido una máquina
aparentemente capaz de entender el idioma chino, la cual recibe ciertos datos de entrada
que le da un hablante natural de ese idioma, estas entradas serían los signos quese le
introducen a la computadora, la cual más tarde proporciona una respuesta en su salida.
Supóngase a su vez que esta computadora fácilmente supera laPrueba de Turing,ya que
convence al hablante del idioma chino de que sí entiende completamente el idioma, y por
ello el chino dirá que la computadora entiende su idioma.

Ahora Searlepide suponer que él está dentro de ese computador completamente aislado del
exterior, salvo por algún tipo de dispositivo (una ranura para hojas de papel, por ejemplo)
por el que pueden entrar y salir textos escritos en chino.
Supongamos también que fuerade la sala o computador está el mismo chino que creyó que
la computador entendía su idioma y dentro de esta sala está Searle que no sabe ni una sola
palabra en dicho idioma, pero está equipado con una serie de manuales y diccionarios que
le indican las reglas que relacionan los caracteres chinos (algo parecido a "Si entran tal y tal
caracteres, escribe tal y tal otros").
De este modo Searle, que manipula esos textos, es capaz de responder a cualquier texto en
chino que se le introduzca, ya que tiene el manual con las reglas del idioma, y así hacer
creer a un observador externo que él sí entiende chino, aunque nunca haya hablado o leído
ese idioma.
Dada esta situación cabe preguntarse:
¿Cómo puede Searle responder si no entiende el idioma chino?
¿Acaso los manuales saben chino?
¿Se puede considerar todo el sistema de la sala (diccionarios, Searle y sus
respuestas) como, un sistema que entiende chino?
Manipular símbolos en base a su forma no significa que conozcamos su contenido.

De acuerdo a los creadores del experimento, los defensores de la inteligencia artificial
fuerte-los que afirman que programas de ordenador adecuados pueden comprender el
lenguaje natural o poseer otras propiedades de la mente humana, no simplemente
simularlas-deben admitir que, o bien la sala comprende el idioma chino, o bien el pasar el
test de Turing no es prueba suficiente de inteligencia. Para los creadores del experimento
ninguno de los componentes del experimento comprende el chino, y por tanto, aunque el
conjunto de componentes supere el test, el test no confirma que en realidad la persona
entienda chino, ya que comose sabeSearle no conoce ese idioma.
El argumento de la habitación china
Esto es así en el contexto de la siguiente argumentación:
1.Si la Inteligencia Artificial Fuerte es verdadera, hay un programa para el idioma chino tal
que cualquier mecanismo que lo ejecute entiende chino.
2. Una persona puede ejecutar mecánicamente un programa para el idioma chino sin
entender el idioma chino.
3.Los argumentos de la inteligencia artificial fuerte son falsos porque en realidad el
sistema no entiende chino, nada más simula entender.
Una puntualización importante: Searle no niega que las máquinas puedan pensar-el cerebro
es una máquina y piensa-, niega que al hacerlo apliquen un programa.
Críticas al experimento de la habitación china
El experimento mental de la habitación china
confirmaría la premisa 2, a juicio de sus defensores. A
juicio de sus detractores, la premisa 2 basada en la
inferencia apartir del experimento mental no es
concluyente. Las objeciones suelen seguir una de las
tres líneas siguientes:
Aunque el habitante de la habitación no
entienda chino, es posible que el sistema más
amplio formado por la habitación, los
manuales y el habitante entienda chino.
Una persona manipulando signos escritos
dentro de una habitación estática no es el único
candidato posible para ocupar el puesto de
sistema computacional capaz de entender
chino. Hay otros modelos posibles: a. un robot
capaz de interactuar con el entorno y aprender
del mismo; b. un programa que regule los

procesos neuronales involucrados en la comprensión del chino, etc. No hay razón
para decir que estos modelos sólo exhiben una comprensión aparente, como en el
caso de la habitación ysu habitante, pero son modelos de Inteligencia Artificial.
Si la conducta de la habitación no es evidencia suficiente de que entiende chino,
tampoco puede serlo la conducta de ninguna persona. Se hace uso de una figura
retórica tratando de desfigurar el concepto de entendimiento, ya pues es absurdo
decir que la máquina no puede "responder en chino a un hombre" porque "no
entiende realmente el chino", para entender de ese modo "se ha de ser capaz de
crear la idea en base a la forma conceptual", esa teoría dela idea quizás sea algo
más "idealista" que científica. En cualquier caso la mente de un hombre se basa en
algoritmos más complejos y más costosos de procesar que los que actualmente
poseen los actuales computadores. Es cuestión de tiempo.
La adquisiciónde entendimiento (a lo que podemos llamar inteligencia) es un
proceso evolutivo, en el cuál puede aplicarse diferentes técnicas y herramientas que
conlleven al individuo a un aprendizaje (en este caso del idioma chino), por lo cual
se hace necesario establecer niveles de entendimiento en el tiempo.
Respuestas a los Argumentos en contra de la habitación China
Aunque es verdad que el sistema maneja el chino, éste no entiende el idioma, es
decir, la persona dentro del cuarto no entiende lo que está haciendo, nada más lo
está haciendo. Por consiguiente, el que un computador maneje un idioma, no
significa que éste entienda lo que está haciendo, nada más significa que está
realizando una acción.
A su vez, la persona que maneja el chino no sólo se puede entendercomo una
persona, lo que trata de mostrar el ejemplo es el cómo las computadoras no
entienden lo que manejan y nada más siguen unas reglas ya determinadas sin tener
que entenderlas.
La última proposición tiene muchas contradicciones, por ejemplo se sabe que los
que están leyendo estas palabras sí entienden el idioma, al contrario de la
computadora, que tan solo maneja información sintáctica (es decir que nada más
manejan una acción, sin contenido propio), los humanos manejamos información
semántica (con contenido, lo que nos asegura que comprendamos lo que hacemos,
ya que le vemos contenido a lo que hacemos).
Que un sistema pueda responder a acciones con una acción, no significa que tenga
Inteligencia en sí mismo, todo lo que hace para responder a las acciones con una
acción es inentendible para él, simplemente responde a las acciones con una acción
que sucedemediante inferencias, creando relaciones y agrupando, para determinar
una conclusión basta y probable de ser errónea. Es hasta ahora imposible poder
demostrar lo contrario pues no hay manera de plasmar lo biológico en una máquina,
y lo biológico es sumamente complejo más aún que lo artificial, lo artificial al
crearse es entendible en su totalidad, en cambio hay ciertas partes de lo biológico

que aún no se pueden interpretar, tal es el caso de la inteligencia de los seres. El ser
humano tiene capacidades que jamás podrán ser imitadas por una máquina,
simplemente por ser biológico, natural.
Singularidad tecnológica
13
En futurología, lasingularidad tecnológica(algunas veces llamadasimplementela
Singularidad) es un acontecimiento futuro en el que se prediceque el progreso tecnológico
y el cambio social se acelerarán debido al desarrollo de inteligencia sobrehumana,
cambiando nuestro ambiente de manera tal, que cualquier ser humano anterior a la
Singularidad sería incapaz de comprender o predecir. Dicho acontecimiento se ha
nombrado así por analogía con la singularidad espaciotemporal observada en los agujeros
negros, donde existe un punto en el que las reglas de la física dejan de ser válidas, y donde
la convergencia hacia valores infinitos hace imposible eldefinir una función.
El tiempo que resta antes de que se llegue a ese fenómeno se acelera con la utilización de
máquinas para apoyar tareas de diseño o mejoras de diseño de nuevos inventos.
La Singularidad Tecnológica (para
diferenciarla del concepto de Singularidad
en la física) contempla un momento en la
historia donde el progreso tecnológico
genera un cambio “comparable al
nacimiento de vida humana en la Tierra.
La causa precisa de este cambio es la
creación inminente de entidades con
inteligencia mayora la humana por medio
de la tecnología”, escribióVernor Vinge,
autor de ciencia ficción que propuso el
término de Singularidad Tecnológica en un ensayo publicado en 1993. Allí Vinge especula
que este cambio podría darse por medio de la inteligencia artificial, las interfaces
humano/computador, o por la modificación biológica del genoma humano. Luego de este
punto, terminaría la historia humana.
14
Vinge afirma también que“Creo que es probable que con la tecnología podamos, en un
futuro muy cercano, crear oconvertirnos en seres más inteligentes que los humanos. Tal
singularidad tecnológica revolucionaría nuestro mundo, llevándolo a una era post-
humana. Si fuera a pasar dentro de un millón de años, no valdría la pena preocuparse.
¿Así que a que me refiero cuando digo “un futuro muy cercano”? En mi ensayo de 1993,
13
Fuente. Singularidad tecnológica.http://es.wikipedia.org/wiki/Singularidad_tecnol%C3%B3gica[En línea]
consultado el 18 de noviembre de 2011.
14
Fuente.Especial H2blOg: La Singularidad Tecnológica. [en Linea] Consultado el 25 de junio de 2012.
http://proyectoliquido.net/h2blog/121/especial-h2blog-la-singularidad-tecnologica/

“El Advenimiento de la Singularidad Tecnológica”, dije que estaría sorprendido si la
singularidad no sucediera para el 2030. Mantengo mi posición con respecto a esa
afirmación asumiendo que evitamoslas descomunales catástrofes–cosas como las guerras
nucleares, las superplagas, las emergencias climáticas–a las que le dedicamos
apropiadamente nuestra ansiedad.”
En ese punto Vingeespera que la singularidad se manifieste como una combinación de
elementos:
1.El Escenario IA: creamos inteligencia artificial (IA) superhumana en computadores.
2.El Escenario AI: mejoramos la inteligencia humana por medio de las interfaces
humano/computador,logrando amplificación de la inteligencia (AI).
3.El Escenario Biomédico: incrementamos directamente nuestra inteligencia
mejorando la operación neurológica de nuestros cerebros.
4.El Escenario Internet: la humanidad, sus redes, computadores, y bases de datos se
vuelven lo suficientemente efectivas como para ser consideradas un ser
superhumano.
5.El Escenario Gaia Digital: la red de microprocesadores embebidos se vuelve lo
suficientemente efectiva como para ser considerada un ser superhumano.
Vinge dice que dependiendo de nuestro ingenio (y el de nuestros artefactos) existe la
posibilidad de una transformacióncomparable al surgimiento de la inteligencia humana en
el mundo biológico.
Historia
Las consecuencias deestos estudios (Máquina
de turing y sala china que en si son lo mismo)
fueron discutidas durante la década delos60s
porI.J. Good, y John von Neumann quien usa
el término"singularidad"para describir el
progreso tecnológico durante la década de
1950. Sin embargo, no es sino hasta en los 80s
que la Singularidad es popularizada porVernor
Vinge. Si la Singularidad ocurrirá o no, es un
hecho muy debatido, pero la aproximación más
común entre los futuristas la sitúa dentro de la
tercera década delSiglo XXI.
Otros, notablementeRaymond Kurzweil, han propuesto teorías que expanden laLey de
Moore
15
hacia tipos de computación que van más allá de los simples transistores,
15
LaLey de Mooreexpresa que aproximadamente cada 18 meses se duplica el número de transistores en un
circuito integrado. Se trata de una ley empírica, formulada por el cofundador de Intel, Gordon E. Moore el 19
de abril de 1965, cuyo cumplimiento se ha podido constatarhasta el día de hoy. La Ley de Moore no es una

sugiriendo un patrón exponencial de progreso tecnológico. Sin embargo Kurzweil supone
que el propio patrón de crecimiento cambia y la aceleración se hace mayor hasta el punto
de adquirir un patrón de crecimiento hiperbólico. Lo cual es análogo al espacio hiperbólico
de los agujeros negros. Según Kurzweil, este patrón culmina en un progreso tecnológico
inimaginable en el Siglo XXI, el cual conduce a la Singularidad, un punto en el cual el
crecimiento se hace infinito.
ley en el sentido científico, sino más bien una observación, y ha sentado las bases de grandes saltos de
progreso.
En 2004 la industria de los semiconductores produjo más transistores (y a un costo más bajo) que la
producción mundial de granos de arroz, según la Semiconductor Industry Association (Asociación de
la Industria de los Semiconductores) de los Estados Unidos.
Gordon Moore solía estimar que el número de transistores vendidos en un año era igual al número de
hormigas en el mundo, pero para el 2003 la industria producía cerca de 10
19
transistores y cada
hormiga necesitaba cargar 100 transistores a cuestas para conservar la precisión de esta analogía.
En 1978, un vuelo comercial entre Nueva York y París costaba cerca de 900 dólares y tardaba 7
horas. Si se hubieran aplicado los mismos principios de la Ley de Moore a la industria de la aviación
comercial de la misma forma que se han aplicado a la industria de los semiconductores desde 1978,
ese vuelo habríacostado cerca de un centavo de dólar y habría tardado menos de 1 segundo en
realizarse.
Ver el siguiente videohttp://www.youtube.com/watch?v=3z8I-KmaFUI

El crecimiento hiperbólico es el patrón que algunos indican que sigue el aumento de la
información y de hecho ha sido el ritmo en como ha venido creciendo la población mundial
por lo menos hasta principios de siglo. Robert Anton Wilson generalizo la ley del
crecimiento de la información bajo el nombre del fenómeno del Jesús saltador, que se
inspira en la idea de comenzar a contar los años a partir del nacimiento de Jesús, aunque
también parece un nombre irónico y humorístico, porque a medida que pasa el tiempo no
son pocos los que siguen pensando en el fin del mundo y la inminente llegada de Jesús.
Según Wilson, se inspiró en Alfred Korzybski, el autor de la Semántica General, quien
habría observado que la información se duplicabacada cierto tiempo. Korzybski tomo
como base, de todo el conocimiento acumulado y disponible por la humanidad, el año 1
después de cristo, Wilson le llama el primer Jesús. La primera duplicación se habría dado
durante el apogeo del renacimiento, con lo que se tendrían entonces 2 Jesús. La segunda en
el año 1750, 4 Jesúsy las siguientes en los años, 1900, 1950, 1960, 1967 y 1973 (128
Jesús). Para el 2000 se calculaba que la información se duplicaba 2 veces en un año. Sin
embargo de acuerdo a otro estudio realizado por la Universidad de Berkeley en el año 2004
por los profesores Peter Lyman y Hal Varian, a instancias de Microsoft Research, Intel, HP
y EMC, la información que se genera y se registra en el mundo aumenta a un ritmo de
solamente 30% anual desde 1999.
Superestructura tecnológica
Las discrepancias surgen apartir de la consideración que se tenga sobre el impacto
tecnológico en la sociedad. Si creemos que las tecnologías siempre serán una
infraestructura controlada por los humanos o aceptamos que dado su crecimiento acelerado,
su cada vez mayor autonomía y sucreciente inteligencia (a lo cual no se le ve limites), se
pueda aceptar que se convertirán en una superestructura capaz de compartir las decisiones
con los humanos.
Por lo que tendremos cuatro enfoques:
1)Los que creen que la tecnología siempre será controlada por los humanos y el único
peligroestáen el mal uso que se le dé. Por lo que basta con limitar, prohibir o
controlar la utilización de las mismas Desarrollo sostenible.
2)Los que creen que las tecnologías igualarán y superarán a los humanos, surgiendo
una superinteligencia. Singularidad tecnológica.
3)Los que aceptan que las tecnologías podrán ser una superestructura y creen que
dado el contexto actual de poder, estas se convertirían en un competidor demasiado
peligroso para los humanos, por lo cual hay que hacer todo lo posible para que esto
no suceda. Bioconservadurismo.
4)Los que ven a la tecnología como una aliada que nos pueda llevar a una
superinteligencia colectiva donde humanos y tecnologías cooperen por un futuro
sostenible Sostenibilidad tecnológica.

Inteligencia suprahumana
La idea de una singularidad, Vingela sustenta sobre la ley de Moore que dice que la
capacidad de los microchips de un circuito integrado se duplicará cada dos años, lo cual
traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de
mantenerse este crecimiento acelerado conducirá inevitablemente a que las máquinas le den
alcance y luego superen la capacidad del cerebro para procesar la información y según un
gráfico elaborado por Hans Moravec, la paridad entre el hardware y el cerebro se alcanzará
alrededor del 2020 lo cual dará lugar a las máquinas ultra inteligentes.
Vinge define una máquina ultra inteligente como una máquina capaz de superar en mucho
todas las actividades intelectuales de cualquier humano independientemente de la
inteligencia de este y está convencido de que esa inteligencia superior será la que impulsará
el progreso, el cual será mucho más rápido e incluso superará a la actual evolución natural.
Es así que afirma que estaremos entrando en un régimen radicalmente diferente de nuestro
pasado humano, y es a este evento al que le da el nombre de singularidad.
El transhumanista Nick Bostrom define una superinteligencia de la siguiente forma: Tendrá
superinteligencia cualquier intelecto que se comporte de manera bastamente superior en
comparacióncon los mejores cerebros humanos en prácticamente todos los aspectos y en
especial estos tres:
• Creatividad científica
• Sabiduría en general
• Desempeño científico

Esta definición deja abierta la manera de como se implementa esa superinteligencia
•Artificial: una computadora digital
• Colectiva: una red de computadoras
• Biológica: cultivo de tejidos corticales
• Híbrida: fusión entre computadoras y humanos
Caminos hacia la singularidad
Según el científico y escritor de ciencia ficción Vernor Vinge,la singularidad se puede
alcanzar por diferentes caminos:
El desarrollo de un computador que alcance el nivel de inteligencia humana y
posteriormente lo supere (superinteligencia artificial).
El desarrollo de redes de computadoras que se comporten como superneuronas de
un cerebro distribuido que "despierte" como ente inteligente (superinteligencia
colectiva).
El desarrollo de elementos de interacción con computadoras que permitan a un
humano comportarse como un ser superinteligente (superinteligencia hibrida).
Manipulaciones biológicas que permitan mejorar en algunos seres el nivel humano
de inteligencia (superinteligencia biológica)
Enfuturología, lasingularidad tecnológica(algunas veces llamada simplementela
Singularidad) es un acontecimiento futuro en el que se predice que el progreso tecnológico
y el cambio social se acelerarán debido al desarrollo deinteligenciasuperhumana,
cambiando nuestro ambiente de manera tal, que cualquier ser humano anterior a la
Singularidadsería incapaz de comprender o predecir. Dicho acontecimiento se ha
nombrado así por analogía con lasingularidad espaciotemporalobservada en losagujeros
negros, donde existe un punto en el que las reglas de lafísicadejan de ser válidas, y donde
la convergencia hacia valores infinitos hace imposible el definir una función.

El tiempo que resta antes de que se llegue a ese fenómeno se acelera con la utilización de
máquinas para apoyar tareas de diseño o mejoras de diseño de nuevos inventos.
Superinteligencia artificial
Surgimiento de una superinteligencia
artificial superior a la inteligencia humana.
Estamos hablando de que los humanos sean
capaces de construir una inteligencia
artificial que los iguale y que después, esta
inteligencia no humana, sea capaz de
superarse asímisma. Dado el crecimiento
velozque tiene el hardware (ley de Moore)
y no en el desarrollo de programas que
emularan la inteligencia humana como se
pretendía en los primeros años de la
Inteligencia artificial. Estamos hablando de una inteligencia artificial fuerte que supone que
la consciencia es codificable (consideran que los estados mentales son algoritmos altamente
complejos) y puede ser descargada del cerebro y copiada en un soporte digital.
Superinteligencia colectiva
Surgimiento de una superinteligencia colectiva donde estén conectados en redes los
humanos y las maquinas, siguiendo las ideas de Pierre Levy de una inteligencia colectiva,
en la que Internetestájugando un papel importante y ya algunos están hablando del
surgimiento de un cerebro global que seestáformando desde ahora en el contexto de la
Web 2.0 y de la naciente Web 3.0.
No se puede ignorar el impacto que está teniendo la Web 2.0 y la gran cantidad de
conocimiento que se está compartiendo en lasWikis, redes sociales y blogs y que se
podrían ir autoorganizado por medio de la Web semántica
16
. Lo cual nos lleva a una
superestructura tecnológica donde humanos y máquinas cooperan entre sí.
Superinteligencia hibrida
Superinteligencia hibrida, Interconexión entre humanos y computadoras, tales como,
prótesis, implantes de chip, etc. Lo cual nos lleva al Cyborg, donde se fusionan los
humanos con las maquinas. La idea de una transhumanidad que transcienda a la condición
humana y con ello superar todos los límitesde la especie humana y dar surgimiento a una
nueva especie posthumana. Esto nos arrastra a una singularidad fuerte donde humanos y
maquinas se fusionan.
16
LaWeb semántica o Web 3.0, es la "Web de los datos". Se basa en la idea de añadir metadatos semánticos
y ontológicos a laWorld Wide Web.Esas informaciones adicionales—que describen el contenido, el
significado y la relación de los datos—se deben proporcionar de manera formal,para que así sea posible
evaluarlas automáticamente por máquinas de procesamiento. El objetivo es mejorar Internet ampliando la
interoperabilidad entre los sistemas informáticos usando "agentes inteligentes". Agentes inteligentes son
programas en las computadoras que buscan información sin operadores humanos.

Superinteligencia biológica
Superinteligenciabiológica, mejoramiento humano por bioingeniería sobre todo
modificaciones genéticas, dado que es una inteligencia mejorada por medio de la biología.
Se aspira al humano mejorado (humano+) por medio de la bioingeniería. Esto ira
conduciendo a la humanidada una fusión progresiva y menos radical que la anterior.
Si bien algunos autores, como Roger Penrose, piensan que las computadoras no llegarán a
ser inteligentes (en el sentido de la prueba de Turing), el camino biológico para llegar a la
singularidad tecnológica no parece tener límite alguno.
Riesgos
Los defensores de la singularidad son conscientes de las amenazas que esta implica y
consideran los siguientes riesgos existenciales:
• Inteligencia artificial mal programada.
• Mal uso de la nanotecnologia.
• Mala utilización de la biotecnología.
• Uso generalizado de las prótesis (convirtiéndose en un robot).
• Tecnologías autónomas que se escapan de las manos (maquinas que se auto construyen a
símismas).

De aquí que sacan la conclusión que es necesario tomar el control de la evolución humana y
abalanzar hacia una transhumanidad.
17
Proponen la sustitución de una especie humana
obsoleta por otra especie “superior” con poderes ilimitados y que por medio de las
tecnologías emergentes o convergentes (NBIC) se puede alcanzar la posthumanidad.
IA Fuerte
LaInteligencia Artificial Fuertees aquellainteligencia artificialque iguala o excede la
inteligenciahumana promedio–la inteligencia de una maquina que exitosamente puede
realizar cualquier tarea intelectual de cualquier ser humano-. Es un objetivo importante
para la investigación sobre IA y un tópico interesante para laciencia ficción.
La IA Fuerte(IAF) igualmente es referida comoInteligencia General Artificialo como la
habilidad de ejecutar acciones generales inteligentes. La ciencia ficción asocia a la IAF con
cualidades humanas como laconciencia
18
, lasensibilidad, la sapiencia y el
autoconocimiento.
17
ElTranshumanismoes tanto un conceptofilosóficocomo un movimiento intelectual internacional que
apoya el empleo de lasnuevas ciencias y tecnologíaspara mejorar las capacidadesmentalesyfísicascon el
objeto de corregir lo que considera aspectos indeseables e innecesarios de lacondición humana, como
elsufrimiento, laenfermedad, elenvejecimientoo incluso en última instancia lamortalidad. Los pensadores
transhumanistasestudian las posibilidades y consecuencias de desarrollar y usar latecnologíacon estos
propósitos, preocupándose por estudiar tanto los peligros como los beneficios de estas manipulaciones.
El término "Transhumanismo" se simboliza comoH+(antes>H),y es usado como sinónimo de "humano
mejorado".
18
Laconciencia(del latínconscientia'conocimiento compartido', pero diferente deconsciencia, ser
conscientes de ello) se define en general como el conocimiento que un ser tiene de sí mismo y de su entorno
se refiere a la moral o bien a la recepción normal de los estímulos del interior y el exterior.Conscientĭa
significa, literalmente, «con conocimiento» (del latíncum scientĭa).

Cerebro artificial
Es un término utilizado habitualmente en los medios de comunicación
1
para describir la
investigación que pretende desarrollarsoftwareyhardwarecon habilidades cognitivas
similares alcerebro humanooanimal.
Detalles
La investigación de «cerebros artificiales» desempeña tres papeles importantes para la
ciencia:
1.Un intento constante de losneurocientíficospara entender cómo funciona el cerebro
humano.
2.Un experimento mental en la filosofía de la inteligencia artificial
(en)
, demostrando
que es posible,en teoría, crear una máquina que tenga todas las capacidades de un
ser humano.
3.Un proyecto serio a largo plazo para crear máquinas capaces de una acción general
inteligente oInteligencia General Artificial. Esta idea ha sido popularizada porRay
Kurzweil
2
comoIA fuerte(en el sentido de una máquina tan inteligente como un ser
humano).
Existen dudas sobre la naturaleza de la conciencia, y no se sabe con seguridad si la conciencia como
fenómeno cognitivo es sólo el resultado de la complejidad computacional o de otros factores. Roger Penrose
se ha ocupado del problema de la realidad física de la inteligencia y ha analizado diversas pretensiones
teóricas por parte de la inteligencia artificial de simular o construir artefactos que posean algún tipo de
conciencia. Penrose clasifica las posturas actuales ante la cuestión de si la conciencia es o no computable
algorítmicamente:
A. Todo pensamiento es un proceso decomputación, es decir, en particular la percepción de uno
mismo y la autoconciencia son procesos emergentes que son resultado directo de la computación o
algoritmo adecuados.
B. La conciencia es una consecuencia del tipo de acción física que ocurre en elcerebro, y aunque
cualquier acción física puede simularse apropiada a través de medios computacionales; el hecho de
que se lleve a cabo un proceso de simulación computacional del cerebro no comportaría, por sí
mismo, la aparición auténtica de la autoconciencia.
C. La realización de cierta actividad física en el cerebro es lo que lleva a la aparición de la
autoconciencia en el ser humano; sin embargo, aunque puede ser reproducida artificialmente, dicha
acción no puede simularse algorítmicamente.
D. La conciencia de tipo humano no puede entenderse propiamente en términos físicos,
computacionales o científicos de otro tipo.
El punto de vistaDclaramente niega la posibilidad de comprensión científica de la conciencia. Muchos
investigadores del campo de la inteligencia artificial, en particular los más optimistas sobre sus logros, se
adhieren a la posturaA. John Searle sería más bien un partidario de la posturaB, y el propio Penrose ha
argumentado fuertemente en su trabajo por la posturaC, relacionándola con varios otros problemas abiertos
de la física como la teoría cuántica de la gravedad.

Un ejemplo del primer objetivo es el proyecto informado por laUniversidadde Astonen
Birmingham(Reino Unido) donde los investigadores están utilizando células biológicas
para crear «neuroesferas» (pequeños grupos de neuronas) con el fin de desarrollar nuevos
tratamientos para enfermedades como elmal de Alzheimer, laenfermedad de Parkinsony
laenfermedad de neurona motora.
El segundo objetivo es ejemplificado por la
máquina de Turingy más recientemente en el
funcionalismo de estados de la máquinade
Hilary Putnam.
El tercer objetivo es el que suele llamarse
inteligenciageneral artificialpor los
investigadores. Sin embargo Kurzweil
prefiere el término más memorableIA
Fuerte. En su libroLa Singularidad está
Cercase centra en laemulación de todo el
cerebrousando máquinas de computación
convencionales como forma de
implementación de cerebros artificiales, y
afirma (por razón del poder de las
computadoras que sigue una tendencia de
crecimiento exponencial) que esto podría pasar en 2025.Henry Markram, director del
proyectoBlue Brain(que pretende la emulación del cerebro), hizo una afirmación similar
(2020) en laconferencia TEDde Oxford en 2009.
A pesar de que la emulación directa del cerebro usandoredes neuronales artificialessobre
una máquina decomputación de alto rendimientoes un enfoque común, existen otros
enfoques. Una implementación alternativa del cerebro artificial podría basarse en los
principios de coherencia/decoherencia de fase no lineal de laTecnología Holográfica
Neural (HNeT). La analogía se ha hecho a los procesos cuánticos a través del algoritmo
sináptico nuclear que tiene grandes similitudes con la ecuación de onda QM.
Algunos críticos de la simulación cerebral creen que es más sencillo crear directamente una
acción inteligente general sin necesidad de imitar a la naturaleza. Algunos comentaristas
19
han usado la analogía de que en los primeros intentos de construir máquinas voladoras estas
fueron modeladas como las aves, y que sin embargo las aeronaves modernas no lucen como
aves. Un argumento computacional es usado enAI-What is this, donde se muestra que, si
tenemos una definición formal de la IA general, el programa correspondiente se pueden
encontrar mediante la enumeración de todos los programas posibles y luego probar cada
uno de ellos para ver si coincide con la definición. No existe unadefiniciónadecuada en la
19
Fox and Hayes quoted in Nilsson, Nils (1998), Artificial Intelligence: A New Synthesis, p581 Morgan
Kaufmann Publishers, ISBN 978-1-55860-467-4.

actualidad. El EvBrain
20
v es una forma desoftware evolutivoque puede hacer evolucionar
redes neuronales similares al cerebro, tales como la red inmediatamente detrás de laretina.
Hay buenas razones para creer que,
indistintamente de la estrategia de
aplicación, las predicciones sobre la
realización de cerebros artificiales en un
futuro próximo son optimistas. En
particular el cerebro (incluyendo el
cerebro humano) y lacogniciónno son
actualmente bien entendidos, y la escala
de computación requerida es
desconocida. Además parece haber
limitaciones en la potencia. El cerebro
consume unos 20 W de potencia,
mientras que las supercomputadoras
pueden usar tanto como de 1 MW o
sobre un orden de 100 mil más (nota: el
límitede Landaueres de 3.5x10
20
operaciones/seg/watt a temperatura ambiente).
Además, hay cuestiones éticas que deben ser resueltas. La construcción y el mantenimiento
de un cerebro artificialplanteancuestiones morales, es decir, en relación con la
personalidad, lalibertady lamuerte. ¿Un «cerebro en una caja» constituye una persona?
¿Qué derechos tendría esa entidad, legales o de otro tipo? Una vez activado, ¿tendrían los
seres humanos la obligación de continuar con su operación? ¿Constituiría ladesactivación
de un cerebro artificial muerte,sueño,inconsciencia, o algún otro estado para el que no
existe ninguna descripción humana? Después de todo, un cerebro artificial no está sujeto a
la descomposición celular post mórtem (y la consiguiente pérdida de su función) como lo
están los cerebros humanos, por lo que un cerebro artificial podría, teóricamente, reanudar
su funcionalidad exactamente como estaba antes de que fuese desactivado.
Recursos
Desde noviembre de 2008, IBM recibió una subvención de 4.9 millones de dólares del
Pentágono para la investigación sobre la creación de computadoras inteligentes. El proyecto
Blue Brain se está llevando a cabo con la ayuda de IBM en Lausana.
21
El proyecto se basa
en la premisa de que es posible enlazar artificialmente las neuronas «en la computadora»
mediante la colocación de treinta millones de sinapsis en sus adecuadas posiciones
tridimensionales.
En marzo de 2008, el proyecto Blue Brain estaba avanzando más rápido de lo esperado:
«La conciencia es sólo una enorme cantidad de información intercambiada por billones de
20
Jung, Sung Young, "A Topographical Development Method of Neural Networks for Artifical Brain
Evolution", Artificial Life, The MIT Press, vol. 11, issue 3-summer, 2005, pp. 293-316.
21
Consultar en
http://newsvote.bbc.co.uk/mpapps/pagetools/print/news.bbc.co.uk/2/hi/science/nature/7740484.stm?ad=1

células cerebrales».
22
Algunos defensores de la IA fuerte especulan que las computadoras
en el marco deBlue BrainySoul Catcherpueden exceder la capacidad intelectual humana
en torno al 2015, y que es probable que seamos capaces de descargar el cerebro humano en
algún momento alrededor del 2050.
23
El proyecto se ha dividido en dos fases, la primera de las cuales se completó en noviembre
de 2007.
Fase I
El objetivo inicial del proyecto es simular la
columna cortical, que puede considerarse la
menor unidad funcional del neocórtex (la parte
del cerebro que se cree responsable de las
funciones superiores como el pensamiento
consciente). Esta columna tiene una altura de
2mm, un diámetro de 0,5mmy contiene unas
60.000 neuronas en humanos.
La simulación se centra en la columna neocortical
de las ratas, que tienen una estructura muy similar
pero que contienen únicamente 10.000 neuronas y
10
8
conexiones sinápticas. Durante los últimos 10
años, el profesor Markram ha estudiado los tipos
de neuronas y sus conexiones en esta columna
para generar un modelo de su funcionamiento.
Fase II
Tras obtener el modelo de funcionamiento el siguiente pasoes realizar y validar
simulaciones basadas en dicho modelo. En esta fase se continuará con dos ramas diferentes:
Construcción de la simulación a nivel molecular, cuyo interés reside que permitirá
estudiar los efectos de los genes.
Simplificación de la simulación de la columna para permitir la simulación paralela
de un gran número de columnas interconectadas, con el objetivo final de simular un
neocórtex completo (que en el caso de los humanos consiste en un millón de
columnas, aproximadamente).
Los siguientes pasos es ascender al nivel del gato para alcanzar seguidamente el de los
primates.
22
Consultar enhttp://seedmagazine.com/content/article/out_of_the_blue/
23
Jaap Bloem, Menno van Doorn, Sander Duivestein,Me the media: rise of the conversation society, VINT
reseach Institute of Sogeti, 2009, p.273.

IA Débil
Se define IA débil a la escuela que estudia los
procesos cerebrales y mentales por medio de
simulaciones.
La IA Débil no cree en las afirmaciones de la IA
Fuerte. Contrapone a esas ideas, estas otras: que las
computadoras podrían actuar como si fuesen
inteligentes, mimetizadas o como si lo fuesen,
simulando serlo. Podrían superar en "inteligencia"
a sus programadores, con motivo de su alta
capacidad combinatoria (deliberación) ejecutable
en cortos tiempos o de ejecución de "sistemas
expertos" en campos restringidos, llegando a
conclusiones que el hombre no conocía antes de su
descubrimiento informático (por ejemplo, un
ajedrecista que se acuerda de memoria yrepite las
jugadas de la máquina en los finales de ajedrez).
La IA débil sostiene que no hay inconvenientes en
agregarles a las computadoras habilidades que no posee el ser humano, como conducir
helicópteros que pierden una pala en pleno vuelo, sin perdersu estabilidad (imposible con
pilotos humanos) o reconocer con alta precisión quien es el que emite un cierto tipo de voz
o terminar con buen éxito sistemas expertos muy complicados.
En síntesis,la máquina es el temacentral deinvestigación, la cualse vecomo un todo (soft
y hard) y se pretende queésta como tal alcance niveles de inteligencia, posiblemente no
alcanzados por el hombre, cada vez más avanzados.E igual manera,se especula sobre la
posibilidad de que la máquina sustituya al hombre, dadalas posibilidades ilimitadas de la
misma.
Aplicaciones de la IA
Tareas de la vida diaria:
Percepción
Visión
Habla
Lenguaje natural
Comprensión
Generación
Traducción
Sentido común
Control de un robot
Tareas formales:

Juegos
Ajedrez
Backgammon
Damas
Go
Matemáticas
Geometría
Lógica
Cálculo Integral
Demostración de las propiedades de los programas
Tareas de los expertos:
Ingeniería
Diseño
Detección de fallos
Planificación de manufacturación
Análisis científico
Diagnosis médica
Análisis financiero
Una delas primeras aplicaciones de la IA
a nivel comercial, es elreconocimiento de
patronesse basa en la utilización de
distintas técnicas de clasificación para
identificar subgrupos con características
comunes en cada grupo. Estas técnicas se
utilizan, entre otras cosas, en procesos de
reconocimiento de imágenes,
reconocimiento de señales, diagnóstico de
fallos, etc.
Las técnicas de clasificación y
reconocimiento de patrones siguen siendo
objeto actualmente de estudio tanto a nivel
teórico como práctico.
Percepción y reconocimiento de formas:Una de las aplicaciones más interesantes de la
Inteligencia Artificial es la de la imitación de las capacidades sensoriales de los seres
humanos, tanto audición como visión artificial. No se trata solamente que el ordenador sea
capaz de percibir sonidos e imágenes, sino de identificarel sentido de lo percibido.
Una introducción general al problema de reconocimiento de voz puede verse en Rabiner y
Juang (1993).
En cuanto al tema de la visión artificial, se ha avanzado mucho en el reconocimiento de
formas bidimensionales, el caso de formas tridimensionales es objeto actualmente de

grandes esfuerzos investigadores. Una referencia básica en el tema de visión artificial es
Saphiro y Rosenfeld (1992).
Robótica:La robótica es una de las áreas más populares dentro de la Inteligencia Artificial.
Se trata dela creación de máquinas con capacidades perceptuales y habilidades
psicomotoras. Los robots combinan elementos mecánicos, sensores, dispositivos
electrónicos,... con técnicas de I.A. para conseguir que interactuen con el mundo real.
Visiónporcomputador
24
La visión por computador, o visión artificial, es un subcampo de lainteligencia artificial,
cuyo objetivo de investigación y desarrollo están centrados enprogramar
uncomputadorpara que "entienda" una escena o las características de una imagen.
Ninguna máquina puede procesar las imágenes obtenidas por cámaras de vigilancia como
lo hacen los humanos.Probablemente, el mayor reto a la hora de crear una IA es igualar la
habilidad humana de procesar información visual.
24
Marcus du Sautoy. ¿Podemos fabricar una inteligencia artificial?
http://www.bbc.co.uk/mundo/noticias/2012/04/120404_tecnologia_inteligencia_artificial_aa.shtml[On line]
consultado el 17 de julio de 2012.

Las computadoras todavía distan mucho de lograr el nivel que tiene el cerebro humano
cuando interpreta lo que ve.Un ejemplo claro son esas letras que nos piden que escribamos
cuando algunos servicios de internet quieren asegurarse de que es una persona, y no una
máquina, la que está tratando de enviarles un mensaje.
Es como un test de Turing a la inversa donde la computadora trata ahora de distinguir entre
un humano y una máquina.
Los humanos somos capaces de distinguir entre estas rebuscadas letras mientras que la
computadora esincapaz.
Esto es tan sólo un ejemplo de cuán mal las computadoras procesan los estímulos visuales,
por ello esto se ha convertido en un reto crucial en el desarrollo de la IA.Teniendo en
cuenta la cantidad de cámaras de vigilancia que cada vez más abundan en los núcleos
urbanos de todo el mundo, las firmas de seguridad adorarían tener una máquina que tuviera
capacidades similares a las humanas.
La visión artificial involucra una serie de aspectos en su desarrollo, como son:
25
La detección,segmentación, localización y reconocimiento de ciertos objetos en
imágenes (por ejemplo, caras humanas).
25
Fuente. Visión artificial.http://es.wikipedia.org/wiki/Visi%C3%B3n_artificial[On line] Consultado el 19
de julio de 2012.

La evaluación de los resultados (por ejemplo, segmentación, registro).
Registro de diferentes imágenes de una misma escena u objeto, es decir, hacer
concordar un mismo objeto en diversas imágenes.
Seguimiento de un objeto en una secuencia de imágenes.
Mapeo de una escena para generar unmodelo tridimensionalde la escena; este modelo
podría ser usado por unrobotparanavegarpor la escena.
Estimación delas posturas tridimensionales de humanos.
Búsqueda deimágenes digitalespor su contenido.
Estos objetivos se consiguen por medio dereconocimiento de patrones,aprendizaje
estadístico,geometría de proyección,procesamiento de imágenes,teoría de grafosy otros
campos. Lavisión artificial cognitivaestá muy relacionada con lapsicología cognitivay
lacomputación biológica.
Actualmente, los sistemas de cómputo “inteligentes”, dependen aun de loshumanos para
detectar en las pantallas comportamientossospechosos.Las computadoras tienden a leer las
imágenes píxel a píxel y para ellas es difícil integrar esta información.Por lo tanto, parece
que todavía tenemos un largo camino que recorrer para fabricar un procesador que pueda
rivalizar con la materiagris de 1,5 kg ubicada entre nuestras orejas.
Microscopía digital
26
Producción de la imagen digital en microscopía óptica
La digitalización de una imagen electrónica o de video capturada por un microscopio óptico
permite obtener un incremento espectacularen las posibilidades de ampliar características,
extraer información o modificar la imagen. En comparación con el mecanismo tradicional
de captura de imágenes, lafotomicrografía
27
en película, la digitalización de la imagen y el
proceso de postadquisición/recuperación permiten una modificación reversible de la
imagen como matriz ordenada de enteros fundamentalmente libre de ruido, más que una
mera serie de variaciones análogas en color e intensidad. Esta sección trata sobre diversos
temas de actualidad acerca de la adquisición y procesamiento de imágenes para
microscopía óptica.
Las imágenes de señal continua se reproducen mediante dispositivos electrónicos
analógicos que registran los datos de la imagen con precisión utilizando varios métodos,
como una secuencia de fluctuaciones de la señal eléctrica o cambios en la naturaleza
química de la emulsión de una película, que varían continuamente en los diferentes
aspectos de la imagen. Para procesar o visualizar en el ordenador una señal continua o una
imagen analógica, se debe convertir primero a un formato comprensible para el ordenador o
formato digital. Este proceso se aplica a todas las imágenes, independientemente de su
26
Ibídem.
27
Se llamafotografía microscópicaofotomicrografiaal conjunto de técnicas fotográficas que permiten
obtener esas imágenes con una ampliación mínima de diez veces. Langford, M. (1977).Manual de técnica
fotográfica. Madrid: Hermann Blume ediciones. pp.335, 330.

origen, de su complejidad y de si son en blanco y negro (escala de grises) o a todo color.
Una imagen digital se compone de una matriz rectangular (o cuadrada) de píxeles que
representan una serie de valores de intensidad ordenados en un sistema de coordenadas
(x,y).
Esquema de las relaciones entre la visión por computadora y otras áreas afines.
Detectores de imagen electrónicos
La gama de métodos de detección de luz y la amplia variedad de dispositivos de imagen
que están disponibles actualmente para el microscopistahacen que su selección sea difícil y
a menudo confusa. Con este documento se pretende ofrecer ayuda para la comprensión de
conceptos básicos sobre la detección de luz y proporcionar una guía para la selección del
detector electrónico adecuado (CCD
28
osistema de videocámara) con aplicaciones
específicas de microscopía óptica.
28
Uncharge-coupled deviceoCCD(enespañol «dispositivo de carga acoplada») es uncircuito
integradoque contiene un número determinado decondensadoresenlazados o acoplados. Bajo el control de
un circuito interno, cada condensador puede transferir sucarga eléctricaa uno o a varios de los condensadores
que estén a su lado en el circuito impreso. La alternativa digital a los CCD son los
dispositivosCMOS(complementary metal oxide semiconductor)utilizados en algunascámaras digitalesy en

Fundamentos de la producción de imágenes en vídeo
Las imágenes ópticas producidas en el microscopio pueden ser capturadas utilizando ya sea
técnicas de película tradicionales, digitalmente con detectores electrónicos como un
chargecoupled device (CCD) o bien con una cámara de tipo tubo. Las cámaras son a
menudo el recurso más apropiado cuando se deben grabar sucesos dinámicos en tiempo
real.
Introducción a los sensores de imagen CMOS
Los sensores de imagenCMOS
29
se han diseñado con la capacidad para integrar un número
de funciones de procesamiento y control directamente en el circuito integrado del sensor, lo
numerosascámaras web. En la actualidad los CCD son mucho más populares en aplicaciones profesionales y
en cámaras digitales.
Los detectores CCD, al igual que lascélulas fotovoltaicas, se basan en elefecto fotoeléctrico, la conversión
espontánea de luz recibida en corriente eléctrica que ocurre enalgunos materiales. La sensibilidad del detector
CCD depende de laeficiencia cuánticadel chip, la cantidad defotonesque deben incidir sobre cada detector
para producir unacorriente eléctrica. El número deelectronesproducido es proporcional a la cantidad de luz
recibida (a diferencia de la fotografía convencional sobre negativo fotoquímico). Al final de la exposición los
electrones producidos son transferidos de cada detector individual (fotosite) por una variación cíclica de un
potencial eléctrico aplicada sobre bandas de semiconductores horizontales y aislados entre sí por una capa de
SiO2. De este modo, el CCD se lee línea a línea, aunque existen numerosos diseños diferentes de detectores.
Fuente. Charge Coupled device.http://es.wikipedia.org/wiki/CCD_(sensor)
29
Complementary metal-oxide-semiconductoroCMOSes una de lasfamilias lógicasempleadas en la
fabricación decircuitos integrados. Su principal característica consiste en lautilización conjunta
detransistoresde tipo pMOSy tiponMOSconfigurados de tal forma que, en estado de reposo, el consumo de
energía es únicamente el debido a las corrientes parásitas.
En la actualidad, la mayoría de los circuitos integrados que se fabrican utilizan la tecnología CMOS. Esto
incluyemicroprocesadores,memorias,procesadores digitales de señalesy muchos otros tipos de circuitos
integrados digitales cuyo consumo es considerablemente bajo.
En un circuito CMOS, lafunción lógicaa sintetizar se implementa por duplicado mediante dos circuitos: uno
basado exclusivamente en transistores pMOS (circuito de pull-up), y otro basado exclusivamente en
transistores nMOS (circuito de pull-down). El circuito pMOS es empleado para propagar elvalor
binario1(pull-up), y el circuito nMOS para propagar el valor binario0(pull-down). Véase la figura.
Representa una puerta lógica NOT o inversor.
Cuando la entrada es1, el transistor nMOS está en estado de conducción. Al estar su fuente conectadaa
tierra (0), el valor0se propaga al drenador y por lo tanto a la salida de la puerta lógica. El transistor
pMOS, por el contrario, está en estado de no conducción.
Cuando la entrada es0, el transistor pMOS está en estado de conducción. Al estar su fuente conectada a
la alimentación (1), el valor1se propaga al drenador y por lo tanto a la salida de la puerta lógica. El
transistor nMOS, por el contrario, está en estado de no conducción.
Otra de las características importantes de los circuitos CMOS esque sonregenerativos: una señal degradada
que acometa una puerta lógica CMOS se verá restaurada a su valor lógico inicial 0 ó 1, siempre y cuando aún
esté dentro de los márgenes de ruido que el circuito pueda tolerar.
Fuente. Complementary Metal Oxide Semiconductor.http://es.wikipedia.org/wiki/CMOS[On line]
consultado el 19 de julio de 2012.

que se extiende más allá de la tarea fundamental de recopilación de fotones. Estos nuevos
aspectos incluyen generalmente lógica temporal, control de exposición, conversión de
analógico a digital, obturación, balance de blancos, ajuste del aumento y algoritmos de
procesamiento inicial de la imagen. Se están introduciendo sensores de
imagenCMOSeconómicos en el campo de la microscopía óptica en instrumentos para
fines educativos que combinan una calidad óptica aceptable con paquetes de software de
control e imagen fáciles de usar.
Conceptos básicos sobre procesamiento digital dela imagen
El procesamiento digital de la imagen permite una modificación reversible prácticamente
libre de ruido en forma de una matriz de enteros, en vez de las clásicas manipulaciones en
el cuarto oscuro o filtración de voltajes dependientes del tiempo necesarios para las
imágenes analógicas y señales de video. Incluso aunque muchos algoritmos de
procesamiento de imágenes son extremadamente potentes, el usuario medio a menudo
aplica operaciones a imágenes digitales sin tener en cuenta los principios subyacentes tras
dichas manipulaciones. Las imágenes que resultan de una manipulación descuidada están a
menudo distorsionadas en comparación con las que podrían producirse si la potencia y
versatilidad del software de procesamiento digital se utilizaran correctamente.
Estrategias recomendadas para el procesamiento de imágenes digitales
Dependiendo de las condiciones de iluminación, la integridad de la muestra y los métodos
de preparación, las imágenes capturadas con el microscopio óptico pueden requeriruna
cantidad considerable de rehabilitación/reinserción/renovación para conseguir un equilibrio
entre precisión científica y composición estética. Las imágenes digitales que se obtienen
mediante unCCD(charge-coupled device) o unCMOS(complementary metal
oxidesemiconductor) a menudo presentan señales a ruido pobres, iluminación irregular,

impurezas deenfoque, deslumbramiento, cambios en los colores y otros problemas que
distorsionan la calidad global de la imagen.
Deconvolución en microscopía óptica
La deconvolución es una técnica de
procesamiento de imagen computacionalmente
intensiva/reforzadora que se está utilizando
cada vez más para mejorar el contraste y la
resolución de las imágenes digitales capturadas
con el microscopio. Se basa en un juego de
métodos diseñados para eliminar las
imprecisiones presentes en las imágenes
producidas por la abertura limitada del
objetivo. Prácticamente cualquier imagen
obtenida con un microscopio digital
fluorescente se puede deconvolver y se están
desarrollando varias aplicaciones nuevas que
utilizan técnicas de deconvolución para
imágenes transmitidas de luz compuestas
mediante varias estrategias de procesamiento
de contraste. Uno de los campos qué más
puede beneficiarse de la deconvolución es el
de montajes en tres dimensiones a partir de
secciones ópticas.
Para finalizar, el concepto de IA es aún difuso. “Contextualizando, y teniendo en cuenta un
punto de vista científico, podríamos englobar a esta ciencia como la encargada de imitar
una persona, y no su cuerpo,sino imitar alcerebro, en todas sus funciones, existentes en el
humano o inventadas sobre el desarrollo de unamáquinainteligente.
A veces, aplicando la definición de Inteligencia Artificial, se piensa en máquinas
inteligentes sinsentimientos, que «obstaculizan» encontrar la mejor solución a un problema
dado. Muchos pensamos en dispositivos artificiales capaces de concluir miles depremisasa
partir de otraspremisas dadas, sin que ningún tipo de emoción tenga la opción de
obstaculizar dicha labor.
Enesta línea, hay que saber que ya existen sistemas inteligentes. Capaces detomar
decisiones«acertadas».
Aunque, por el momento, la mayoría de los investigadores en el ámbito de la Inteligencia
Artificial se centran sólo en el aspecto racional, muchos deellos consideran seriamente la
posibilidad de incorporar componentes «emotivos» comoindicadores de estado, a fin de
aumentar la eficacia de los sistemas inteligentes.

Particularmente para los robots móviles, es necesario que cuenten con algo similar a las
emociones con el objeto de saber–en cada instante y como mínimo–qué hacer a
continuación [Pinker, 2001, p. 481].
Al tener «sentimientos» y, al menos potencialmente, «motivaciones», podrán actuar de
acuerdo con sus «intenciones» [Mazlish, 1995, p. 318]. Así, se podría equipar a un robot
con dispositivos que controlen su medio interno; por ejemplo, que «sientan hambre» al
detectar que su nivel de energía está descendiendo o que «sientan miedo» cuando aquel esté
demasiado bajo.
Esta señal podría interrumpir los procesos de alto nivel y obligar al robot a conseguir el
preciado elemento [Johnson-Laird, 1993, p. 359]. Incluso se podría introducir el «dolor» o
el «sufrimiento físico», a fin de evitar las torpezas de funcionamiento como, por ejemplo,
introducir la mano dentro de una cadena de engranajes o saltar desde una cierta altura, lo
cual le provocaría daños irreparables.
Esto significa que los sistemas inteligentes deben ser dotados con mecanismos
deretroalimentaciónque les permitan tener conocimiento de estados internos, igual que
sucede con los humanos que disponen de propiocepción,
30
interocepción,
31
nocicepción,
32
etcétera. Esto es fundamental tanto para tomar decisiones como para conservar su propia
integridad y seguridad. La retroalimentación en sistemas está particularmente desarrollada
encibernética, por ejemplo en el cambio de dirección y velocidad autónomo de un misil,
utilizando como parámetro la posición en cada instante en relación al objetivo que debe
alcanzar. Esto debe ser diferenciado del conocimiento que un sistema o programa
computacional puede tener de sus estados internos, por ejemplo la cantidad de ciclos
cumplidos en un loop o bucle en sentencias tipodo... for, o la cantidad de memoria
disponible para una operación determinada.
30
Lapropiocepciónes elsentidoque informa al organismo de la posición de los músculos, es la capacidad
de sentir la posición relativa de partes corporales contiguas. La propiocepción regula la dirección y rango de
movimiento, permite reacciones y respuestas automáticas, interviene en el desarrollo del esquema corporal y
en la relación de éste con el espacio, sustentando la acción motora planificada. Otras funciones en las que
actúa con más autonomía son el control del equilibrio, la coordinación de ambos lados del cuerpo, el
mantenimiento del nivel de alerta del sistema nervioso central y la influencia en el desarrollo emocional y del
comportamiento.
31
Lasfunciones interoceptivashacen referencia a aquellosestímuloso sensaciones que provienen de
losórganosinternos delcuerpo humano, como las vísceras, y que nos dan información acerca de las mismas
(por ejemplo,dolordeestómago).
32
Lanocicepción(también conocida comonociocepciónonocipercepción) es el proceso neuronal mediante
el que se codifican y procesan los estímulospotencialmente dañinos para los tejidos."Se trata de la
actividadaferenteproducida en elsistema nerviosoperiférico y central por los estímulos que tienen potencial
para dañar los tejidos.
23
Esta actividad es iniciada por los nociceptores, (también llamadosreceptores del
dolor), que pueden detectar cambios térmicos, mecánicos o químicos porencima del umbral del sistema. Una
vez estimulado, un nociceptor transmite una señal a través de lamédula espinalalcerebro.Loeser JD, Treede
RD. (2008). «The Kyoto protocol of IASP Basic Pain Terminology.».Pain137(3):pp.473-7.

Alos sistemas inteligentes el no tener en cuenta elementos emocionales les permite no
olvidar la meta que deben alcanzar. En los humanos el olvido de la meta o el abandonar las
metas por perturbaciones emocionales es un problema que en algunos casos llegaa ser
incapacitante. Los sistemas inteligentes, al combinar una memoria durable, una asignación
de metas omotivación, junto a la toma de decisiones y asignación de prioridades con base
en estados actuales y estados meta, logran un comportamiento en extremo eficiente,
especialmente ante problemas complejos y peligrosos.
En síntesis, lo racional y lo emocional están de tal manera interrelacionados entre sí, que se
podría decir que no sólo no son aspectos contradictorios sino que son–hasta cierto punto–
complementarios.”
33
Cabe recordar que nos ha llevado millones de años de evolución el darnos cuenta de la
formidable máquina que es nuestro cerebro.
Trabajo
1.Estudiar lo leído para su posterior evaluación
2.Realizar un estudio sobre la robóticadesde su historia hastasu relación con la
IA.
3.Tipos de robots[descripción, morfología y aplicaciones]
4.Geometría y modelos matemáticos de movimiento de un robot.
Referencias
Cobo O. Ángel.Inteligencia artificial: modelos matemáticos que imitan a la
naturaleza. 2001.Universidad nacional de educación a distancia. Centro asociado de
Cantabria.
Fox and Hayes quoted in Nilsson, Nils (1998), Artificial Intelligence: A New
Synthesis, p581 Morgan Kaufmann Publishers, ISBN 978-1-55860-467-4
Jaap Bloem, Menno van Doorn, Sander Duivestein,Me the media: rise of the
conversation society, VINT research Institute of Sogeti, 2009, p.273.
Joy, bill (2003) "Porque el futuro no nos necesita" Wired(en inglés)
Jung, Sung Young, "A Topographical Development Method of Neural Networksfor
Artificial Brain Evolution", Artificial Life, The MIT Press, vol. 11, issue 3-
summer, 2005, pp. 293-316.
Langford, M. (1977).Manual de técnica fotográfica. Madrid: Hermann Blume
ediciones. pp.335, 330.
Levy, pierre(2003) "Inteligencia colectiva, por una antropología del ciberespacio"
BVS/Ciencia y Salud.
Madruga González, Alejandro (2008) "Inteligencia artificial y el futuro humano (1)"
Boletín DIGITendencias No 23.
33
Fuente. Inteligencia artificial.http://es.wikipedia.org/wiki/Inteligencia_artificial[On line] Consultado el 19
de julio de 2012.

Madruga González, Alejandro (2008) "Nos acercamosa la fusión entre humanos y
máquinas" Eciencia.
Madruga González,Alejandro (2011) "La singularidad de Vinge" Blog Inteligencia
Artificial.
Raymond Kurzweil.La era de las máquinas espirituales. 1999.
Roger Penrose.La nueva mente del emperador. Barcelona: Grijalbo Mondadori.
1991. Página 42
Vernor, vinge (2002) "Singularidad tecnológica" Premio UPC de ciencia ficción
Weizenbaum, joseph (1978), "La frontera entre el ordenador y la mente". Ediciones
Pirámide, S.A. Madrid.