El
término Complejidad Especificada
tiene más de treinta años. Según mi conocimiento, Leslie Orgel, conocido por
sus investigaciones sobre el origen de la vida, fue el primero en usarlo. La
expresión apareció en su libro The
Origins of Life, publicado en 1973, en donde él escribió, “Los organismos
vivientes se distinguen por su complejidad especificada. Los cristales como el
granito no califican como vivientes debido a su carencia de complejidad; mezclas
azarosas de polímeros tampoco califican, por su carencia de especificidad”. Más
recientemente, en su libro The Fifth
Miracle, publicado en 1999, Paul Davies identifica a la complejidad
especificada como la clave para resolver el problema del origen de la vida:
“Los organismos vivientes son misteriosos no por su complejidad per se, sino por su ajustada complejidad especificada. Para entender bien cómo la vida surgió de lo inanimado, no solo precisamos saber cómo es que llegó a concentrarse la información biológica, sino también como la información biológicamente útil vino a ser especificada”.
Sin
embargo, ni Orgel ni Davies nos han aportado un cálculo analítico de la
complejidad especificada. He provisto tal cálculo en The Design Inference (1998) y su continuación, No Free Lunch (2002). Aquí meramente lo tocaré de modo superficial.
Orgel y Davies usaron el término complejidad
especificada vagamente. En mi propia investigación lo he formalizado como
un criterio estadístico para identificar los efectos de la inteligencia. La
complejidad especificada, como lo desarrollo aquí, incorpora cinco ingredientes
principales:
·
Una
versión probabilística de la complejidad, aplicable a los eventos.
·
Patrones
condicionalmente independientes.
·
Recursos
probabilísticos, los cuales vienen en dos formas: replicacionales y especificacionales.
·
Una
versión descriptiva de la complejidad, aplicable a los patrones.
·
Un
límite probabilístico universal.
Echemos
un breve vistazo.
Complejidad Probabilística. Se puede ver a la probabilidad como una
forma de complejidad. A fin de entender esto, considere una cerradura con
combinación. Cuando mayor sea la cantidad de combinaciones posibles de la
cerradura, más complejo será el mecanismo y, consecuentemente, mayor la
improbabilidad de que el mecanismo sea abierto por azar. Por ejemplo, una
cerradura con combinación cuyo dial se encuentra numerado del cero al
treintainueve y que debe ser girada en tres direcciones alternativas tendrá
64,000 (es decir, 40 x 40 x 40) combinaciones posibles. Este número ofrece una
medida de la complejidad para la cerradura con combinación, lo que también
corresponde a 1 en 64,000 de probabilidad de que la cerradura sea abierta por
azar (asumiendo que no se tiene ningún conocimiento previo de la combinación
correcta). Una cerradura con combinación más compleja cuyo dial se encuentra
numerado desde el cero al noventainueve y que debe ser girada en cinco
direcciones alternativas tendrá 10,000,000,000 (es decir, 100 x 100 x 100 x 100
x 100) combinaciones posibles y por lo tanto 1 en 10,000,000,000 de
probabilidad de ser abierta por azar. Por consiguiente, la complejidad y la
probabilidad varían inversamente: cuanto mayor la complejidad, menor la
probabilidad. La complejidad en complejidad especificada se refiere a la
improbabilidad.
Patrones condicionalmente independientes. Los patrones que en presencia de
complejidad o improbabilidad implican a una inteligencia diseñadora deben ser
independientes del evento cuyo diseño está en cuestión. Es crucial aquí que los
patrones no sean impuestos artificialmente sobre los eventos luego del hecho.
Por ejemplo, si un arquero dispara flechas a un muro y luego pintamos blancos
alrededor de las flechas de tal manera que estas queden clavadas en el círculo
central, estamos imponiendo un patrón después del hecho. Cualquier patrón como
este no es independiente de la trayectoria de la flecha. Por otro lado, si los blancos
son colocados por adelantado (“especificados”) y luego el arquero les dispara
con precisión, sabemos que no fue por azar sino más bien por diseño
(apercibidos, por supuesto, de que dar en el blanco es lo suficientemente
improbable). La forma de caracterizar esta independencia de patrones es a
través de una noción probabilística de la independencia condicional. Un patrón
es condicionalmente independiente de un evento si al sumar nuestro conocimiento
del patrón a una hipótesis de azar no se altera la probabilidad del evento bajo
esta hipótesis. Lo especificado de complejidad especificada hace referencia
a tales patrones condicionalmente independientes. Estos son las
especificaciones.
Recursos probabilísticos. Los recursos probabilísticos hacen
referencia al número de oportunidades factibles que tiene un evento de ocurrir
o ser especificado. Un evento aparentemente improbable puede convertirse en uno
absolutamente probable una vez que se factorean los suficientes recursos
probabilísticos. Por otro lado, tal evento puede permanecer improbable aún
luego de que todos los recursos probabilísticos disponibles hayan sido
factoreados. Piense en intentar repartirse a usted mismo una escalera flor (una
mano de póker con el As, Rey, Reina, Jota y 10, todos del mismo palo).
Dependiendo de cuantas manos pueda repartir, tal suceso, el cual es por sí
mismo absolutamente improbable, puede permanecer improbable o volverse
absolutamente probable. Si usted solo puede repartirse unas pocas decenas de
manos, entonces con toda probabilidad usted no verá una escalera flor. Pero si
puede repartirse a si mismo millones de manos, entonces será probable que la
reúna.
Los
recursos probabilísticos vienen en dos variedades: replicacionales y
especificacionales. Los recursos replicacionales hacen referencia al número de
oportunidades de ocurrencia de un evento. A fin de entender en que se encuentran
basados estos dos tipos de recursos probabilísticos, imagine un gran muro con N blancos pintados, de igual medida y
que no se encuentren superpuestos, y M
flechas en su aljaba. Digamos que su probabilidad de darle por azar a
cualquiera de estos blancos, tomados individualmente, con una única flecha es p. Entonces la probabilidad de acertar
por azar a cualquiera de esos N
blancos, tomados colectivamente, con una única flecha queda restringida por Np (es decir, N y p multiplicados); y la probabilidad de ensartar por azar a
cualquiera de esos N blancos con al
menos una de sus M flechas es
limitada por MNp (es decir, M, N
y p multiplicados); En este caso, el
numero de recursos replicacionales corresponde a M (el número de flechas en su aljaba), y el número total de
recursos probabilísticos corresponden al producto MN. Para un evento especificado de probabilidad p sea razonablemente atribuible al azar,
el numero MNp no debe ser pequeño.
Complejidad Descriptiva. Por el hecho
de ser patrones, las especificaciones exhiben varios niveles de complejidad. El
grado de complejidad de una especificación determinará cuantos recursos
especificacionales deberán ser factoreados cuando el indicador del nivel de
improbabilidad requerido excluya al azar (vea el punto anterior). Cuanto más
complejo sea el patrón, más recursos especificacionales deberán ser
factoreados. Los detalles son técnicos e implican una generalización de lo que
los matemáticos denominan la complejidad
de Kolmogorov. No obstante, la intuición básica es simple. El bajo nivel de
complejidad descriptiva es importante a la hora de detectar diseño ya que asegura
que el evento cuyo diseño está en cuestión no fue descripto después del hecho y
luego disfrazado, sino que ha sido descripto antes del hecho.
A
fin de entender en que se basa esto, considere las dos secuencias siguientes
resultantes de echar suerte con una moneda diez veces seguidas: CCCCCCCCCC y
CCSCSSSCSC. ¿A cuál de estas dos estará más inclinado atribuir al azar? Ambas
secuencias presentan la misma probabilidad, aproximadamente 1 en 1,000. No
obstante, el patrón que especifica la primera secuencia es mucho más simple que
el segundo. Para la primera secuencia el patrón puede ser especificado con la
simple declaración “diez caras en una tanda”. Por otra parte, especificar el
patrón de la segunda secuencia requiere una declaración relativamente larga,
por ejemplo, “dos caras, luego seca, luego cara, luego seca tres veces, luego
cara seguida de secas y caras”. Pienso a la complejidad descriptiva como una
descripción de longitud mínima.
Para
que algo exhiba complejidad especificada debe tener baja complejidad
descriptiva (como la secuencia CCCCCCCCCC, que consiste de diez caras en una
tanda) y alta complejidad probabilística (es decir, que la probabilidad sea muy
baja). Es la combinación de baja complejidad descriptiva (un patrón fácil de
describir en un orden relativamente corto) con elevada complejidad
probabilística (algo altamente improbable) lo que hace a la complejidad
especificada un triangulador efectivo de inteligencia. Pero la importancia de
la complejidad especificada no concluye aquí.
Además
de su lugar crucial dentro de la inferencia del diseño, la complejidad
especificada también ha estado implícita en gran parte de la literatura de la
auto-organización, un campo que estudia cómo los sistemas complejos emergen a
partir de la estructura y la dinámica de sus partes. Debido a que la
complejidad especificada hace un balance de baja complejidad descriptiva junto
con una alta complejidad probabilística, la complejidad especificada se sitúa
en la frontera entre el orden y el caos, que comúnmente es referida como el
“límite del caos”. El problema con el puro orden (baja complejidad descriptiva)
es que es predecible y poco interesante. Aquí un ejemplo sería un cristal que
se dispone repitiendo el mismo patrón simple desde el comienzo hasta el final.
El problema con el puro caos (alta complejidad probabilística) es que es
desordenado y carente de interés. (Ningún patrón significativo emerge del puro
caos. Aquí un ejemplo lo da la disposición de los escombros esparcidos por un
tornado o una avalancha). Más bien, es justo en el límite del caos en donde las
cosas interesantes suceden. Este es el lugar en donde se encuentra ubicada la
complejidad especificada.
Limite probabilístico universal. En el universo
observable, los recursos probabilísticos son limitados. Los científicos estiman
que, dentro del universo físico conocido, existen alrededor de 1080
partículas elementales. Además, las propiedades de la materia son tales que las
transiciones desde un estado físico a otro no pueden ocurrir en una tasa más
rápida que 1045 veces por segundo. Esta frecuencia corresponde al tiempo
de Planck, el cual constituye la unidad física de tiempo más pequeña.
Finalmente, el universo en si mismo tiene una edad aproximada de 1025
segundos (asumiendo que el universo tiene entre 10 y 20 mil millones de años).
Por consiguiente, si asumimos que cualquier especificación de un evento dentro
del universo físico conocido requiere por lo menos una partícula elemental y
que tales especificaciones no se generan más rápido que el tiempo de planck, entonces
las constantes cosmológicas implican que el número total de eventos
especificados a lo largo de la historia cósmica no exceden 1080 x 1045
x 1025 = 10150. Como consecuencia, cualquier evento especificado
de probabilidad menor a 1 en 10150 quedará improbable, aun después
de que todos los recursos probabilísticos concebibles del universo hayan sido
factoredos. Por consiguiente, una probabilidad de 1 en 10150 representa
el límite probabilístico universal. (Por
detalles que justifican este límite probabilístico universal, vea mi libro The Design Inference). Un límite
probabilístico universal es impenetrable a cualquier cantidad de recursos
probabilísticos que se coloquen contra este. En efecto, todos los recursos
probabilísticos del universo físico conocido no pueden conspirar entre sí para
dejar como probable un evento cuya probabilidad es menor que este límite
probabilístico universal.
El
limite probabilístico universal de 1 en 10150 es el más conservador
dentro de la literatura. El matemático francés Emile Borel propuso 1 en 1050
como limite probabilístico universal, bajo el cual el azar puede ser excluido
definitivamente. (Esto es, cualquier evento especificado de tal manera
improbable que no pueda ser atribuido al azar). Los criptógrafos determinan la
seguridad de los criptosistemas en términos de cualquier ataque que emplee
todos los recursos probabilísticos que estén disponibles en el universo a fin
de sabotear al criptosistema por azar. En su informe sobre el rol de la
criptografía en proveer seguridad a la información, el National Research Council dejó en 1 en 1094 su límite
probabilístico universal, a fin de garantizar la seguridad de los
criptosistemas contra cualquier ataque basado en el azar. (Vea el libro Cryptography´s
Role in Securing the Information Society, de Kenneth Dam y Herbert Lin). El cientifico informático
Seth Lloyd dejo en 10120 como el máximo número de operaciones bit
que el universo podría haber realizado a lo largo de toda su historia (Physical Review, 10 de junio de 2002).
Este número corresponde a un límite probabilístico universal de 1 en 10120.
Stuart Kauffman en su libro más reciente, Investigations
(2000), llega a numeros similares.
Para
que algo exhiba complejidad especificada debe, por consiguiente, coincidir con
un patrón condicionalmente independiente (es decir, una especificación) de baja
complejidad descriptiva, y en donde el evento que corresponde a este patrón
presenta una probabilidad de ocurrencia menor al límite probabilístico universal
—y por lo tanto exhibe complejidad probabilística elevada. La complejidad
especificada es extensamente usada como un criterio para detectar diseño. Por
ejemplo, cuando los investigadores del SETI (Búsqueda de Inteligencia
Extraterrestre) buscan señales de inteligencia provenientes del espacio
exterior, ellos buscan complejidad especificada. (Recuerde la película Contact en la cual el SETI detecta un
patrón inteligente en una señal captada desde el espacio exterior, en donde se
observa una secuencia larga de números primos. Tal secuencia muestra
complejidad especificada.)
Autor: William Dembski -Tiene
un Ph.D. en filosofía (Universidad de Illions en Chicago) y un Ph.D. en
matematica (Universidad de Chicago). Es uno
de los principales teóricos del Diseño Inteligente y ha escrito varios libros
sobre la temática. Es autor del primer libro del Diseño Inteligente
publicado por una editorial universitaria renombrada: The Design
Inference: Elimitating Chance Through Small Probabilities. (Cambridge
University Press, 1998). Es investigador del Discovery Institute.
Traductor: Daniel Alonso - Estudia
Licenciatura en Ciencias Biológicas en la UNT, Argentina.
Fuente: Dembski, W. (2004) The
Design Revolution: Answering The Toughest Questions About Intelligent Design,
IVP Books, p. 81-86.
No hay comentarios :
Publicar un comentario