La definición de información
El NCSE
define a “información” como se definiría a la "información de
Shannon," lo que significa mera complejidad. En el marco de tal
definición, un tramo ilegible y sin función de ADN podría tener la
misma cantidad de "información" que un gen totalmente funcional con
la misma longitud de secuencia. Por ejemplo, siguiendo la teoría de información
de Shannon, que según el NCSE es "el sentido que los teóricos de la
información le dan a ‘información’", las dos secuencias siguientes
tendrían cantidades idénticas de información:
Secuencia A: LAINFORMACIONDESHANONESUNAMEDIDADEINFORMACIONBIOLOGICA
Secuencia
B: HGIAAEJIJUCCCUDKGDIUENVCDLIFNNENHFLDKDNFNUNSMDINKJEEMN
Tanto la secuencia
A como la B se componen de 54 caracteres, y cada una tiene exactamente la misma
cantidad de información de Shannon —aproximadamente 254 bits [1]. Sin embargo
solo la secuencia A transmite información funcional, mientras que la B fue
producida por un generador de caracteres al azar. [2] Por razones obvias, la
complejidad Shannon ha sido criticada durante mucho tiempo por ser una medida
inapropiada de información biológica funcional. Después de todo, la información
biológica esta precisamente afinada para realizar una función biológica
específica, razón por la que no puede consistir en una secuencia aleatoria. Una
medición adecuada de la información biológica debe tener en cuenta la función
de la información, y la información de Shannon no tiene en cuenta la función.
Algunos
expertos en el tema reconocen este punto. En 2003, el Premio Nobel Jack Szostak,
quien investiga el origen de la vida, escribía en un review en Nature que el
problema con la "teoría de la información clásica" es que "no
considera el significado de un mensaje" y en lugar de ello define la información
"como simplemente una secuencia necesaria de especificar, almacenar o
transmitir" [3]. Según Szostak, "se requiere una nueva medida de la
información —información funcional— "a fin de darle relevancia a la capacidad
que tiene la secuencia de una proteína determinada de realizar una función
determinada. Del mismo modo se observa en un paper en la revista Theoretical
Biology and Medical Modelling:
Ni la RSC [Complejidad de una Secuencia generada Aleatoriamente] ni la OSC [Complejidad de una Secuencia generada de forma Ordenada], o cualquier combinación de los dos, es suficiente para describir la complejidad funcional observada en los organismos vivos, porque no incluye la dimensión adicional de funcionalidad, que es esencial para vida. La FSC [Complejidad de una Secuencia Funcional] incluye la dimensión de funcionalidad. Szostac arguye que ni la medida de la incertidumbre de Shannon ni la medida de la complejidad algorítmica son suficientes. La teória clásica de Shannon sobre la información no considera el significado, o función, de un mensaje. La complejidad algorítmica no tiene en cuenta la observación de que "diferentes estructuras moleculares pueden ser funcionalmente equivalentes." Por esta razón, Szostak sugiere que se requiere una nueva medida de la información —información funcional. [4]
En 2007 Szostak publicó un Paper de PNAS junto a Robert Hazen y otros
científicos promoviendo ese tipo de argumentos. Manifestaron su desacuerdo con
los que insisten en la medición de la complejidad biológica utilizando las
herramientas anticuadas de la teoría de Shannon: "Una medida de
complejidad es de poca utilidad a menos que su marco conceptual y poder
predictivo traigan como resultado un conocimiento más profundo del
comportamiento de los sistemas complejos." Así que ellos proponen
"medir la complejidad de un sistema en términos de información funcional,
que es la información necesaria para codificar una función específica." [5]
El coautor de Explore Evolution (EE),
Stephen C. Meyer, sigue el mismo enfoque, y escribe en un artículo el término
“’información compleja y especificada’(CSI) como un sinónimo de ‘complejidad
especificada’, a fin de ayudar a distinguir a la información biológica
funcional de la mera información de Shannon —es decir, complejidad especificada
de la mera complejidad” [6]. Esta definición propuesta por Meyer de
"complejidad especificada" es útil para describir a la información
biológica funcional. La complejidad especificada es un concepto derivado de la
literatura científica y no un invento de los críticos del neo-Darwinismo. En
1973, Leslie Orgel, un científico que se avocó al estudio del origen de la
vida, definió a la complejidad especificada como la marca de la complejidad biológica:
De esta manera, Orgel rescata el hecho de que la complejidad especificada, o CSI, requiere de una secuencia improbable y un ordenamiento especificado. La complejidad especificada es una medida más excelente de la complejidad biológica que la información de Shannon, un punto que el NSCE resiste a aceptar, ya que por medio de procesos darwinianos es mucho más difícil generar complejidad especificada que complejidad Shannon.
Los organismos vivientes se distinguen por su complejidad especificada. Los cristales como el granito no califican como vivientes debido a su carencia de complejidad; mezclas azarosas de polímeros tampoco califican, por su falta de especificidad [7]
De esta manera, Orgel rescata el hecho de que la complejidad especificada, o CSI, requiere de una secuencia improbable y un ordenamiento especificado. La complejidad especificada es una medida más excelente de la complejidad biológica que la información de Shannon, un punto que el NSCE resiste a aceptar, ya que por medio de procesos darwinianos es mucho más difícil generar complejidad especificada que complejidad Shannon.
Al plantear que la información de Shannon es el único “sentido que los teóricos de la
información le dan a ‘información’, el NSCE evade las cuestiones más difíciles
como la forma en que la información se vuelve funcional en los sistemas
biológicos, o según sus propias palabras, "útil". En lugar de ello,
el NCSE parece más interesado en abordar cuestiones triviales simplistas como
la forma en que se podría añadir caracteres adicionales en una secuencia, o
duplicar una secuencia, sin tener en cuenta la pregunta más importante: si esos
caracteres adicionales transmiten un mensaje funcional novedoso. Como la
biología está constituida en sus bases por información funcional, Explore Evolution le da relevancia a lo
más importante: ¿Explica realmente el neo-Darwinismo cómo es que emerge la información
biológica novedosa?
La analogía del lenguaje de
computadora
Mas que
CSI o FSC, Explore Evolution define a
la información biológica comparándola a un código funcional de computadora:
Una buena parte de la información que se necesita para construir un organismo (con sus rasgos variados) es almacenada en la molécula de ADN. Algunos científicos se refieren a esta información como “instructivo de montaje” o “programa genético”. Al igual que un programa de computadora, el ADN contiene el equivalente biológico de líneas de código de computadora. El zoólogo evolucionista Richard Dawkins afirma, “La maquinaria codificadora de los genes es, de forma misteriosa, similar a una computadora”. (Explore Evolution, p. 94)
Esta presentación que hace Explore
Evolution de la información biológica como “el equivalente biológico de
líneas de código de computadora” no solo es adecuada, sino que parece
enteramente apropiada para impartirles a los estudiantes una visión de la
naturaleza de la información biológica funcional. Muchas autoridades en la
cuestión han comparado la información biológica con un código de computadora,
particularmente en lo que respecta al hecho de que la información biológica
cambiante requiere la adición de nuevas líneas de código funcional y
componentes del programa que interactúen apropiadamente. No solo Richard
Dawkins hace la comparación entre el ADN y las computadoras o lenguajes
codificados, sino que existen una cantidad de autoridades científicas que han
hecho lo mismo en publicaciones revisadas.
Hubert
Yockey escribe en Journal of Theoretical
Biology que la comparación entre la información biológica que tiene una
secuencia específica y el lenguaje de computadora no es solo una mera analogía;
tanto el ADN como el lenguaje informático son “matemáticamente idénticos”:
[La conservación de los fenómenos bioquímicos a lo largo de la vida] y la universalidad del código genético le hacen creer a uno que la vida en la tierra ha tenido un comienzo y un programa básico de mensajes genéticos (usando una analogía informática) originados a fin de traer a la existencia algún organismo primitivo, denominado, el protobionte. La unidad bioquímica de este programa básico ha sido retenida a lo largo de la evolución, en algunos casos con una ligera modificación en el que se han agregado algunos subprogramas nuevos. […] En el trabajo siguiente hemos recurrido a ilustrar nuestros puntos referenciando por las propiedades del lenguaje. Es importante entender que no estamos razonando a través de una analogía. La hipótesis de la secuencia puede ser aplicada directamente a las proteínas y al texto genético como también al lenguaje escrito, de allí que son matemáticamente idénticos. […] Las “propiedades de los aminoácidos”, los cuales producen las primeras biomoléculas de información, meramente jugarían un rol de gramática, o de reglas de ortografía, etc. en un lenguaje ordinario. La gramática y la ortografía son autónomas e independientes del significado, por lo que es claro que es imposible que el genoma del protobionte haya surgido de una “sopa primitiva” de esta forma [un escenario de autoorganización] [8]
En una
publicación en la revista Acta
Biotheoretica el biólogo Richard Sternberg ofrece una extensa y detallada
comparación entre la capacidad celular de procesar información y la
computación. Stemberg hace la observación de que el código genético es similar
a un código informático que contiene la siguientes propiedades: “Redundancia, capacidad
de resaltar errores, flexibilidad semántica y simbólica, rendimiento versátil, múltiple
practicidad, y edición de texto” [9]. Continúa Sternberg:
El uso más común que se le da al término código es uno muy consonante con la noción de un “programa genético” —el lenguaje de la programación informática es similar en el sentido de que los datos y las instrucciones también se encuentran incorporados al mismo. Con frecuencia se dice que las ORFs constituyen el texto simbólico para los productos génicos y las interacciones de los últimos, y en este sentido nos referimos al genoma como un software. [10]
Asimismo,
un paper de Cell Biology International
sugiere que estudiar genes es como estudiar computadoras:
Los genes y las redes emergentes de genes representan la programación. Estos algoritmos se encuentran ya escritos en un sistema operador y ambiente preexistentes. Al igual que en la ciencia de la computación, este lenguaje es usado por el programador. No solo debemos encontrar modelos que respondan a programaciones genéticas específicas, sino que también debemos encontrar aquel que responda para el sistema operador genético. […] La complejidad algorítmica de la vida pone a nuestras mejores computadoras en ridículo. [11]
En la
revista Chaos, Solitons and Fractals otro
biólogo escribe que, “Las funciones biológicas y los sistemas de señal
recuerdan a la complejidad de los programas de computadora” [12]. Nos damos
cuenta que el NSCE está injustificado en su afirmación de que Explore Evolution hace “una analogía forzada”, al tomar conocimiento
del pensamiento de autoridades como Dawkins, y de aquellos artículos que
comparan al funcionamiento del código genético con las computadoras.
Según el
NCSE:
En la teoría de la información, cualquier sonido al azar aumenta de manera real la cantidad de información que está siendo transmitida. Si esa información es útil o no para el oyente es una cuestión aparte. A menudo tenemos mucha expectación con respecto a la información que está siendo transmitida a través de una línea telefónica, tal que un simple estancamiento de la línea reduciría la cantidad de información que esperamos recibir.
El
comentario de arriba cierra perfectamente con la definición estándar de información
de Shannon, no obstante el NCSE está errado al sugerir que este es el único modo de definir información. Por
otro lado, esta cita del NCSE también revela un punto muy importante: que tal
definición de información no es buena a la hora de determinar “si esa
información es útil”.
Definición de información nueva o novedosa
El NCSE estaría
más inclinado a definir “información nueva” como el mero copiado o duplicado de
una porción pre-existente de ADN, incluso si esta nueva copia no consiste
realmente de algo nuevo, o tal vez
incluso cuando el ADN nuevo no realice ningún trabajo. En contraste, los
proponentes del diseño inteligente definirían “información nueva” como una
porción nueva de ADN que realiza realmente alguna función nueva, útil y
diferente. Por ejemplo, considérese la siguiente secuencia:
DUPLICARESTACADENANOPRODUCEINOFMACIONNUEVA
Esta
secuencia contiene 42 caracteres ó 197 bits de información de Shannon. Ahora
considérese la longitud de la secuencia siguiente:
DUPLICARESTACADENANOPRODUCEINOFMACIONNUEVADUPLICARESTACADENANOPRODUCEINOFMACIONNUEVA
Este
procedimiento consistió solo en la adición de 42 caracteres “nuevos”, pero no
se produjo información novedosa. Asumiendo que no existió forma de predecir con
anticipación de que la primera secuencia sería duplicada como lo fue, la
cantidad de información de Shannon ha sido duplicada, pero la cantidad de CSI
no ha incrementado ni un solo bit (literalmente).
El ejemplo
de arriba es obviamente análogo al mecanismo evolutivo de la duplicación
génica, el cual los evolucionistas citan comúnmente como mecanismo por el que
los procesos Darwinianos pueden producir información nueva. Pero la información
nueva no se genera por un proceso de duplicación hasta que las mutaciones
cambien al gen lo suficiente como para generar una función nueva. Haciendo
referencia a esto, Michael Egnor, profesor de neurocirugía, le respondía a un
biólogo evolucionista:
La duplicación génica no se presta a ser tomada seriamente. Si usted considera a una copia como un ejemplo de información nueva, estaría fomentando el plagio en sus clases. Todo lo que sus estudiantes malandrines tendrían que decir es ‘esto es similar a la duplicación génica. El plagio es información nueva’ — ¡eso es lo que usted afirma en su blog’! [13]
En efecto,
las explicaciones evolucionistas no pueden simplemente basarse en la
duplicación; debe existir duplicación seguida de reclutamiento de funciones
nuevas. Meramente duplicar una secuencia no produce información funcional
nueva. [14]
Esta es la primera sección de una serie sobre la evolución de los genes, escrita por Casey Luskin. Para continuar con la parte 2, haz Click Aqui.
Esta es la primera sección de una serie sobre la evolución de los genes, escrita por Casey Luskin. Para continuar con la parte 2, haz Click Aqui.
Autor: Casey Luskin. Es abogado, con estudios de postgrado en ciencia y leyes. Obtuvo su B.S. y M.S. en Ciencias de la Tierra de la Universidad de California en San Diego. Su Licenciatura en Derecho la obtuvo en la misma universidad. Trabaja en el Discovery Institute como Coordinador del Center for Science and Culture. Anteriormente, realizó una investigación geológica en la Scripps Institution for Oceanography (1997-2002).
Traducción: Daniel Alonso. Estudia Licenciatura Ciencias Biológicas en UNT (Universidad Nacional de Tucumán), Argentina.
REFERENCIAS:
[1] Para este cálculo se han considerado las 26 letras del alfabeto inglés,
y como se ve en la secuencia, no se tienen en cuenta los espacios.
[2] La secuencia B ha sido producida a través de un generador de
caracteres aleatorios que puede encontrarse en la página Random.org.
[3] Jack W. Szostak, "Molecular messages," Nature,
Vol. 423:689 (June 12, 2003).
[4] Kirk K. Durston, David K. Y. Chiu, David L. Abel, Jack T. Trevors,
"Measuring the functional sequence complexity of proteins," Theoretical
Biology and Medical Modelling, Vol. 4:47 (2007) (las referencias internas
han sido removidas).
[5] Robert M. Hazen, Patrick L. Griffin, James M. Carothers, y Jack W.
Szostak, "Functional information and the emergence of
biocomplexity," Proceedings of the National Academy of Sciences,
USA, Vol. 104:8574--8581 (May 15, 2007).
[6] Stephen C. Meyer, "The origin of biological information and
the higher taxonomic categories," Proceedings of the Biological Society
of Washington, Vol. 117(2):213-239 (2004).
[7] Leslie E. Orgel, The Origins of Life: Molecules and
Natural Selection, pg. 189 (Chapman & Hall: London, 1973).
[8] Hubert P. Yockey,
"Self Organization Origin of Life Scenarios and Information Theory," Journal
of Theoretical Biology, Vol. 91:13-31 (1981).
[9] Richard Sternberg, "DNA Codes and Information: Formal
Structures and Relational Causes,"Acta Biotheoretica, Vol.
56(3):205-32 (Septiembre, 2008).
[10] Id.
[11] Jack T. Trevors and David L. Abel, "Chance and necessity do
not explain the origin of life," Cell Biology International,
Vol. 28: 729-739 (2004).
[12] Øyvind Albert Voie, "Biological function and the genetic
code are interdependent," Chaos, Solitons and Fractals, Vol.
28(4): 1000-1004 (2006).
[13] Comentario de Michael Egnor at http://scienceblogs.com/pharyngula/2007/02/dr_michael_egnor_challenges_ev.php#comment-349555 (February
20, 2007).
[14] Como se sugiere en el texto, si uno pudiese predecir qué secuencia
será duplicada, la información de Shannon no aumentará luego de la duplicación,
y en este caso no habrá un incremento de CSI ni de información de Shannon.
No hay comentarios :
Publicar un comentario