martes, 26 de mayo de 2015

 NUCLEO

El núcleo atómico es la parte central de un átomo, tiene carga positiva, y concentra más del 99,9% de la masa total del átomo.
Está formado por protones y neutrones (denominados nucleones) que se mantienen unidos por medio de la interacción nuclear fuerte, la cual permite que el núcleo sea estable, a pesar de que los protones se repelen entre sí (como los polos iguales de dos imanes). La cantidad de protones en el núcleo (número atómico), determina el elemento químico al que pertenece. Los núcleos atómicos no necesariamente tienen el mismo número de neutrones, ya que átomos de un mismo elemento pueden tener masas diferentes, es decir son isótopos del elemento.
La existencia del núcleo atómico fue deducida del experimento de Rutherford, donde se bombardeó una lámina fina de oro con partículas alfa, que son núcleos atómicos de helio emitidos por rocas radiactivas. La mayoría de esas partículas traspasaban la lámina, pero algunas rebotaban, lo cual demostró la existencia de un minúsculo núcleo atómico.

El descubrimiento de los electrones fue la primera indicación de la estructura interna de los átomos. A comienzos del siglo XX el modelo aceptado del átomo era el de JJ Thomson "pudín de pasas" modelo en el cual el átomo era una gran bola de carga positiva con los pequeños electrones cargados negativamente incrustado dentro de la misma. Por aquel entonces, los físicos habían descubierto también tres tipos deradiaciones procedentes de los átomos : alfabeta y radiación gamma. Los experimentos de 1911 realizados por Lise Meitner y Otto Hahn, y por James Chadwick en 1914 mostraron que el espectro de decaimiento beta es continuo y no discreto. Es decir, los electrones son expulsados del átomo con una gama de energías, en vez de las cantidades discretas de energía que se observa en rayos gamma y decaimiento alfa. Esto parecía indicar que la energía no se conservaba en estos decaimiento. Posteriormente se descubrió que la energía sí se conserva, con el descubrimiento de los neutrinos.
En 1906 Ernest Rutherford publicó "El retraso de la partícula alfa del radio cuando atraviesa la materia", en Philosophical Magazine (12, p. 134-46). Hans Geiger amplió este trabajo en una comunicación a la Royal Society (Proc. Roy. Soc. 17 de julio de 1908) con experimentos y Rutherford se había hecho pasar aire a través de las partículas α, papel de aluminio y papel de aluminio dorado. Geiger y Marsden publicaron trabajos adicionales en 1909 (Proc. Roy. Soc. A82 p. 495-500) y ampliaron aún más el trabajo en la publicación de 1910 por Geiger (Proc. Roy. Soc. 1 de febrero de 1910). En 1911-2 Rutherford explicó ante la Royal Society los experimentos y propuso la nueva teoría del núcleo atómico. Por lo que se considera que Rutherford demostró en 1911 la existencia del núcleo atómico.
Por esas mismas fechas (1909) Ernest Rutherford realizó un experimento en el que Hans Geiger y Ernest Marsden, bajo su supervisión dispararon partículas alfa (núcleos de helio) en una delgada lámina de oro. Elmodelo atómico de Thomson predecía que la de las partículas alfa debían salir de la lámina con pequeñas desviaciones de sus trayectorias. Sin embargo, descubrió que algunas partículas se dispersan a grandes ángulos, e incluso completamente hacia atrás en algunos casos. Este descubrimiento en 1911, llevó al modelo atómico de Rutherford, en que el átomo está constituido por protones y electrones. Así, el átomo del nitrógeno-14 estaría constituido por 14 protones y 7 electrones.1
El modelo de Rutherford funcionó bastante bien durante muchos años. Se pensaba que la repulsión de las cargas positivas entre protones era solventada por los electrones -con carga negativa- interpuestos ordenadamente en medio, por lo que el electrón era considerado como un "cemento nuclear".1 Esto fue hasta que los estudios llevados a cabo por Franco Rasetti, en el Institute of Technology de California en 1929. En 1925 se sabía que los protones y electrones tiene un espín de 1 / 2, y en el modelo de Rutherford nitrógeno - 14 los 14 protones y seis de los electrones deberían cancelar sus contribuciones al espín total, estimándose un espín total de 1 / 2. Rasetti descubierto, sin embargo, que el nitrógeno - 14 tiene un espín total unidad.
En 1930 Wolfgang Pauli no pudo asistir a una reunión en Tubinga, y en su lugar envió una carta famoso con la clásica introducción "Queridos Señoras y señores radiactivos ". En su carta Pauli sugirió que tal vez existía una tercera partícula en el núcleo, que la bautizó con el nombre de "neutrones". Sugirió que era más ligero que un electrón y sin carga eléctrica, y que no interactuaba fácilmente con la materia (y por eso todavía no se le había detectado). Esta hipótesis permitía resolver tanto el problema de la conservación de la energía en la desintegración beta y el espín de nitrógeno - 14, la primera porque los neutrones llevaban la energía no detectada y el segundo porque un electrón extra se acoplaba con el electrón sobrante en el núcleo de nitrógeno - 14 para proporcionar un espín de 1. Enrico Fermi redenominó en 1931 los neutrones de Pauli como neutrinos (en italiano pequeño neutral) y unos treinta años después se demostró finalmente que un neutrinos realmente se emiten en el decaimiento beta.
En 1932 James Chadwick se dio cuenta de que la radiación que de que había sido observado por Walther BotheHerbert L. BeckerIrène y Jean Frédéric Joliot-Curie era en realidad debido a una partícula que él llamó el neutrón. En el mismo año Dimitri Ivanenko sugirió que los neutrones eran, de hecho partículas de espín 1 / 2, que existían en el núcleo y que no existen electrones en el mismo, y Francis Perrin sugirió que los neutrinos son partículas nucleares, que se crean durante el decaimiento beta. Fermi publicó 1934 una teoría de los neutrinos con una sólida base teórica. En el mismo año Hideki Yukawa propuso la primera teoría importante de la fuerza para explicar la forma en que el núcleo mantiene junto.

Forma y tamaño del núcleo

Los núcleos atómicos son mucho más pequeños que el tamaño típico de un átomo (entre 10 mil y 100 mil veces más pequeños). Además contienen más del 99% de la masa con lo cual la densidad másica del núcleo es muy elevada. Los núcleos atómicos tienen algún tipo de estructura interna, por ejemplo los neutrones y protones parecen estar orbitando unos alrededor de los otros, hecho que se manifiesta en la existencia delmomento magnético nuclear. Sin embargo, los experimentos revelan que el núcleo se parece mucho a una esfera o elipsoide compacto de 10-15 m (= 1 fm), en el que la densidad parece prácticamente constante. Naturalmente el radio varía según el número de protones y neutrones, siendo los núcleos más pesados y con más partículas algo más grandes. La siguiente fórmula da el radio del núcleo en función del número de nucleones A:
R_n = r_0 A^\frac{1}{3}
Donde r_0 \approx 10^{-15}\mbox{ m}
Densidad de carga eléctrica en el núcleo atómico.
La densidad de carga eléctrica del núcleo es aproximadamente constante hasta la distancia \scriptstyle R_n y luego decae rápidamente hasta prácticamente 0 en una distancia \scriptstyle a de acuerdo con la fórmula:
\rho(r) = \frac{\rho_0}{1+\exp \left( \frac{r-R_n}{0,228 a} \right) }
Donde r es la distancia radial al centro del núcleo atómico.
Las aproximaciones anteriores son mejores para núcleos esféricos, aunque la mayoría de núcleos no parecen ser esféricos como revela que poseanmomento cuadrupular diferente de cero. Este momento cuadrupolar se manifiesta en la estructura hiperfina de los espectros atómicos y hace que el campo eléctrico del núcleo no sea un campo coulombiano con simetría esférica.

Estabilidad del núcleo

Diagrama de Segrè, en rojo los núcleos estables, en otros colores los núcleos inestables coloreados según el período de desintegración. Obsérvese que un ligero exceso de neutrones favorece la estabilidad en átomos pesados.
Los núcleos atómicos se comportan como partículas compuestas a energías suficientemente bajas. Además, la mayoría de núcleos atómicos por debajo de un cierto peso atómico y que además presentan un equilibrio entre el número de neutrones y el número de protones (número atómico) son estables. Sin embargo, sabemos que los neutrones aislados y los núcleos con demasiados neutrones (o demasiados protones) son inestables o radioactivos.
La explicación de esta estabilidad de los núcleos reside en la existencia de los piones. Aisladamente los neutrones pueden sufrir vía interacción débil la siguiente desintegración:
(1)n^0 \to p^+ + e^- + \bar{\nu}_e
Sin embargo, dentro del núcleo atómico la cercanía entre neutrones y protones hace que sean mucho más rápidas, vía interacción fuerte las reacciones:
(2)\begin{cases}
n^0 \rightleftarrows p^+ + \pi^- \\
p^+ \rightleftarrows n^0 + \pi^+
\end{cases}
Esto hace que continuamente los neutrones del núcleo se transformen en protones, y algunos protones en neutrones, esto hace que la reacción (1) apenas tenga tiempo de acontecer, lo que explica que los neutrones de los núcleos atómicos sean mucho más estable que los neutrones aislados. Si el número de protones y neutrones se desequilibra, se abre la posibilidad de que en cada momento haya más neutrones y sea más fácil la ocurrencia de la reacción (1).

Modelos de estructura del núcleo atómico

Estructura interna del átomo.
En 1808 el químico inglés John Dalton propone una nueva teoría sobre la constitución de la materia. Según Dalton toda la materia está formada por átomos indivisibles e invisibles, estos a su vez se unen para formar compuestos en proporciones enteras fijas y constantes. De hecho Dalton propuso la existencia de los átomos como una hipótesis para explicar porqué los átomos sólo se combinaban en ciertas combinaciones concretas. El estudio de esas combinaciones le llevó a poder calcular los pesos atómicos. Para Dalton la existencia del núcleo atómico era desconocida y se consideraba que no existían partes más pequeñas.
En 1897 Joseph John Thomson fue el primero en proponer un modelo estructural interno del átomo. Thomson fue el primero en identificar el electrón como partícula subatómica de carga negativa y concluyó que «si los átomos contienen partículas negativas y la materia se presenta con neutralidad de carga, entonces deben existir partículas positivas». Es así como Thomson postuló que el átomo debe ser una esfera compacta positiva en la cual se encontrarían incrustados los electrones en distintos lugares, de manera que la cantidad de carga negativa sea igual a la carga positiva.
Así ni el modelo atómico de Dalton ni el de Thomson incluían ninguna descripción del núcleo atómico. La noción de núcleo atómico surgió en 1911 cuando Ernest Rutherford y sus colaboradores Hans Geiger y Ernest Marsden, utilizando un haz de radiación alfa, bombardearon hojas laminadas metálicas muy delgadas, colocando una pantalla de sulfuro de zinc a su alrededor, sustancia que tenía la cualidad de producir destellos con el choque de las partículas alfa incidentes. La hoja metálica fue atravesada por la mayoría de las partículas alfa incidentes; algunas de ellas siguieron en línea recta, otras fueron desviadas de su camino, y lo más sorprendente, muy pocas rebotaron contra la lámina.
A la luz de la fórmula dispersión usada por Rutherford:

\chi = 2\pi - 2\cos^{-1} \left( \frac{2K/(E_0b)}{\sqrt{1+(2K/(E_0b))^2}} \right)
Donde:
K = (q_N/4\pi\varepsilon_0)\,, siendo \varepsilon_0 la constante dieléctrica del vacío y q_N\,, es la carga eléctrica del centro dispersor.
E_0\,, es la energía cinética inicial de la partícula alfa incidente.
b\, es el parámetro de impacto.
Los resultados del experimento requerían parámetros de impacto muy pequeños, y por tanto que el núcleo estuviera concentrado en la parte central, el núcleo de carga positiva, donde estaría concentrada la masa del átomo. con ello explicaba la desviación de las partículas alfa (partículas de carga positiva). Los electrones se encontrarían en una estructura externa girando en órbitas circulares muy alejadas del núcleo, lo que explicaría el paso mayoritario de las partículas alfa a través de la lámina de oro.
En 1913 Niels Bohr postula que los electrones giran a grandes velocidades alrededor del núcleo atómico. Los electrones se disponen en diversas órbitas circulares, las cuales determinan diferentes niveles de energía. El electrón puede acceder a un nivel de energía superior, para lo cual necesita "absorber" energía. Para volver a su nivel de energía original es necesario que el electrón emita la energía absorbida (por ejemplo en forma de radiación).
Comúnmente existen dos modelos diferentes describir el núcleo atómico:
  • El modelo de la gota de agua
  • El modelo de capas
Aunque dichos modelos son mútuamente excluyentes en sus hipótesis básicas tal como fueron formulados originalmente, A. Bohr y Mottelson construyeron un modelo mixto que combinaba fenomenológicamente características de ambos modelos.

Modelo de la gota líquida

Energía de enlace por nucleón (=B/A) para los isótopos conocidos.
Este modelo no pretende describir la compleja estructura interna del núcleo sino sólo las energías de enlace entre neutrones y protones así como algunos aspectos de los estados excitados de un núcleo atómico que se reflejan en los espectros nucleares. Fue inicialmente propuesto por Bohr (1935) y el núcleo en analogía con una masa de fluido clásico compuesto por neutrones y protones y una fuerza central coulombiana repulsiva proporcional al número de protones Z y con origen en el centro de la gota.
Desde el punto de vista cuantitativo se observa que la masa de un núcleo atómico es inferior a la masa de los componentes indiviudales (protones y neutrones) que lo forman. Esta no conservación de la masa está conectada con la ecuación E = mc^2 de Einstein, por la cual parte de la masa está en forma de energía de ligazón entre dichos componentes. Cuantiativamente se tiene la siguiente ecuación:7
m_N = Zm_p + (A-Z) m_n -\frac{B}{c^2}
Donde:
m_N, m_p, m_n\, son respectivamente la masa del núcleo, la masa de un protón y la masa de un neutrón.
Z, A, A-Z\, son respectivamente el número atómico (que coincide con el número de protones), el número másico (que coincide con el número de nucleones) y A-Z por tanto coincide con el número de neturones.
B\, es la energía de enlace entre todos los nucleones.

Teoría del caos


La teoría del caos (o caología) es la denominación popular de la rama de las matemáticas, la física y otras ciencias (biología, meteorología, economía, etc.) que trata ciertos tipos de sistemas complejos y sistemas dinámicos muy sensibles a las variaciones en las condiciones iniciales. Pequeñas variaciones en dichas condiciones iniciales pueden implicar grandes diferencias en el comportamiento futuro, imposibilitando la predicción a largo plazo. Esto sucede aunque estos sistemas son en rigor determinísticos, es decir; su comportamiento puede ser completamente determinado conociendo sus condiciones iniciales.


Clasificación de los sistemas


Los sistemas dinámicos se pueden clasificar básicamente en:
  • Estables, cuando dos soluciones con condiciones iniciales suficientemente cercanas siguen siendo cercanas a lo largo del tiempo. Así, un sistema estable tiende a lo largo deltiempo a un punto, u órbita, según su dimensión (atractor o sumidero).
  • Inestables, cuando dos soluciones con condiciones iniciales diferentes acaban divergiendo por pequeñas que sean las condiciones iniciales. Así un sistema inestable "escapa" de los atractores.
  • Caóticos, cuando el sistema no es inestable y si bien dos soluciones se mantienen a una distancia "finita" cercana a un atractor del que el sistema dinámico, las soluciones se mueven en torno al atractor de manera irregular y pasado el tiempo ambas soluciones no son cercanas, si bien suelen ser cualitativamente similares. De esa manera, el sistema permanece confinado en una zona de su espacio de estados, pero sin tender a un atractor fijo.
Una de las mayores características tanto de los sistemas inestables como los caóticos es que tiene una gran dependencia de las condiciones iniciales (esto diferencia a ambos tipos de los sistemas estables). De un sistema del que se conocen sus ecuaciones de evolución temporal características, y con unas condiciones iniciales fijas, se puede conocer exactamente su evolución en el tiempo. Pero en el caso de los sistemas caóticos, una mínima diferencia en esas condiciones hace que el sistema evolucione de manera totalmente distinta. Ejemplos de tales sistemas incluyen el Sistema Solar, las placas tectónicas, los fluidos en régimen turbulento y los crecimientos de población


Caos determinista


El caos determinista comprende una serie de fenómenos encontrados en la teoría de sistemas dinámicos, la teoría de ecuaciones diferenciales y la mecánica clásica. En términos generales el caos determinista da lugar a trayectorias asociadas a la evolución temporal de forma muy irregular y aparentemente azarosa que sin embargo son totalmente deterministas, a diferencia del azar genuino. La irregularidad de lastrayectorias está asociada a la imposibilidad práctica de predecir la evolución futura del sistema, aunque esta evolución sea totalmente determinista.

Definición de caos y atractores


No hay una definición universal sobre el caos, pero hay tres ingredientes en los que todos los científicos están de acuerdo:
  1. Movimiento oscilante. Las trayectorias no se ajustan a un punto fijo, órbita periódica u órbita cuasiperiódica cuando t\rightarrow \infty.
  2. Determinismo. El sistema no es azaroso sino determinista. El comportamiento irregular surge de la no linealidad. Por eso se define como determinista.
  3. Sensibilidad a las condiciones. Las trayectorias que comienzan cerca, con el tiempo se separan exponencialmente. Es decir, condiciones iniciales muy similares acaban dando lugar a comportamientos diferentes pasado un tiempo suficientemente largo.
Los sistemas caóticos típicamente se caracterizan por ser modelizables mediante un sistema dinámico que posee un atractor. Para definir propiamente un atractor hay que recurrir a tecnicismos, y es difícil dar una idea intuitva sin ellos. En una primera aproximación puede decirse que un atractor es un conjunto en las que todas las trayectorias cercanas convergen. Los puntos fijos y círculos límite son un ejemplo de ello. Al igual que en la definición del caos, hay 3 ingredientes universales:
  1. Cualquier trayectoria que esté en un atractor, estará en él para t\rightarrow \infty.
  2. Atraen un conjunto de condiciones iniciales. El conjunto lo componen las condiciones iniciales que su trayectoria que acabe en el atractor cuando t\rightarrow \infty.
  3. No existen condiciones iniciales que satisfagan las dos reglas anteriores.
Dentro de los atractores se define como atractor extraño o caótico cuando el atractor exhibe dependencia sensible con las condiciones iniciales.

PREDECIBILIDAD
 

Predicción tiene por etimología el latín pre+dicere, esto es, “decir antes”. Una vez
Sabido el significado general, conviene irlo afinando para ajustarlo a los usos que la
práctica demanda. Por ello, no se trata sólo de “decir antes”, sino de “decirlo bien”, o
sea, acertar; también, hacerlo con un plazo suficiente para poder tomar las medidas que
se crean oportunas, y además tener una idea de hasta cuándo es posible predecir el
futuro con cierto éxito.
Cuando se efectúa una predicción, se está estimando un valor futuro de alguna variable
que se considere representativa de una cierta situación. Por ejemplo, en cuestiones
climáticas podría tratarse de temperaturas medias de la atmósfera en determinados
niveles, concentraciones de gases, precipitación, etc. También se pueden hacer
predicciones espaciales, como la ubicación, movilidad e intensidad local de fenómenos
extremos, caso por ejemplo de los huracanes y tormentas tropicales (Fernández &
Pacheco 2000, Pacheco & Hayek 1997). Normalmente ambos tipos de predicción están
ligados y se realizan a la vez, como lo prueban los productos que ofrecen las grandes
agencias e institutos de Meteorología y Climatología.
Las estimaciones realizadas para predecir se denominan predictores. Pueden construirse
de modos muy diversos, de algunos de los cuales nos ocuparemos en este trabajo, y su
bondad se mide -como es natural- por el porcentaje de aciertos en situaciones del pasado
predichas con igual técnica. Las bases de registros disponibles hoy día permiten realizar
experimentos de predecibilidad con datos pasados y simular situaciones ya conocidas
mediante diversas técnicas, estudiando y comparando los resultados. Es claro que para
estos experimentos la tercera propiedad de la predicción no tiene demasiado interés,
pues la predicción -o mejor, simulación- del pasado no incita a la prisa.
Prácticamente todos los registros interesantes en Meteorología y Climatología se
presentan en forma de series temporales, esto es, los datos están ordenados de forma
correlativa respecto del tiempo. En fórmulas, se trata de trabajar con conjuntos de
valores de la forma {X t
t = 1,2,..., N}.
En esencia, el análisis de datos temporales se reduce a encontrar pautas o patrones que
se repiten más o menos exactamente a lo largo de ellas. Para las series meteorológicas,
por ejemplo, existe una pauta periódica de un año que se corresponde con el periodo de
traslación de la Tierra alrededor del Sol. Para datos tomados a intervalos muy cortos de
tiempo es posible distinguir la pauta diaria de día/noche asociada a la rotación de la
Tierra, y varias más. Todas estas pautas pueden ser sustraídas de la señal original
dejando un resto o residuo como resultado de este primer análisis.

Dificultad de predicción en numerosos campos de la ciencia:

Algunos campos de la ciencia tienen gran dificultad de predicción y pronóstico exacto. En algunos campos la complejidad de datos lo hace difícil (pandemiasdemografía, la dinámica de la población, la predicción del clima, la predicción de los desastres naturales y, en general, la meteorología). 
                               


La dificultades de predicción obedece a diferentes causas:
  • Variables ocultas no conocidas, en ocasiones en un proceso natural intervienen junto con ciertos factores relevantes bien identificables, medibles y cuantificables, otros factores cuya presencia o ausencia es difícil de determinar y cuya presencia tiene una influencia determinante en el resutlado de proceso. Estos factores cuya presencia es difícil o imposible de determinar es lo que se denomina "variable oculta". Las modelos de variables ocultas han sido ampliamente investigados en mecánica cuántica con el fin de construir teorías deterministas que dieran cuenta del resultado aparentemente aleatorio de ciertas medidas.


  • Dinámica desconocida o compleja, en ocasiones aunque se conocen todas las variables relevantes para predecir el resultado de un proceso, las relaciones entre estas variables no se conoce con precisión, o cuando éstas se conocen las predicciones basadas en ellas son complicadas por problemas relacionados con la computación o cálculo del efecto previsible de las mismas. En concreto los sistemas con sensiblemente dependientes de las condiciones iniciales, cualquier imprecisión en la determinación de inicial de las variables hará que el valor predicho diverja con el tiempo del valor real. Dado que el sistema atmosférico mundial presenta dependencia sensible de las condiciones iniciales, la predicción del tiempo meteorológico sólo es posible con unos pocos días de antelación.



Las anteriores explicaciones son compatibles con el determinismo, una posibilidad más radical que impediría la predicción efectiva es que un fenómeno fuera efectivamente aleatorio o su comportamiento con el conocimiento actual no pudiera distinguirse del comportamiento genuinamente aleatorio. 
Cuando se efectúa una predicción, se está estimando un valor futuro de alguna variable que se considere representativa de una cierta situación. Por ejemplo, en cuestiones climáticas podría tratarse de temperaturas medias de la atmósfera en determinados niveles, concentraciones de gases, precipitación, etc.
También se pueden hacer predicciones espaciales, como la ubicación, movilidad e intensidad local de fenómenos extremos, caso por ejemplo de los huracanes y tormentas tropicales. Normalmente ambos tipos de predicción están ligados y se realizan a la vez, como lo prueban los productos que ofrecen las grandes agencias e institutos de Meteorología y Climatología.
caos

Con un aleteo, una mariposa que vuele en China puede provocar un tornado en Nueva York... En efecto, cada movimiento, por ínfimo que sea, provoca una cascada de consecuencias imprevisibles...
 Como especie llamada superior, el Hombre es el mayor propagador de caos.
Tiene como principal representante al químico belgaIlya Prigogine, y plantea que el mundo no sigue estrictamente el modelo del reloj, previsible y determinado, sino que tiene aspectos caóticos.
 El observador no es quien crea la inestabilidad o la imprevisibilidad con su ignorancia: ellas existen de por sí, y un ejemplo típico el clima.
Los procesos de la realidad dependen de un enorme conjunto de circunstancias inciertas, que determinan por ejemplo que cualquier pequeña variación en un punto del planeta, genere en los próximos días o semanas un efecto considerable en el otro extremo de la tierra. La idea de caos en la psicología y en el lenguaje.
En principio, las relaciones entre causas y efectos pueden examinarse desde dos puntos de vista:cualitativo y cuantitativo.
Desde la primera perspectiva, las relaciones causa-efecto pueden ser concebidas de varias maneras:
a) como vínculos unidireccionales: A causa B, B causa C, etc., pero los efectos resultantes no vuelven a ejercer influencia sobre sus causas originales;
 b) como eventos independientes: según esta concepción, no habría ni causas ni efectos: cada acontecimiento ocurriría al azar e independientemente de los otros;
 
c) como vínculos circulares: A causa B, y B a su vez causa A, es decir, el efecto influye a su vez sobre la causa, como resultado de los cual ambos acontecimientos son a la vez causas y efectos. Se trata de los llamados circuitos de retroalimentación, que pueden ser negativos o positivos.
La teoría del caos, en la medida en que considera que existen procesos aleatorios, adopta la postura (b), pero en la medida en que dice que ciertos otros procesos no son caóticos sino ordenados, sostiene que sí, que existen vínculos causales. Los vínculos causales que más desarrollará son los circuitos de retroalimentación positiva, es decir, aquellos donde se verifica una amplificación de las desviaciones: por ejemplo, una pequeña causa inicial, mediante un proceso amplificador, podrá generar un efecto considerablemente grande. No nos alarmemos. Esto lo iremos aclarando poco a poco.
2. Causa-efecto:
 
relaciones cuantitativas.- Si examinamos las posibles relaciones cuantitativas que pueden existir entre causas y efectos, las alternativas podrían ser las siguientes:
1) Causas y efectos son razonablemente proporcionales:
pequeñas causas producen pequeños efectos, y grandes causas grandes efectos (como cuando decimos que, dentro de cierto espectro de variabilidad, cuanto mayor es la frustración mayor será la respuesta agresiva, siendo ambas variaciones razonablemente proporcionales).
2) Una causa pequeña produce un gran efecto (como cuando un comentario intrascendente desata una crisis psicótica).
3) Una causa grande produce un pequeño efecto (como cuando una interpretación nuclear que apunte directamente al conflicto patógeno infantil, genera una respuesta indiferente en el paciente).
Los seres humanos tendemos inevitablemente a creer en alguno de estos supuestos en la vida cotidiana, y por motivos muy diversos. Detrás de toda creencia hay un deseo, que es quien le da su intensidad, su persistencia, su razón de ser. Así, la creencia en una desproporción causa-efecto del caso 2 oculta un deseo de poder: la ilusión de que con muy poco se puede lograr mucho.
3. Causas pequeñas, grandes efectos.-
El sentido común prescribe una cierta proporción entre la causa y el efecto: una fuerza pequeña produce un movimiento pequeño, y una fuerza grande, un gran desplazamiento. El psicoanálisis invoca la misma idea para justificar la idea de que una terapia breve produce pequeños cambios, y de que un tratamiento prolongado genera cambios más importantes.