Utente:Bramfab/sandbox

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca

Catastrophism is the theory that Earth has been affected by sudden, short-lived, violent events that were sometimes worldwide in scope. The dominant paradigm of geology has been uniformitarianism (also sometimes described as gradualism), but recently a more inclusive and integrated view of geologic events has developed resulting in a gradual change in the scientific consensus.

History of catastrophism[modifica | modifica wikitesto]

The creationism view[modifica | modifica wikitesto]

Before uniformitarianism, the dominant belief in many cultures of the creation and development of the world was essentially catastrophism. The biblical account of the Great Flood is a prime example of these beliefs. Earth's history was viewed as the result of an accumulation of catastrophic events over a relatively short time period. It was basically the only way to rationalize the observations of early geologists with a believed short history of Earth before the eighteenth and nineteenth centuries.

Scientific paradigm shift[modifica | modifica wikitesto]

Starting in the late 18th century, scientists began looking to other paradigms for explaining geological formations. Two early proponents of the uniformitarian explanations for the formation of sedimentary rock and the beginnings of an understanding of the immense stretch of geological time or 'Deep time' were the eighteenth century 'father of geology' James Hutton and the nineteenth century geologist Charles Lyell.

At the beginning of the nineteenth century, the great French geologist and naturalist Baron Georges Cuvier proposed what came to be known as the Catastrophe theory or Catastrophism. According to the theory, the abrupt faunal changes geologists saw in rock strata were the result of periodic devastations that wiped out all or most extant species, each successive period being repopulated with new kinds of animals and plants, by God's hand. [Charles] Lyell rejected so nonscientific a hypothesis (as did James Hutton before him), and replaced it with the notion that geological processes proceeded gradually - all geological processes. (Lewin, 1993)

The rise of uniformitarianism[modifica | modifica wikitesto]

From around 1850 to 1980, most geologists endorsed uniformitarianism ("The present is the key to the past") and gradualism (geologic change occurs slowly over long periods of time) and rejected the idea that cataclysmic events such as earthquakes and volcanic eruptions played any significant role in the formation of the Earth's surface. In part, the geologists' rejection was fostered by their impression that the catastrophists of the nineteenth century believed that God was directly involved in determining the history of Earth. Catastophism of the nineteenth and early twentieth centuries was closely tied to religion and catastrophic origins were considered miraculous rather than natural events.


Catastrophism re-emerging and re-examined by science[modifica | modifica wikitesto]

Luis Alvarez impact event hypothesis[modifica | modifica wikitesto]

Lo stesso argomento in dettaglio: Impact event.

Over the past 25 years, however, a scientifically based catastrophism has gained wide acceptance with regard to certain events in the distant past. One impetus for this change came from the publication of a historic paper by Walter and Luis Alvarez in 1980. This paper suggested that a 10-kilometer asteroid struck Earth 65 million years ago at the end of the Cretaceous period. The impact wiped out about 70% of all species, including the dinosaurs, leaving behind the so-called K-T boundary. In 1990, a 180-kilometer candidate crater marking the impact was identified at Chicxulub in the Yucatán Peninsula of Mexico.

Since then, the debate about the extinction of the dinosaurs and other mass extinction events has centered on whether the extinction mechanism was the asteroid impact, widespread volcanism (which occurred about the same time), or some other mechanism or combination. Most of the mechanisms suggested are catastrophic in nature.

The observation of the Shoemaker-Levy 9 cometary collision with Jupiter illustrated that catastrophic events occur as natural events.

Catastrophism theory and Moon-formation[modifica | modifica wikitesto]

Modern theories also suggest that Earth's anomalously large moon was formed catastrophically. In a paper published in Icarus in 1975, Dr. William K. Hartmann and Dr. Donald R. Davis proposed that a stochastic catastrophic near-miss by a large planetesimal early in Earth's formation approximately 4.5 billion years ago blew out rocky debris, remelted Earth and formed the Moon, thus explaining the Moon's lesser density and lack of an iron core. See giant impact theory for a more detailed description.

Comet Encke is believed to be the originator of the Taurid meteor shower (Whipple, 1940; Klačka, 1999). Some consider the Bronze Age breakup of the originally larger comet to be responsible for ancient destruction in the Fertile Crescent, perhaps evidenced by a large meteor crater in Iraq. The origin of the swastika has also been connected with Comet Encke.

Comparing and combining catastrophism with uniformitarianism[modifica | modifica wikitesto]

One of the key differences between catastrophism and uniformitarianism is that to function, uniformitarianism requires the assumption of vast timelines, whereas catastrophism can function with or without assumptions of long timelines.

Today most geologists combine catastrophist and uniformitarianist standpoints, taking the view that Earth's history is a slow, gradual story punctuated by occasional natural catastrophic events that have affected Earth and its inhabitants.

See also[modifica | modifica wikitesto]

References[modifica | modifica wikitesto]

  • Lewin, R. (1993). Complexity, Dent, London, p. 75.
  • Palmer, T. (1994) Catastrophism, Neocatastrophism and Evolution. Society for Interdisciplinary Studies in association with Nottingham Trent University. ISBN 0-951430-71-8 (SIS) ISBN 0-905488-20-2 (Nottingham Trent University)

External links[modifica | modifica wikitesto]

Uniformitarianism[modifica | modifica wikitesto]

Uniformitarianism, in the philosophy of science, is the assumption that the natural processes operating in the past are the same as those that can be observed operating in the present. Its methodological significance is frequently summarized in the statement: "The present is the key to the past." Uniformitarianism is most closely associated with geology, but it is also used in astronomy, paleontology, and other sciences whose objects of study are in the past and (as a result) beyond the reach of direct observation. Uniformitarianism has its philosophical roots in antiquity, but it was refined and popularized by British scientists of the late 18th and early 19th centuries: notably James Hutton, John Playfair, Charles Lyell, and William Whewell (who coined the term).

Four main propositions of uniformitarianism[modifica | modifica wikitesto]

Uniformitarianism, though often treated as a single idea, is in fact a family of four related (but not identical) propositions. Paleontologist and evolutionary theorist Stephen Jay Gould usefully characterized them, in a 1962 paper, as:

  • 1) Uniformity of law;
  • 2) Uniformity of kind;
  • 3) Uniformity of degree; and
  • 4) Uniformity of result.

The first sense of uniformitarianism was almost universally accepted and quickly became part of the scientific consensus; the fourth was almost universally rejected by Western scientists from the mid-19th century onward. The second and particularly the third senses remained controversial and (though more increasingly accepted in the 20th century) have been occasionally challenged by scientists who believe the presumption of uniformity (in the second and third senses) is unwarranted.

Uniformitarianism and the History of Geology[modifica | modifica wikitesto]

Uniformitarianism is one of the most basic principles of modern geology, the observation that fundamentally the same geological processes that operate today also operated in the distant past. It exists in contrast with catastrophism, which states that Earth surface features originated suddenly in the past, by geological processes radically different to those currently occurring. Note, however, that many "catastrophic" events are perfectly compatible with uniformitarianism. For example, Charles Lyell thought that ordinary geological processes would cause Niagara Falls to move upstream to Lake Erie within 10000 years, leading to catastrophic flooding of a large part of North America.

Uniformitarianism is a generalisation of the principle of actualism, which states that present day-processes (astronomical, geological, paleontological,...) can be used to interpret past patterns. It is also known as "the present is the key to the past". The principle of actualism is the cornerstone of paleoecology.

The geologist James Hutton was a pioneer of the principle, which was later popularised by Charles Lyell and influenced Charles Darwin. In the 18th and 19th centuries, the debate between the two theories was intense, since uniformitarianism seemed hard to reconcile with the prevailing religious beliefs of the time. Today, however, most if not all mainstream scientists support uniformitarianism as do most mainstream religious denominations.

The understanding of slow geological processes have changed in several ways. Before continental drift (see plate tectonics) was recognized in the 20th century, the surface of Earth was believed to have remained generally unchanged since creation. Cooling from a molten state was believed to have caused shrinkage, which caused mountains and folding of the surface. Currently it is accepted that much of the mantle is plastic and fluid, and the crust is slowly moving over it. It is this relative motion that produces folding, compression, rises, depressions, etc.

In recent decades, the theory of uniformitarianism has been modified to reflect the discovery that catastrophic events occur today and have occurred in the Earth's past. The present is still the key to the past, meteorite impacts, giant earthquakes, tsunamis, and supervolcanic eruptions occur today as they have in the past and these events provide punctuations in an over-all gradual process.

See also[modifica | modifica wikitesto]

External links[modifica | modifica wikitesto]


Gradualism[modifica | modifica wikitesto]

Gradualism is the belief that changes occur, or ought to occur, slowly in the form of gradual steps (see also incrementalism).


[edit] Politics and society In politics, the concept of gradualism is used to describe the belief that public policy ought to be modified in small, discrete increments rather than abrubt changes such as revolutions or uprisings. Gradualism is one of the defining features of political conservatism and reformism.


[edit] Geology and biology In the natural sciences, gradualism is a theory which holds that profound change is the cumulative product of slow but continuous processes, often contrasted with catastrophism. The theory was proposed in 1795 by James Hutton, a Scottish geologist, and was later incorporated into Charles Lyell's theory of uniformitarianism. Tenets from both theories were applied to biology and formed the basis of early evolutionary theory.

Charles Darwin was influenced by Charles Lyell's Principles of Geology, which explained both uniformitarian methodology and theory. Using methodological uniformitarianism, which states that one cannot make an appeal to any force or phenomenon which cannot presently be observed (see catastrophism), Darwin theorized that the evolutionary process must occur gradually, not in saltations, since saltations are not presently observed, and extreme deviations from the usual phenotypic variation would be more likely to be selected against.

Gradualism is often confused with the concept of phyletic gradualism, a term coined by Stephen Jay Gould and Niles Eldredge to contrast with their concept of Punctuated equilibrium, which is gradualist itself (but accepts that saltation can occur, even though it is not a necessary mechanism nor the main point).

Neptunism[modifica | modifica wikitesto]

Neptunism is a discredited and obsolete scientific theory of geology proposed by Abraham Werner in the late 18th century that proposed rocks formed from the crystallisation of minerals in the early Earth's oceans.

It was named after Neptune, the ancient Roman name for the ancient Greek god of the sea, Poseidon. Neptunism lost mainstream scientific support in the early 19th century as the principle of uniformitarianism was shown to fit better with the geological facts as they became better known. Plutonism then replaced Neptunism. In modern geology, many different forms of rock formation are acknowledged, and the formation of sedimentary rock occurs through processes very similar to those described by Neptunism.

"The French naturalist Georges de Buffon championed this idea and concluded that the center of volcanic activity was not deep in the bowels of earth but near the surface, where it was exposed to wind and rain."

teorie[modifica | modifica wikitesto]

La teoria dell'evoluzione delle teorie descrive l'origine e la formulazione delle teorie scientifiche e come esse cambiano, evolvono nella ricerca della conoscenza.

Le teorie nascono inizialmente in una formulazione primitiva e pre-scientifica nascendo dalla curiosità umana che nel tempo cerca le risposte a problemi pratici quotidiani. Le nostre menti procedono in base a processi auto-organizzanti, che formulano un ipotesi, per esempio nella percezione di una pluralità di oggetti. Il primo uomo a cogliere una mela avrà l'esperienza di una singola mela, ma quando raccoglierà la seconda, nasce l'esigenza di formulare il concetto di ancora una, quindi di pluralità e addizione. Questo porta dal semplice "uno" e "uno più uno", via via al concetto teorico di unità, pluralità e numero in generale. Le due mele non sanno di essere due: è la mente umana che formula l'associazione tra fenomeno e concetto teorico.

Tempo e cambiamento[modifica | modifica wikitesto]

Nonostante l'esperienza del trascorrere del tempo, alcune correnti della fisica teoretica sostengono che la realtà è, non diviene, in quanto solo del presente abbiamo una percezione (cioè una relazione causale diretta), mentre del passato abbiamo solo un ricordo e del futuro solo un'idea (o speranza). La capacità di ragionamento dell'intelletto porta inevitabilmente reagire al cambiamento e dunque a formulare i concetti di prima e dopo e di "causa" ed "effetto". Così nasce una teoria del tempo. La mente umana si pone il problema e quindi elabora una teoria nel momento presente (durante). Albert Einstein in una lettera disse: "la divisione tra passato, presente e futuro ha solo il valore di una ostinata illusione".[1]

Cenni storici[modifica | modifica wikitesto]

Engels[modifica | modifica wikitesto]

Già Friedrich Engels nel 1878 contrastò le correnti positivistiche sulle teorie scientifiche, che sostenevano che la scienza sia una conoscenza fuori dal tempo, le cui fondamenta sono fisse e e immutabili. Engels, sostenne invece un processo di evoluzione storica (per il materialismo), e che la filosofia non fosse da considerarsi al di sopra delle scienze. Secondo Engels della filosofia resta solo quello che riguarda la dottrina del pensiero e la dialettica. La filosofia ha il compito di studiare la formazione e l'evoluzione delle teorie scientifiche, dando un contributo allo sviluppo della scienza.

Popper[modifica | modifica wikitesto]

Karl Popper nella sue ricerche sulla falsificabilità delle teorie dice a tal proposito che una teoria scientifica non si basa mai su osservazioni o sull’invenzione di esperimenti, ma sulla critica di teorie precedenti, sostenendo implicitamente l'evoluzione della teoria stessa.

Esempi di falsificazione che portano al cambiamento[modifica | modifica wikitesto]

Nella matematica:

Nella logica:


Paul Feyerabend[modifica | modifica wikitesto]

Paul Feyerabend sostiene che non esistono metodi scientifici rigorosi e che le scoperte scientifiche non siano venute per aver seguito rigorose teorie presabilite ma solo perché la casualità di quel momento storico ha voluto che ci fosse la scoperta scientifica. Sostiene che tutte le teorie prescrittive se non sono di fatto violate (se non evolvono) non ragiungono l'obbiettivo scientifico.


Van Orman Quine[modifica | modifica wikitesto]

Per Willard Van Orman Quine (in "Due dogmi dell'empirismo" ("Two Dogmas of Empiricism", 1951) non esiste una connessione logica tra verità analitica e verità sintetica e la consegunte riduzione (logica), quindi crolla la teoria per il quale dato un certo tipo di enunciato dotato di significati equivarrebbe per forza ad una serie di risposte logiche possibili (teoria nell'accezione classica). Quine propone un empirismo che affronta la realtà con una serie di teorie con la possibilità di una serie di risultati che possono avere margini ampi di libertà e gli eventuali errori sono corretti dalla continua esperienza stessa. In questa maniera non c'e una distinzione tra enunciato e risposta ma è un tutt'uno che evolve.

Kuhn[modifica | modifica wikitesto]

In effetti il primo a formulare una teoria dell'evoluzione delle teorie fu il filosofo Thomas Kuhn. Tra i filosofi che si occupavano dei processi della scienza fu quello che formulò una teoria descrittiva della crescita della conoscenza. Il libro La struttura delle rivoluzioni scientifiche ("The Structure of Scientific Revolutions") descrive come la scienza evolve e l'evoluzione delle teorie.

Rimane ovvio che anche la sua formulazione della teoria della evoluzione delle teorie evolve, quindi non può essere deterministica e definitiva, sarebbe entrato in contraddizione con la sua stessa teoria.

Kuhn propose un modo epistemologico descrittivo delle strutture teoriche, ma non riusci (paradossalmente) a spiegare mai la logica dei nessi causali, e perché l’evoluzione della scienza segua certi percorsi piùttosto che altri. Kuhn lascia una dose causale, nella sua teoria che condusse presto ad una interpretazione fortemente soggettiva della sua teoria, togliendo il carattere di scientificità ed universalità proprio delle teorie scientifiche.

Kuhn descrisse l'evoluzione delle teorie come un alternarsi di periodi di "scienza normale" e "scienza rivoluzionaria". Questa idea è stata criticata tra l'altro da Stephen Toulmin.[2]

Benedetto Croce[modifica | modifica wikitesto]

Croce ha una visione storica basata sulla esperienza del reale ma in un continuo dispiegarsi. Nella sua opera Teoria e Storia della storiografia vede la storia come una conoscenza del contemporaneo, del presente, di adesso che sta succedendo. La storiografia è solo una teorizzazione postuma che serve solo a dare una logicità ai processi. Croce è contrario a quelli che vogliono formulare teorie assolute che possano regolare la lettura della storia. Egli infatti vede la storia come un percorso evolutivo (progressivo) dove non ci sono certezze e niente può essere previsto con certezza e tanto meno teorizzato.


Esempi di cambiamenti di paradigma e incommenurabilità tra paradigmi[modifica | modifica wikitesto]

Molti matematici e fisici (uno fra tutti Werner Karl Heisenberg) si spingono fino a formulare una teoria anche per il caso (Meccanica quantistica). Queste teorie hanno qualcosa di folle, Heisenberg le ha definite prive di senso (vedi anche Logica fuzzy). Con la meccanica quantistica, infatti crolla il vecchio schema del "vero"/"falso" e subentra il principio di indeterminazione, si procede a valutazioni probabilistiche di misurazione correlate e relative (non ripetibili) e solo per casi singoli (come o la posizione o la velocità). Questo perché ogni formulazione (come faceva tra l'altro intendere anche Einstein) ha qualcosa di folle, diversamente si sarebbe continuato a studiare con i principi della meccanica razionale.

Evoluzione e teleologia[modifica | modifica wikitesto]

La teoria dell'evoluzione biologica, formulata da Charles Darwin si può applicare anche alla formulazione delle teorie stesse. Appare chiaro che la scienza non si è fermata, ma ha subito cambiamenti, i quali possono essere descritti con modelli evoluzionistici. Anche le teorie hanno una loro evoluzione sia nella formulazione sia nella ricerca della dimostrazione e studiare questo processo è di fatto una teoria che si mette in atto.

Il collegamento nella formulazione delle teorie è comunque la natura del cervello umano con le sue sinapsi e le sue forme cognitive che sono assai diverse in ogni uomo. Il DNA non contiene informazioni sufficienti per regolare la posizione ed il ruolo dei 1011 neuroni e il numero ancora maggiore di sinapsi. A causa della strutturazione modulare del cervello a un livello più alto, le capacità cognitive di ogni individuo possono comunque dirsi simili, se cosi non fosse linguaggio e comunicazione sarebbero assai difficili.


Enrico Bellone[modifica | modifica wikitesto]

La plasticità della mente umana con le sue sinapsi (miliardi di milardi) è quella capacità di andare oltre all'analisi arida (che fa anche una inteligenza artificiale) è quella capacità in tempo reale e non di apprendere e di mutare nell'apprendimento di assorbire le qualsivoglia variabili per migliorare. Questo dimostra che potenzialmente un bambino nato mille anni fa' ed uno nato oggi pur essendo, mentalmente parlando, potenzialmente uguali, quello di oggi ha una capacità di apprendimento più veloce proprio per la differenza che c'è nella formulazione delle teorie. L'apprendimento è un continuo formulare teorie e trovare risposte. La mente umana non è da considerarsi più un secchio vuoto da riempire o una tabula rasa al contrario è un insieme dinnamico di teorie potenziali che nell'aprendimento per la sua natura plastica si adeguano di volta in volta e da individuo ad individuo.

L'evoluzione delle teorie è un fatto biologico (sostiene Bellone nel suo libro L'origine delle teorie,) la mente non va sconnessa dal corpo anzi è un tutt'uno, e se è vero che c'è stata una evoluzione del corpo ci sarà stata anche una evoluzione della mente e nel processo di formulare le teorie.


La teoria va vista sotto un profilo dinamico quindi evolutivo se la logica invece ha un piano definito di svoglimento mentre la teoria deve avere un qualcosa di folle nella sua formulazione. Una parte sconosciuta che prima delle dimostrazione deve apparire non conforme, alle logiche classiche.

Se si dimostrasse tutto cio che è gia dimostrato le teorie non avrebbero una loro evoluzione.

La dinamicità della evoluzione e della innovazione per alcune correnti teologiche e filosofiche fanno comunque parte del disegno intelligente di una creazione voluta, dove per voluta si intende qualcuno che con una precisa intezione ha voluto la creazione e la sua evoluzione secondo un piano preciso. L'intenzione deriva sempre da una intelligenza, cio che accade per caso non deriva da una intelligenza. L'intenzione è una proposta di azione con un preciso contenuto concettualle derivante dall'intelletto.

Riferimenti[modifica | modifica wikitesto]

  1. ^ Albert Einstein, lettera alla famiglia di Michele Angelo Besso del 21 marzo 1955;
  2. ^ Stephen Toulmin "Does the Distinction between Normal and Revolutionary Science Hold Water?", in Lakatos and Musgrave, ed., Criticism and the Growth of Knowledge (Proceedings of the International Colloquium in the Philosophy of Science, London, 1965), 1970.

Bibliografia[modifica | modifica wikitesto]

  • La crisi e l'emergere delle teorie scientifiche: il caso dell'astronomia copernicana, Thomas Kuhn
  • La struttura delle rivoluzioni scientifiche, Thomas S. Kuhn, Einaudi
  • Prede o ragni. Uomini e organizzazioni nella ragnatela della complessità, Alberto Felice De Toni e di Luca Comello, UTET
  • L'evoluzione della mente per una teoria Darwiniana della coscienza, Merlin Donald, Garzanti
  • L'origine delle teorie, Enrico Bellone, Codice
  • La nuova comunicazione politica. Riflessioni sull'evoluzione delle teorie e degli strumenti in Italia, Franco Angeli, L. Gaudiano, F. Pira,
  • Etudes d’histoire de la pensée philosophique, Gallimard, Paris 1971, (tr. it. di Alberto Strumia).
  • L'influenza delle concezioni filosofiche sull'evoluzione delle teorie scientifiche conferenza tenuta da Alexandre Koyré nel 1954.
  • Etologia della conoscenza Celentano M Città del Sole

Voci correlate[modifica | modifica wikitesto]

La Risonanza Magnetica[modifica | modifica wikitesto]

Nel 1924 Pauli scoprì il magnetismo nucleare. Nel 1946 l’equipe di Purcell e l’equipe di Block scoprirono il fenomeno della risonanza magnetica nucleare. Nel 1972, sfruttando i progressi matematici per la ricostruzione delle immagini, basati sulla trasformata di Fourier, Lauterbur associò lo studio di risonanza, fino ad allora utilizzato nell’osservazione di macromolecole chimiche, a distretti anatomici.

La RM si basa sulle proprietà intrinseche dei nuclei di alcuni elementi, con numero di protoni e di neutroni dispari (1H, 31P, 13C, 19F, 23Na), i quali possiedono la capacità di ruotare attorno a se stessi, capacità denominata “spin intrinseco”. Tale rotazione fa di questi nuclei dei microscopici magneti, definiti come dipoli o momenti magnetici nucleari.

Di questi in RM, è utilizzato il nucleo di 1H (o protone), per la sua maggiore presenza nei tessuti, e dunque per il maggior segnale che riesce a fornire, (oltre il 70% dei tessuti è composto infatti di acqua).

Questi protoni, sono però in condizioni di normalità, orientati in maniera del tutto casuale nello spazio, dunque è impossibile calcolare un vettore risultante che identifichi la somma dei loro momenti magnetici.

Ma in presenza di un campo magnetico esterno (che chiameremo B0), questi orientano il proprio asse di rotazione lungo l’asse di B0, come una trottola in movimento orienta il proprio asse lungo quello della forza di gravità.

Una volta orientati gli assi di tutti i protoni, sarà dunque possibile considerare un vettore risultante M (magnetizzazione risultante), che avrà la stesso verso del campo magnetico esterno B0.

Per la meccanica quantistica, ciascun protone, può avere solo due differenti livelli energetici (basso e alto), che corrispondono a due diverse modalità di orientamento lungo l’asse di B0, quelli con energia minore saranno paralleli a B0, quelli con energia maggiore saranno antiparalleli a B0;

si deve in oltre tener presente, che quelli paralleli, cioè con energia minore, sono di numero maggiore rispetto a quelli di energia maggiore, o antiparalleli, la differenza di numero è in realtà minima, da qui segue la scarsa sensibilità intrinseca della RM.

Tuttavia nonostante i protoni con verso parallelo a B0, siano di poco superiori agli altri, permettono comunque la misurazione macroscopica di un vettore risultante M, con direzione parallela a B0. Tale vettore M rappresenta la Magnetizzazione Longitudinale. Dunque la magnetizzazione longitudinale o magnetizzazione risultante M, è data soltanto dai protoni con orientamento parallelo all’asse di B0.

Tornando a ciascun nucleo dotato di spin, si deve osservare, che tutti possiedono una propria frequenza, definita frequenza di precessione o di Larmor, che dipende da due caratteristiche: 1. la costante giromagnetica tipica di ciascuna specie nucleare 2. l’intensità del campo magnetico esterno B0

Dunque nuclei dello stesso tipo avranno stessa frequenza di precessione, ma differente fase di precessione, cioè non saranno sincronizzati l’uno rispetto all’altro. L’intensità del campo è espressa nell’ordine di 1-3 TESLA, cioè migliaia di volte superiore a quella del campo magnetico terrestre misurato in superficie. (1 Tesla è uguale a 10000 Gauss).

Si è detto che in presenza di B0 tutti i protoni si orientano nel verso di B0 in maniera parallela e antiparallela, e che dunque si può considerare un vettore risultante dalla somma dei protoni con verso parallelo, cioè si è parlato in pratica di una magnetizzazione longitudinale. Ma presi singolarmente i protoni orientati dalla presenza di B0, non sono perfettamente paralleli a questo, ma differiscono di un certo angolo, che dovrebbe creare una magnetizzazione trasversale a B0, ciò non accade a causa delle differenti fasi di precessione dei vari nuclei, che annullano questo di tipo di magnetizzazione. Dunque nella fase di equilibrio, cioè nella fase di esposizione dei protoni a B0, manca una magnetizzazione trasversale. È invece presente solo una magnetizzazione longitudinale.

La fase di equilibrio può essere interrotta utilizzando un’onda elettromagnetica, che può determinare il cosiddetto fenomeno di risonanza. Il fenomeno di risonanza è il passaggio di energia tra l’onda elettromagnetica e il sistema di nuclei. Questo può avvenire, però soltanto se la frequenza dell’onda elettromagnetica è identica a quella del sistema di riferimento, cioè soltanto se è identica alla frequenza di precessione o di Larmor dei nuclei di 1H. Poiché tale frequenza di precessione dei protoni è dell’ordine di 6.4-64 MHz, l’onda elettromagnetica, che deve essere di identica frequenza, sarà una radiofrequenza. Si parla in realtà di impulso di radiofrequenza, poiché questo avviene nell’ordine di microsecondi e viene identificato con la sigla RF.

L’RF crea un campo magnetico perpendicolare a B0, e di intensità migliaia di volte inferiore a B0, ma comunque capace di determinare due situazioni differenti: 1. permette la sincronizzazione dello spin dei protoni, dando cioè a questi identica fase di precessione. 2. determina il passaggio di livello energetico, di quei nuclei con livello più basso verso un livello più alto, passando cioè da paralleli ad antiparalleli.

Cambia così il vettore risultante M (diminuisce la Magnetizzazione Longitudinale), che sarà differente a seconda dell’intensità di RF e del tempo di durata di RF. Tale vettore non sarà più parallelo all’asse di B0, ma assumerà angoli differenti (da 90° a 180°).

Un impulso di RF di 90° determina un numero identico tra nuclei con orientamento parallelo e nuclei con orientamento antiparallelo, ciò determina l’annullamento delle due quantità, cioè l’annullamento della magnetizzazione longitudinale. Prevale ora la Magnetizzazione Trasversale, possibile poiché la fase di precessione dei protoni è ora identica, cioè è possibile calcolare un vettore risultante della magnetizzazione trasversale, che precedentemente era incalcolabile, poiché impedita dalla mancata sincronizzazione dei vari spin. Anche tale magnetizzazione trasversale, vedrà la rotazione dei nuclei con frequenza di Larmor.

Per il fenomeno dell’induzione elettromagnetica, qualsiasi circuito attraversato da un campo magnetico variabile nel tempo, determina una corrente elettrica misurabile. Questo è ciò che avviene con l’impulso di RF, che determinerà nei tessuti la presenza di un segnale definito segnale di risonanza magnetica o segnale di precessione libera o FID (Free Induction Decay). Ciò può avvenire solo nella Magnetizzazione Trasversale, poiché solo l’impulso RF che la determina è variabile nel tempo. Il magnete esterno infatti determina magnetizzazione costante nel tempo.

Nella pratica, bobine o antenne vengono disposte sul segmento anatomico da esaminare, da qui parte l’impulso RF che determina il segnale di risonanza magnetica, che viene ricevuto dalla bobina stessa. Una volta ricevuto tale segnale di precessione libera, viene campionato, cioè diviso per unità di tempo, e in seguito digitalizzato (convertito in valori numerici) e trasferito all’elaboratore. Il risultato sarà una curva che osserva il segnale di risonanza in associazione al tempo, ma tali informazioni non sono utili ai fini dell’imaging di RMN, entra dunque in gioco la trasformata di Fourier, che considera e analizza lo spettro delle frequenze del segnale di precessione libera. La trasformata di Fourier estrapola quindi dalla frequenza totale (o spettro) del segnale di RM, le varie frequenze che lo compongono, che andranno a costruire le immagini di RM.

Quando cessa l’impulso di RF, vengono a mancare quelle condizioni che lo stesso aveva determinato: cioè vi è una desincronizzazione degli spin protonici, e un ritorno a livelli energetici più bassi (di orientamento parallelo a B0) di quei protoni precedentemente eccitati. Ciò determina la cessazione della Magnetizzazione Trasversale e la ricomparsa della Magnetizzazione Longitudinale. Questi due fenomeni avvengono simultaneamente, e il tempo impiegato nel decadimento della magnetizzazione trasversale è denominato Tempo di Rilassamento Trasversale, o T2 o spin-spin, mentre il tempo impiegato nella ricostruzione della magnetizzazione longitudinale, è identificato come Tempo di Rilassamento Longitudinale, o T1 o spin-lattice.

T1 è dunque il tempo necessario affinché i protoni passino da uno stato energetico più alto (antiparallelo a B0) allo stato precedente all’impulso di RF cioè allo stato energetico basso (parallelo a B0). Per fare ciò i protoni devono però perdere l’energia acquisita in precedenza, cedendola al microambiente circostante, altrimenti definito lattice (da qui Tempo di Rilassamento spin-lattice).

Tutto ciò determina il recupero della magnetizzazione longitudinale, ma questo non avviene immediatamente: dopo un tempo T1 la magnetizzazione longitudinale sarà del 63%, dopo due T1 sarà del 86%, dopo tre del 95%, e solo dopo 5 T1 del 100%. Il ripristino della Magnetizzazione Longitudinale è dunque una funzione di tipo esponenziale.

La velocità del tempo T1, dipende infatti dalla velocità con cui il lattice riceve l’energia ceduta, ciò è correlato alla frequenza di oscillazione del campo magnetico del microambiente (lattice), la velocità di aquisizione dell’energia da parte del lattice, aumenta all’avvicinarsi della sua frequenza a quella di Larmor, e dipende dai movimenti termici casuali delle molecole (movimenti Browniani), cha ancora dipendono dalla grandezza delle molecole stesse. Molecole piccole come quelle dell’acqua, avranno velocità elevata, dunque frequenza di oscillazione simile a quella di Larmor, dunque determineranno T1 brevi (circa 3 secondi), differentemente molecole grosse come il DNA daranno T1 molto lunghi.

Molecole intermedie come i lipidi, che hanno invece frequenza quasi uguale a quella di precessione dei nuclei di idrogeno, daranno T1 brevissimi nell’ordine di microsecondi. La velocità di T1, dipende inoltre dall’intensità del campo magnetico esterno B0, e aumenta all’aumentare di esso.


T2 rappresenta il tempo impiegato dai nuclei per desincronizzarsi, cioè il decadimento della Magnetizzazione Trasversale. Ciascun nucleo è però influenzato oltre che dal campo magnetico esterno, anche dai campi magnetici dei nuclei vicini, ciò determina un’ulteriore variazione della fase di precessione dei singoli nuclei, dunque l’accelerazione della perdita di sincronizzazione dello spin intrinseco. T2 dipende dunque dai momenti magnetici vari nuclei o spin (da qui Tempo di Rilassamento spin-spin). Anche in questo caso dopo un primo tempo T2 della Magnetizzazione Traversa e del Segnale di Risonanza rimarrà il 37% , dopo 2 T2 rimarrà il 14% del valore iniziale, dopo 3 T2 rimarrà il 5%, dopo 5 T2, decadrà il 100% del Segnale di Risonanza e della Magnetizzazione Traversa iniziale. Anche in questo caso si avrà dunque un andamento di tipo esponenziale.

Ma la situazione in cui il Rilassamento T2 è determinato solo dalle interazioni tra i vari nuclei è una condizione che non corrisponde alla realtà. Poiché variazioni, se pur minime, di B0 sono presenti, queste disomogeneità producono delle accelerazioni nella desincronizzazione dei nuclei, che non si riscontrerebbero in una condizione di ipotetica omogeneità di B0. Questa condizione è denominata T2*, per differenziarla dalla condizione ideale T2, che si presenterebbe in presenza di un campo magnetico esterno perfettamente omogeneo, in cui la desincronizzazione nucleare (dunque il decadimento della Magnetizzazione Traversa) avviene solo ad opera spin-spin, cioè solo grazie all’interazione dei nuclei. È comunque possibile ricavare T2 da T2*, poiché le disomogeneità di B0 sono costanti nel tempo, dunque facilmente quantificabili, in contrapposizione con la casualità delle interazioni spin-spin. Il ricavo di T2 da T2* lo si ottiene mediante impulsi di radiofrequenza, in sequenze denominate Spin Echo (si veda oltre).

L’efficienza del rilassamento T2 dipende dall’intensità dei campi magnetici che si verificano a livello molecolare. Molecole di grandi dimensioni, a causa della minore mobilità creano campi magnetici maggiori di quelli indotti da molecole più piccole. Di conseguenza molecole più grandi hanno tempi di rilassamento T2, o spin spin, più brevi, poiché il campo magnetico da esse generato è più intenso.

T2 può essere uguale o inferiore a T1, entrambi dipendono dalla mobilità molecolare, ma in maniera inversa. Quando la mobilità è bassa, ad esempio in solidi a basse temperature, T1 è nell’ordine di secondi, mentre T2 nell’ordine di microsecondi, poiché come visto: bassa mobilità determina alti campi magnetici dei tessuti, dunque accelera i tempi di rilassamento T2 ma rallenta i tempi di rilassamenti T1, poiché tali tempi sono accelerati da frequenze elevate (simili a quelle di Larmor), che invece si presentano in molecole piccole.



Le Sequenze

L’immagine di risonanza magnetica viene dunque prodotta dal segnale emesso (per induzione elettromagnetica) dopo l’impulso di radiofrequenza. L’ampiezza dei segnali generati è dipesa sia dal numero di protoni per unità di volume, cioè dalla Densità Protonica, sia dai differenti tempi di recupero della magnetizzazione longitudinale, e di perdita della magnetizzazione trasvesale delle varie specie nucleari; (dipende cioè dai differenti T1 e T2 dei tessuti). Poiché per i diversi tipi di tessuti la densità protonica è più o meno la stessa, il contrasto dell’immagine è generato, quasi esclusivamente dai T1 e T2 tessutali. Esistono numerose sequenze capaci di esaltare i T1 o i T2 dei vari tessuti. Per sequenza si intende una serie di impulsi di radiofrequenza, emessi a tempi di ripetizione (TR) prestabiliti. Le principali sequenze sono: · FID o Satutation Recovery o Partial Saturation · Inversion Recovery (IR) · Spin Echo (SE)

Più una serie notevole di altre sequenze più o meno complesse utilizzate per studi anatominci specifici.

FID Si tratta della sequenza più semplice, è formata infatti da una serie di impulsi di radiofrequenza a 90°, intervallati in maniera identica l’uno dall’altro. Ciacun impulso ha dunque la durata sufficiente per far ruotare i momenti magnetici dei nuclei in precessione (in sincronia) di 90°, cioè da un asse parallelo a B0 fino a raggiungere il piano trasverso x, y. Terminato ciascun impulso: 1. i protoni, emetteranno per il fenomeno dell’induzione elettromagnetica un segnale di RMN nell’antenna ricevente. 2. cominceranno a perdere la magnetizzazione trasversa acquisita con l’impulso (comincerà cioè il T2), e cominceranno a riacquistare la magnetizzazione longitudinale, in attesa del prossimo impulso di radiofrequenza che determinerà nuovamente le condizioni sopra descritte.

I vari segnali di RMN verranno poi campionati ed elaborati e produrranno un segnale di intensità variabile nell’immagine ricostruita. Tale variabilità del segnale è dipesa dalla sua intensità, che a sua volta è associata alle capacità differenti dei nuclei di riacquistare la propria magnetizzazione longitudinale (T1 brevi o lunghi).

In pratica, una volta terminato un impulso di RF, decade la magnetizzazione trasversale e si comincia a recuperare quella longitudinale, ma se dopo un determinato tempo di ripetizione (TR) viene emesso un altro impuso di RF a 90°, il segnale ragistrato sarà più intenso per quei tessuti che sono stati capaci di riacquistare maggiormente la magnetizzazione longitudianle (cioè hanno T1 brevi), mentre sarà inferiore o nullo per quei tessuti con T1 lungo, inquanto nel tempo compreso tra i due impulsi (TR) non sono stati capaci recuperare la propria magnetizzazione longitudinale; tali tessuti sono detti parzialmente saturati (da qui Partial Saturation).



I segnali intensi iconograficamente appaiono come chiari, quelli ipointensi come scuri. È logico che a TR lunghi tutti i tessuti avranno la possibilità di riacquistare la magnetizzazione longitudinale, dunque le immagini ottenute risulteranno pesate soltanto rispetto alla densità protonica, poiché si ricorda che l’intensità del segnale dipende anche dal numero di protoni per unità di volume. Al contrario TR brevissimi mi daranno immagini soltanto “pesate in T1” cioè verranno rappresentati solo i tessuti con T1 brevi.


Inversion Recovery (IR)

Anche tale sequenza dipende quasi esclusivamente dai T1 tessutali, e a differenza della FID è molto più utilizzata. Consiste in una coppia di impulsi RF, di cui il primo è a 180° e il secondo a 90°. Il tempo che intercorre tra i due impulsi è definito TI (ti). (tempo tra due impulsi = TI

tempo tra due coppie di impulsi = TR) 

Dopo il primo impulso (cioè di 180°) viene ruotata la magnetizzazione longitudinale da parallela a B0 ad antiparallela, terminato l’impulso, comincerà prima un tempo in cui si va ad azzerare la magnetizzazione longitudinale negativa (fino allo zero), e poi si comincerà a riacquistare quella positiva.



Durante questo processo non è generato nessun segnale poiché siamo nel campo di una magnetizzazione longitudinale negativa, quando però applichiamo il secondo impulso (di 90°) dopo un tempo TI , questo ruota magnetizzazione longitudinale presente in quell’istante lungo il piano x, y, con la conseguente produzione del segnale di RMN.

Questa sequenza è utile qualora si vogliano sopprimere i segnali di alcuni tessuti, poiché è possibile applicare l’impulso di 90° quando alcuni tessuti hanno ancora magnetizzazione longitudinale negativa, cioè prima che tali tessuti abbiano superato il punto 0, utilizzando cioè tempi TI (ti) molto brevi, in questo modo questi tessuti non produrranno alcun segnale, e verranno invece esaltati i segnali degli altri tessuti che hanno T1 più brevi. In pratica per ogni tessuto esiste un certo valore di TI (ti), cioè di tempo tra l’impulso di 180° e quello di 90°, capace di annullare il segnale del tessuto stesso. Per esempio, con TI nell’ordine di 100 millisecondi si annulla il segnale del tessuto adiposo, utile per evitare artefatti da esso prodotti in fase respiratoria. Con TI molto brevi la IR prende il nome di STIR (cioè Short TI Inversion Recovery) Un’altra variante dell’IR è la FLAIR (Fluid Attenuated Inversion Recovery) capace di eliminare il segnale del liquor cerebrale, applicando l’impulso di 90° quando la magnatizzazione longitudinale del liquor ha raggiunto valore zero.


Spin Echo (SE)

Tale sequenza è di gran lunga la più utilizzata nell’imaging clinica. È una sequenza molto flessibile capace di determinare immagini sia pesate in T1 che in T2 che in Densità Protonica. Anche in questo caso si utilizzeranno coppie di impulsi, ma il primo sarà a 90° e il secondo a 180°.

Con l’impulso di 90° la magnetizzazione si sposta da un piano parallelo a B0 nel piano x,y perpendricolare a B0, determinando una magnetizzazione trasversale. Terminato l’impulso comincia il tempo T2, cioè si desincronizzano i nuclei messi in stessa fase di precessione dall’impulso di RF. Come detto questa desincronizzazione dipende sia dall’interazione tra i vari dipoli magnetici (spin-spin), sia da una disomogeneità del campo magnetico esterno B0. Dopo un dato tempo TI (ti) viene applicato il secondo impulso di 180° che inverte il senso di rotazione dei nuclei. In pratica: i nuclei che più velocemente si stavano desincronizzando e che dunque stavano riottenendo la magnetizzazione longitudinale, vengono a troversi dopo l’impulso di 180° dietro a quelli che erano ultimi nella desincronizzazione. In altre parole i nuclei o spin possono essere paragonati a dei corridori che finito l’impulso di 90° partono in direzione dell’asse Z, alcuni i più veloci (A) sono più vicini all’asse Z altri i più lenti (B) sono più lontani. Ad un certo punto della corsa viene impartito l’ordine di invertire la marcia con l’impulso di 180°, gli ultimi (B) dunque risulteranno i primi e viceversa quelli che in precedenza erano primi (A) risulteranno gli ultimi, ma gli “A” essendo più veloci dopo il termine dell’impulso di 180° riacquisteranno terreno rispetto ai “B” riallineandosi di nuovo a questi dopo un tempo pari a 2TI, altrimenti detto TE (Tempo di Eco), tutti i nuclei si trovano ora di nuovo in fase e può comparire un segnale definito eco.


Il secondo impulso cioè quello di 180° è un impulso sincronizzante, poiché permette la resincronizzazione degli spin dei vari nuclei, che andavano desincronizzandosi dopo l’impulso di 90°, ognuno con la propria velocità di desincronizzazione (T2). Ma come detto T2 oltre a dipendere dal rapporto dipolo-dipolo o spin-spin, dipende anche dalla disomogeneità, comunque presente del campo magnetico esterno B0. L’impulso di 180° dunque, elimina l’influenza di tale disomogeneità.

Pertanto l’intensità del segnale prodotto dalla RF di 180°, cioè l’eco, dipende dalla quantità del decadimento della magnetizzazione trasversale avvenuta in un dato tempo TI, dipende cioè dai vari T2 tessutali. I vari tessuti infatti hanno diversi T2 e dunque generano tempi di eco di differente intensità. Tessuti con T2 lunghi determineranno echi intensi, rappresentati con tonalità chiare. Tessuti con T2 brevi determinano invece echi deboli, rappresentati con tonalità scure.

Il TE è come detto il tempo di comparsa del segnale di eco ed è uguale a 2TI, nella pratica si utilizzano TE compresi tra 15 e 160 millisecondi. Incrementando TI si ottengono aumenti di contrasto tra tessuti con differenti T2, cioè immagini pesate in T2, date cioè da quei nuclei che ancora conservano una certa sincronizzazione. Incrementando TI però sempre più nuclei si saranno desincronizzati, dunque soltanto pochi di questi avranno ancora magnetizzazione trasversa, qundi il segnale emesso risulterà debole, diminuirà cioè il rapporto segnale rumore. Viceversa diminuendo il tempo TI (è identico dire: diminuendo il tempo TE) si avranno immagini meno pesate in T2 e più pesate in T1.

Riassumendo: Diminuendo il tempo TE (2TI) si ottengono immagini T1 pesate, Aumentando il tempo TE si ottengono immagini T2 pesate.



Con TR > di T1 e TE brevi si ottengono immagini date dalla densità protonica, poiché: TR è maggiore di T1 dunque tutti i nuclei possono riacquistare la magnetizzazione longitudinale, dunque immagini non pesate in T1, ma il TE breve non mi darà neanche immagini pesate in T2, poiché pochi saranno i nuclei che si desincronizzano così velocemente, dunque si avranno immagini pesate per densità protonica. Viceversa con TR inferiore a T1 le immagini saranno ancora più T1 dipendenti poiché pochi tessuti riusciranno a riacquistarre la magnetizzazione longitudinale.


Fast Spin Echo (FSE)

È una modifica della classica SE a cui ad ogni impulso di 90° seguono una serie di impulsi di 180°, ciascuno dei quali produrrà un eco, ciascuno di tali segnali verrà poi codificato a formare l’immagine. In altre parole, mentre con la SE dopo ciscun tempo TR, si considera per la ricostruzione dell’immagine il segnale emesso dopo l’impulso (che è unico) di 180°, con la FSE se ne considerano diversi, cioè si codificano più linee, con la conseguente riduzione della durata dell’esame. L’esasperazione di tale tecnica è la cosiddetta Eco Planar, in cui in un solo tempo TR si acqusisce l’immagine, applicando un solo impulso a 90° e un treno di impulsi a 180°.


I Gradienti Magnetici

Il segnale di risonanza ottenuto dopo l’impulso di RF, non dà di per se informazioni circa la disposizione spaziale dei vari nuclei dei segmenti anatomici in esame. Per ottenere tali informazioni si fa uso dei Gradienti Magnetici. Per comprendere tale concetto si deve considerare che: · per localizzare spazialmente un qualsiasi punto, si ha la necessità di ricorrere a tre piani dello spazio x, y e z · la frequenza di precessione dei protoni è, come è stato detto, data sia dalla costante giromagnetica, che dall’intensità del campo magnetico esterno B0.

Come detto, B0 è più o meno omogeneo, pertanto introducendo delle disomogeneità controllate in B0, secondo i tre piani dello spazio, è possibile far risuonare i nuclei a frequenze diverse, da noi stabilite, atte a farci identificare la localizzazione spaziale dei nuclei ai quali sono applicate tali disomogeneità.

Questi campi magnetici variabili, prendono il nome di Gradienti Magnetici, e vengono misurati in Gauss per centimetro, o Tesla per metro. Poiché per definire un punto nello spazio abbiamo bisogno di tre piani (x, y, z), i gradienti applicati saranno 3: GX, GY e GZ.

Le componenti del segnale di RM emesso dopo l’impulso di RF sono: frequenza, fase di precessione e ampiezza. Con l’utilizzo di tali gradienti queste componenti derivanti dal solo tessuto in esame, saranno modificate omogeneamente, permettendo la localizzazione spaziale dei nuclei di tali tessuti.

Il segnale di RM ottenuto, dunque oltre a contenere informazioni circa la densità protonica, i tempi T1 e T2 dei tessuti che l’hanno generato, avrà anche informazione circa la localizzazione spaziale dei nuclei di interesse.

I gradienti si ottengono con bobine interne a B0 poste l’una di fronte all’altra, attraverso la quale è fatto passare un campo elettrico, che altera, anche se in minima parte il campo magnetico esterno B0. Dalle prestazioni dei Gradienti Magnetici, dipendono le prestazioni dell’intero sistema.


Mezzi di Contrasto per Risonanza Magnetica

Anche se la RM è già dotata di un’ottima risoluzione di contrasto, questa può ulteriormente essere migliorata con l’utilizzo dei mezzi di contrasto.

Le immagini di RM sono date da parametri da noi variabili, cioè TE, TI, e TR; e da paramentri tipici di ogni tessuto, cioè T1 e T2, invariabili senza MDC.

È proprio infatti compito di tali MDC (paramagnetici e superparamagnetici) influenzare tali tempi di rilassamento; accorciando i tempi di rilassamento dei protoni attraverso un effetto elettromagnetico sul mezzo circostante, sono quindi più dei modificatori di segnale che non mezzi di contrasto.

· I paramagnetici, come quelli basati sul Gadolinio, abbreviano sia T1 che T2 (principalmente il T1). · I superparamagnetici, come per esempio l’ossido di ferro (Fe3O4) agiscono esclusivamente sul T2.


I Paramagnetici Sono dette paramagnetiche quelle sostanze che, essendo dotate di elettroni spaiati, sono facilmente spinte a farsi magnetizzare. Il gadolinio è tra queste quello più utilizzato, i suoi ioni metallici liberi sono però dannosi e tossici poiché possono legarsi agli atomi di ossigeno, azoto o zolfo delle molecole proteiche, dunque vengono accoppiati con chelanti quali DTPA, DOTA ecc.

L’accorciamento dei tempi di rilassamento è dovuto al fatto che tali sostanze possiedono, a livello molecolare, campi magnetici locali che aumentano la risposta dei tessuti ai quali sono sottoposti, addizionadosi all’azione del campo magnetico esterno. A differenza delle altre metodiche in RM non si osservano i tessuti opacizzati dal MDC, ma si osserva l’effetto magnetico di questo sui tessuti raggiunti.

Più precisamente i paramagnetici agiscono sul T1 con piccole concetrazioni, con conseguente aumento del segnale, e sul T2 a concetrazioni più elevate. Ciò logicamente dipende dalla quantità di contrasto somministrato, e poiché tali quantità somministrabili sono nell’ordine di 0.1 – 0.2 millimoli/Kg, cioè minime, si può dire che i paramagnetici agiscono quasi esclusivamente sul T1.



Il Gd-DTPA: · Non supera la barriera ematoencefalica intatta · A rarissimi effetti collaterali rari · Può indurre cefalea e sensazione di calore · Viene eliminato per via epato-biliare


I Superparamagnetici Si definiscono tali quelle sostanze facilmente spinte ad essere magnetizzate, molto più di quelle paramagnetiche. Più importante tra queste è l’ossido di ferro o magnetite, la somministrazione di questo MDC produce a differenza del gadolinio un marcato accorciamento del T2. L’accorciamento del tempo T2, determina una desincronissazione più veloce, dunque diminuzione del segnale, poiché solo pochi protoni (quelli con lungo T2) saranno ancora sincronizzati, ciò determina la classificazione come negativi di tali MDC.


Riassumendo: · Paramagnetici che agiscono sul T1 accorciandolo (vengono definiti positivi, poiché amplificano il segnale dato dai vari T1).

· Superparamagnetici che agiscono sul T2 (riducendo il segnale, dunque sono definiti negativi).


Esistono poi MDC Diamagnetici che non hanno suscettibilità magnetica (es. acqua, la quale in T1 dà segnale ipointenso e in T2 iperintenso). Queste non possiedono elettroni spaiati negli orbitali esterni, di conseguenza sono prive di influenza sul magnetismo circostante ma agiscono sulla densità protonica aumentandola.


La Spettroscopia con Risonanza Magnetica (MRS)

È l’unica metodica non invasiva capace di valutare quantitativamente le sostanze chimiche contenute in un organismo.

Come detto l’intensità del campo magnetico a livello nucleare, dipende dall’intensità del campo B0, tuttavia, una piccola parte del campo magnetico nucleare dipende anche dagli elettroni che circondano quello stesso nucleo ed i nuclei adiacenti.

Questa leggera modificazione del campo magnetico nucleare prende il nome di Chemical Shift (Spostamento Chimico), ciò significa che i nuclei di un dato elemento risuonano a frequenze leggermente differenti a seconda della natura della molecola in cui si trovano. Tale Chemical Shift consente di individuare l’analisi dello spettro di frequenze di differenti molecole, per esempio i differenti gruppi chimici contenenti idrogeno all’interno di una proteina.

Il segnale analizzato, che è molto intenso se si considera l’H, è più debole con specie atomiche come Carbonio 13, Sodio 23, Fosforo 19 o altri protoni che non sono contenuti nella molecola d’acqua, ma comunque tale da permettere di ottenere la rappresentazione grafica della concentrazione di questi elementi in un determinato metabolita. La spettroscopia genera un segnale di spettroscopia con propria frequenza di risonanza che viene misurata in parti per milione (ppm).

Questo sistema dunque consente di effettuare studi di tipo metabolico valutando la presenza e la concentrazione di alcune sostanze, che possono essere presenti in condizioni fisiologiche o patologiche.

Le caratteristiche di acquisizione per fare questi studi devono però comprendere un elevato rapporto segnale/rumore, che abbiamo con intensità di campo elevato, non meno di 1.5 Tesla.

Importante, dal punto di vista metodologico, è la corretta organizzazione del volume di studio:

Tale studio parte sempre da una Survey (scanogramma), · ad esempio con la tecnica Single Voxel abbiamo su un’immagine di RM due tipi di lesioni, mettiamo una ROI sul singolo voxel e chiediamo lo spettro del protone, del fosforo, ecc., della regione di studio, ed eventualmente si confrontano le misure delle lesioni con quelle del tessuto normale.

· nella tecnica Multi Voxel si esegue un campionamento multiplo su volumi divisi in tanti voxel e ad ogni voxel corrisponde uno spettro. (in questo caso non abbiamo bisogno di fare un volume di controllo, cioè del tessuto normale perché consideriamo più voxel).

Trattandosi di acquisizioni simultanee di spettri, possiamo studiare più componenti, quindi dal punto di vista spaziale possiamo fare dei rilievi in zone specifiche a seconda del posizionamento.

Con un apparecchio a 3 Tesla, rispetto auno a 1.5 Tesla, riusciamo ad avere un migliore rapporto segnale/rumore e a separare maggiormente i picchi, aumenta in pratica il Chemical Shift.