Fragmenta
  • Home
  • Quotes
  • Mediamix
  • Pics 'nd Trips
  • WESTerday, Now, Tomorrow
  • D4u - Dance 4 yoU
  • From Stone To Iphone
  • PressExpress
  • Links

Monopolo magnetico! 

2/3/2014

0 Comments

 
Previsto oltre ottant'anni fa dal fisico britannico Paul Dirac, il monopolo magnetico, o meglio un suo equivalente, è stato rilevato per la prima volta in modo diretto da un esperimento effettuato da David Hall, dell'Amherst College, in Massachusetts. Il risultato, pubblicato su "Nature", è stato raggiunto grazie all'applicazione di un campo magnetico ad atomi di rubidio mantenuti in condizioni di ultrafreddo, cioè a poche decine di milionesimi di grado sopra lo zero assoluto.

Il monopolo magnetico ha rappresentato una sorta di Sacro Graal della fisica fin dall'elaborazione della teoria elettromagnetica, negli ultimi decenni dell'Ottocento, a causa di un'evidente asimmetria tra fenomeni elettrici e fenomeni magnetici. Mentre le cariche elettriche si possono separare, ottenendo i monopoli elettrici (corpi con una carica definita, positiva o negativa, nel limite microscopico un protone o un elettrone, rispettivamente), è impossibile fare lo stesso con i poli magnetici, indicati convenzionalmente come "nord" e "sud". Se prendiamo una barretta magnetica, per esempio l'ago di una bussola, è possibile individuare un polo sud e un polo nord, ma questi poli non si possono separare: se si spezza in due l'ago magnetico, si ottengono di nuovo due aghi dello stesso tipo, più piccoli, ciascuno dei quali dotato di un polo sud e un polo nord. In altri termini, sembra impossibile isolare un polo magnetico.

Eppure le leggi della fisica dicono il contrario. In un lavoro teorico del 1931, ricordato come una pietra miliare della fisica, Dirac affrontò il problema combinando le leggi dell'elettrodinamica classica con quelle della meccanica quantistica, trovando non solo che il monopolo magnetico può esistere, ma anche che la sua esistenza è strettamente legata a un'altra proprietà fondamentale della materia: la quantizzazione della carica elettrica, cioè il fatto che in natura la carica elettrica appare sempre in forma di un multiplo intero di una carica elettrica elementare, quella dell'elettrone (ovviamente segno a parte).

Uno dei sistemi più promettenti per ottenere questa conferma sperimentale è il condensato di Bose-Einstein (BEC), cioè un insieme di atomi o altre particelle a spin intero, denominate bosoni, portati a temperature vicinissime allo zero assoluto. In queste condizioni, le particelle componenti hanno tutte la stessa energia, e sono praticamente indistinguibili l'una dall'altra, eccetto per il fatto che conservano ancora un proprio stato di spin, che è possibile manipolare applicando un campo magnetico dall'esterno.

In un lavoro teorico pubblicato nel 2009 sulle “Physical Review Letters” Ville Pietilä e Mikko Möttönen del Politecnico di Helsinki, in Finlandia, avevano dimostrato che proprio con questa manipolazione è possibile produrre diversi schemi di orientamento degli spin degli atomi che costituiscono un condensato di Bose Einstein. In certe condizioni, è anche possibile produrre zone di “vortice”, in cui localmente gli spin si avvolgono a spirale intorno a una certa direzione, che sono le manifestazioni di un monopolo magnetico secondo le previsioni di Dirac.

Questo lavoro ha indicato una strada per ottenere praticamente il monopolo magnetico che è stata seguita in laboratorio da Hall e colleghi, usando un BEC composto da atomi di rubidio immerso in un campo magnetico prodotto da quattro diverse serie di bobine. L'osservazione diretta dei vortici degli spin previsti per via teorica così ottenuta conferma sperimentalmente l'esistenza dei monopoli magnetici di Dirac. Gli schemi secondo cui appaiono questi vortici, inoltre, sono in ottimo accordo con le simulazioni al computer condotte dagli stessi autori.

Si tratta di un risultato che, secondo gli autori, conferma in modo definitivo la correttezza dell'intuizione di Dirac, aprendo la strada a nuove ricerche teoriche e sperimentali su stati della materia e su fenomeni quantistici ancora in gran parte inesplorati.

da LeScienze - link
Articolo su Nature originale - link
0 Comments

Le 10 scoperte più importanti del 2013 secondo Science

12/20/2013

0 Comments

 
1. Immunoterapia contro i tumori. La ricerca sul cancro è forse quella che in ambito biomedico ha più deluso le aspettative negli ultimi decenni, con risultati tutto sommato modesti rispetto ad annunci e previsioni forse un po' troppo ottimistiche. Il 2013 ha però mostrato che la strada dell'immunoterapia potrebbe essere finalmente quella giusta. L'immunoterapia definisce innanzitutto un nuovo paradigma di cura, perché ha come obiettivo non tanto la massa tumorale in sé ma il sistema immunitario del malato, che viene “ingegnerizzato” per reagire al cancro. L'idea viene da lontano, dalla fine degli anni ottanta, quando vennero identificati sulla superficie dei linfociti T, cellule del sistema immunitario, specifici recettori chiamati CTLA-4. Pochi anni dopo, l'immunologo James Allison, ora all'Anderson Cancer Center di Houston, scoprì che questo recettore mette un freno all'azione del sistema immunitario. Il blocco di CTLA-4, si pensò, avrebbe consentito all'organismo di lanciare un attacco immunitario di notevole portata e intensità contro il tumore. Nei primi anni novanta, un gruppo di ricercatori giapponesi ha identificato un altro “freno” del sistema immunitario, denominato PD-1. La ricerca in questo campo ha subito poi un'accelerazione nel 2011, con la terapia dell'antigene chimerico (CAR), che viene attualmente testata in numerosi trial clinici. Le aziende farmaceutiche, prima caute, stanno investendo somme considerevoli sull'immunoterapia: Bristol-Myers Squibb ha ottenuto risultati incoraggianti sul melanoma metastatico, grazie all'associazione del trattamento anti-CTLA-4 con il farmaco ipilimumab. Quest'anno finalmente anche gli scettici si sono convinti dei risultati delle numerose sperimentazioni cliniche. Risultati che tuttavia sono solo un punto d'inizio per una nuova strada. Per continuare a percorrerla, occorre trovare biomarcatori che permettano dI identificare i pazienti che possono beneficiare al meglio dell'immunoterapia.

2. CRISPR, il bisturi genetico. Cinquanta pubblicazioni in dieci mesi: è in pieno sviluppo lo sfruttamento di una nuova tecnica che permette di attivare, disattivare o sostituire geni con grande precisione e facilità. Questa specie di nanochirurgia genetica, denominata CRISPR (da Clustered Regularly Interspaced Short Palindromic Repeats), resa possibile da un “nanobisturi” scoperto di recente: si tratta di una proteina batterica denominata Cas9, accoppiata a una sequenza di RNA.

3. Celle solari a perovskite. Una nuova generazione di celle fotovoltaiche, più economiche e facili da produrre rispetto a quelle tradizionali in silicio, sono basate sulla perovskite, un minerale composto da ossigeno, titanio e calcio. Il tallone d'Achille di questa tecnologia è sicuramente l'efficienza, che attualmente non supera il 15 per cento, contro il 20-25 per cento delle celle tradizionali. Ma era del 3,8 per cento solo quattro anni fa, e c'è da scommettere che migliorerà ancora, grazie al forte sviluppo di cui è protagonista.

4. Progettare vaccini con la biologia strutturale
. La possibilità di osservare e manipolare le molecole con precisione sempre più grande sta dando i suoi frutti anche nel campo della progettazione di vaccini. A maggio, un gruppo di ricercatori dello statunitense National Institute of Allergy and Infectious Diseases (NIAID) ha tracciato nei minimi particolari il meccanismo di azione di un anticorpo in grado di legarsi a una specifica proteina, denominata proteina F, sulla superficie del virus respiratorio sinciziale (RSV), e di inibire così l'infezione da parte di questo virus che nel mondo uccide circa 160.000 bambini ogni anno. A novembre, lo stesso gruppo di ricerca ha dimostrato che il risultato ottenuto in precedenza può essere sfruttato per progettare una proteina F da usare come immunogeno, il principale componente di un vaccino. Le prime sperimentazioni fanno ben sperare che sia questa la strada giusta per trovare un vaccino contro l'RSV.

5. CLARITY, il cervello trasparente. Non poteva che chiamarsi "chiarezza" (clarity, in inglese) una nuova tecnica di imaging che rende il tessuto cerebrale trasparente e quindi i neuroni e le altre cellule cerebrali perfettamente visibili. Questo risultato, che rappresenta un progresso notevole per le neuroscienze, è reso possibile dalla rimozione delle molecole lipidiche che costituiscono le membrane cellulari dei tessuti cerebrali, molecole che diffondono la radiazione luminosa rendendo meno nitide le immagini. Questa nuova tecnica permette di sostituire i lipidi con un gel trasparente, lasciando intatto il resto delle strutture cellulari. Chiaramente, si tratta di un processo di preparazione che può essere effettuato solo post mortem.

6. I mini-organi. Abbozzi di fegato, mini-reni e anche cervelli: sono questi i minuscoli “organoidi” che ora è possibile realizzare in vitro, come hanno dimostrato alcune ricerche pubblicate nel 2013. Lasciate in un terreno di coltura senza ulteriori interventi esterni, le cellule staminali pluripotenti indotte (iPS), ottenute riprogrammando cellule adulte allo stato staminale, crescono in modo incontrollato, formando una massa disorganizzata di cellule cardiache, neuroni, denti e peli. I ricercatori hanno però capito come dirigere il differenziamento delle staminali in tessuti strutturati, fino a riprodurre organoidi con alcune funzionalità tipiche degli organi pienamente sviluppati. Se si guarda in prospettiva, si tratta probabilmente del primo passo sulla lunga strada verso la realizzazione di organi funzionali che possano servire da “pezzi di ricambio” per animali ed esseri umani. Ma ci sono vantaggi molto più immediati. I mini-cervelli per esempio hanno consentito di chiarire alcuni meccanismi cruciali della microcefalia, una condizione patologica in cui il cervello non raggiunge un pieno sviluppo.

7. Raggi cosmici dalle supernove. Dopo tanti anni di ipotesi e prove parziali, finalmente nel 2013 è arrivata la conferma, grazie a uno studio con una forte partecipazione italiana e basato sulle osservazioni del telescopio spaziale Fermi della NASA che scruta il cielo nei raggi gamma: i raggi cosmici che colpiscono la Terra provengono dalle supernove, le esplosioni che interessano le stelle giunte al termine del loro ciclo vitale. Ricostruire il loro percorso all'indietro fino alla sorgente non è stato facile. I protoni, che costituiscono la quasi totalità dei raggi cosmici, sono particelle elettricamente cariche, quindi sono deviate dai campi magnetici. La strategia degli scienziati è stata quindi la ricerca della “firma" nei processi che seguono l'emissione dei protoni. Ogni supernova produce protoni che vengono accelerati dall'onda d'urto che accompagna l'esplosione di supernova. I protoni poi si scontrano tra di loro, producendo altre particelle elementari chiamate pioni, le quali a loro volta vanno incontro a un processo di decadimento, con la produzione di coppie di fotoni di alta energia. Questi ultimi sono stati rilevati proprio da Fermi nello spettro di radiazione dei resti di due supernove denominate IC 433 e W44 nella nostra galassia.

8. Embrioni umani clonati
. Il 2013 è stato un anno cruciale anche nel campo della ricerca sulle cellule staminali, uno studio ha dimostrato infatti di aver clonato embrioni umani e di averli usati come fonti di queste cellule. La tecnica impiegata nello studio, denominata trasferimento del nucleo di cellule somatiche (SCNT), è la stessa usata per clonare la pecora Dolly nel 1996 e successivamente ripetuta su topi, maiali, cani e altri animali. Ma non è mai riuscita nell'essere umano, se non per la produzione di embrioni di scarsa qualità, non in grado per esempio di produrre cellule staminali. Nel 2007 però un gruppo dell'Oregon National Primate Resarch Center a Beaverton clonò, proprio con la SCNT, embrioni di scimmia in grado di produrre staminali, dimostrando che nei primati è fondamentale il ruolo della caffeina. Questa sostanza sembra infatti in grado di stabilizzare le molecole cruciali negli ovociti umani. Ora la SCNT si è dimostrata efficace anche nell'uomo, ma quanto sarà utile per la ricerca biomedica? È la domanda ricorrente, considerando che la riprogrammazione di cellule somatiche adulte in cellule staminali pluripotenti è una tecnica alternativa per ottenere cellule staminali affidabile e non gravata da questioni etiche, come invece la clonazione.

9. Perché dormiamo? Per lasciare spazio alle "pulizie". Uno studio sui topi ha dimostrato che il cervello ha un sofisticato sistema di autopulizia, che sfrutta l'espansione in volume di una rete di canali tra i neuroni che permette al liquido cerebrospinale di scorrervi in misura maggiore. Questo processo permette di smaltire prodotti di scarto come le proteine beta amiloidi e avviene con maggiore efficienza durante il sonno, con una diminuzione delle dimensioni delle cellule fino al 60 per cento, che lascia più spazio ai canali. Questo risultato suggerisce che l'effetto ristoratore del sonno sia legato almeno in parte a questo meccanismo di smaltimento dei prodotti di scarto del metabolismo, con potenziali implicazioni per la il mantenimento della funzionalità cerebrale. Anche se saranno necessarie conferme sperimentali da studi su altre specie e soprattutto sull'essere umano, l'idea delle "pulizie notturne" spiegherebbe anche perché la deprivazione di sonno è un fattore di rischio per lo sviluppo di patologie neurologiche.

10. Un universo batterico nel nostro organismo. il corpo umano contiene mille miliardi di cellule batteriche, ospitate per lo più nell'apparato digerente e in particolare nell'intestino, che formano quello che viene chiamato biota. Gli scienziati stanno chiarendo molti processi utili al mantenimento dello stato di salute, soprattutto quelli coinvolti nel processi di digestione e delle difese immunitarie, che coinvolgono proprio il biota intestinale. Alcune terapie antitumorali, per esempio, necessitano del buon funzionamento dei microrganismi del nostro intestino per essere efficaci, come dimostrato quest'anno da uno studio pubblicato su "Nature". Altri collegamenti prima sconosciuti riguardano la mancanza di specifici ceppi batterici e l'insorgenza di un tumore del fegato riscontrato con più frequenza nei soggetti obesi, come dimostrato in due studi pubblicati su "Science". In futuro, la medicina sempre più personalizzata dovrà tenere conto di questo universo batterico che alberga nel nostro intestino.

link
0 Comments

Temperatura negativa!

1/9/2013

0 Comments

 
Sfruttando proprietà quantistiche, un gruppo di ricercatori della Ludwig-Maximilians-Universität di Monaco di Baviera e del Max-Planck-Institut per l'ottica quantistica a Garching è riuscito per la prima volta a portare una nuvola di 100.000 atomi di potassio - precedentemente portata a uno stato di condensato di Bose-Einstein - a una temperatura inferiore allo zero assoluto. "Le temperature che abbiamo ottenuto sono negative di alcuni nanokelvin", spiega Ulrich Schneider, che ha diretto la ricerca, descritta in un articolo pubblicato su “Science”.

Parlare di qualcosa che sia più freddo dello zero assoluto, può sembrare assurdo, ma solo perché intuitivamente si fa riferimento alla definizione di scala assoluta della temperatura introdotta da Lord Kelvin intorno alla metà del XIX secolo. Secondo questa scala, la temperatura assoluta di un gas è legata all'energia media delle particelle che lo compongono, per cui lo zero assoluto (0 K, pari a -273,15 °C), corrisponde allo stato teorico in cui le particelle sono prive di energia, mentre a temperature più elevate corrispondono valori di energia media progressivamente superiori.

Negli ultimi cinquant'anni, studiando stati esotici della materia, si è capito però che le cose sono più complesse e che la definizione di temperatura richiede maggiori specificazioni. Nei sistemi fisici più familiari, l'aggiunta di energia porta a un aumento del disordine, o entropia, del sistema: per esempio, riscaldando un cristallo di ghiaccio, questo fonde in un liquido, che ha uno stato più disordinato. Sottraendo energia, invece, il sistema diventa più ordinato. E proprio al rapporto fra variazione di energia fornita a un sistema e variazione della sua entropia fa riferimento una definizione più sofisticata di temperatura.

Per temperature assolute positive (in alto, in blu) gli stati di bassa energia sono i più popolati, per temperature assolute negative, a esere maggiormente occupati sono gli stati energetici più alti. (Cortesia LMU / MPQ Munich)I fisici però successivamente hanno scoperto che possono verificarsi situazioni in cui, fornendo energia al sistema, questo invece di diventare più disordinato diventa più ordinato: sono appunto i sistemi a temperatura (assoluta) negativa. Questa possibilità è legata al fatto che la temperatura di un sistema può essere vista come una distribuzione di probabilità delle energie a cui si trovano le sue particelle. Solitamente, gran parte delle particelle che compone un sistema ha un'energia vicina a quella media del sistema e solo poche di esse si trovano a energie elevate (o più basse). Tuttavia, in linea teorica questa distribuzione può essere invertita, portando a una situazione in cui il segno della temperatura assoluta cambia e da positivo diventa negativo.

A questa inversione di segno corrispondono altrettanti cambiamenti nei comportamenti dei sistemi a temperatura assoluta negativa: per esempio, mentre normalmente un gas riscaldato si espande, in questi singolari sistemi si contrae, e mentre di solito il calore fluisce da un corpo più caldo a quello più freddo, qui avviene l'opposto. Dal punto di vista matematico, un sistema a temperatura assoluta negativa si comporta come se fosse un sistema a temperatura infinita!

Sfruttando atomi ultrafreddi racchiusi trappole ottiche e una serie ben calibrata di raggi laser e campi magnetici per controllare con precisione il comportamento degli atomi, i ricercatori tedeschi hanno raggiunto una temperatura di alcuni nanokelvin inferiore allo zero assoluto per il loro gas ultrafreddo. Finora sistemi di questo tipo erano stati prospettati solo in via teorica; la dimostrazione che possano venire effettivamente creati apre la strada allo sviluppo di apparecchiature dotate di un'efficienza impensabile, pur dovendo essere di dimensioni nanoscopiche ossia a scale a cui si manifestano gli effetti quantistici. 

Lo studio dello strano comportamento dei sistemi a temperature negative, osservano Schneider e colleghi, potrebbe anche essere utile alla creazione di nuovi modelli cosmologici, e per comprendere meglio il comportamento dell'energia oscura, ovvero della misteriosa forza che si ipotizza contrastare la forza di gravità, agendo così da motore dell'espansione dell'universo
0 Comments

Verso lo spazio interstellare...!

12/6/2012

0 Comments

 
La Voyager 1 alle frontiere dello spazio interstellare
Potrebbe essere questione di mesi: l'oggetto più lontano da noi tra tutti quelli che l'uomo ha mai costruito, la sonda Voyager 1, procede nel suo viaggio verso la soglia dell'eliosfera, la gigantesca zona dello spazio, contenente l'intero sistema solare, nella quale il campo magnetico generato dal Sole è più intenso di quello interstellare. A riferire sulla nuova posizione della sonda, una delegazione di scienziati intervenuti il 3 dicembre all'American Geophysical Union meeting di San Francisco.

La Voyager 1 si trova a circa 18 miliardi di chilometri dal Sole, e da mesi gli astronomi sono in attesa del momento in cui la sonda abbandonerà l'eliosfera. Il vento solare attorno alla navicella aveva iniziato a diminuire già dalla fine del 2004, per spegnersi nel 2010, determinandone così l'ingresso nell'eliopausa, la zona cioè che racchiude l'eliosfera, dove il vento solare è azzerato dall'interazione con il mezzo interstellare.

L'anno scorso ci si aspettava che l'uscita dall'eliopausa fosse alle porte, salvo poi la smentita di settembre, quando una ricerca apparsa su Nature ha fatto sospettare che il traguardo fosse ancora molto lontano. Sulla base di misurazioni effettuate dalla sonda, si era ipotizzato che alla Voyager 1 mancassero fino a sette anni di viaggio dal confine esterno dell'eliosfera.

Le ultime interpretazioni sono più ottimistiche, ma non ci sono certezze. “Potrebbe trattarsi di di qualche mese, come di un paio d'anni”, spiega Edward Stone, del California Institute of Technology, responsabile scientifico della missione fin dagli anni settanta. Quel che è certo è che il campo magnetico che la sonda si trova ad attraversare subisce dei cambiamenti. Quando si modifica, è segno che le cariche provenienti dallo spazio interstellare interagiscono diversamente con quelle interne all'eliosfera. E' quindi possibile determinare se si trovi in un nuovo 'strato', ma non è altrettanto semplice capire se si tratta davvero dell'ultimo dell'eliopausa.

La Voyager 1 è entrata per la prima volta in un'area diversa il 28 giugno. Nella nuova regione il campo magnetico è molto più intenso di prima, ma segue ancora la stessa direzione: il segnale che dovrebbe suggellare l'ingresso della Voyager 1 nello spazio interstellare è proprio un cambio di direzione del campo magnetico.

Quel che invece lascia supporre che il traguardo si avvicini è il comportamento delle particelle cariche che circondano la sonda. Mentre prima si muovevano caoticamente in ogni direzione, adesso sembra esserci un flusso ordinato: quelle a bassa energia, provenienti dall'interno dell'eliosfera, tendono ad allontanarsi dalla regione, e quelle ad alta energia, provenienti dall'esterno, tendono ad avvicinarvisi. Questo permette anche di ricavare informazioni sullo spazio interstellare.

La Voyager 1 è stata lanciata il 5 settembre del 1977, pochi giorni dopo la gemella Voyager 2, oggi a circa a circa 5 miliardi di chilometri dal Sole. Entrambe le sonde hanno sfiorato Giove e Saturno, per poi proseguire verso l'esterno del sistema solare. La Voyager 1 è ora a una distanza tale che il suo segnale, per giungere fino a noi, impiega 17 ore, e si prevede che riesca a continuare a comunicare con la Terra fino al 2027.

Dal sito Le Scienze link
0 Comments

Storia della matematica

9/6/2012

0 Comments

 
Un bel documentario sulla storia della matematica.
0 Comments

Orbitone!

4/20/2012

0 Comments

 
Oggetti e qualità: nel nostro mondo quotidiano le consideriamo come qualcosa di ben diverso. Ma alla scala quantistica le cose non sono così semplici e spesso non è facile, o possibile, fare una netta distinzione. Una nuova conferma di questa strana caratteristica della meccanica quantistica viene da uno studio pubblicato sulla rivista “Nature” relativo al “frazionamento” dell’elettrone.

L’elettrone è una particella elementare, e come tale ha due proprietà intrinseche ovvero lo spin e la carica elettrica. Se però viene osservato legato a un nucleo atomico ne ha anche un’altra: ha anche un numero quantico che esprime il suo momento angolare, corrispondente all’orbitale atomico quantizzato che occupa.

La cosa più singolare è però che come particella libera l’elettrone è indivisibile, mentre si comporta in modo assai differente quando fa parte di una popolazione all’interno di un materiale solido, in cui ciascun elettrone può essere considerato uno stato legato di tre “quasi-particelle”, ciascuna delle quali ha una delle tre proprietà separate.

Quando le dimensioni del solido preso in esame vengono ridotte, per esempio fino a un cavo monodimensionale, la teoria quantistica prevede che queste quasi-particelle possano separarsi. Nello specifico, l’elettrone si separa in due quasi-particelle indipendenti, una che trasporta lo spin (lo spinone) e una che trasporta la carica (l’olone), come osservato per la prima volta 15 anni fa. 

La separazione spin-carica è un esempio di frazionalizzazione, un fenomeno in cui i numeri quantici delle quasi-particelle non sono multipli di quelli delle particelle elementari, ma loro frazioni. Questo effetto è una delle manifestazioni più inconsuete della fisica quantistica a multicorpi e riflette un concetto molto profondo che ha avuto importanti conseguenze in diverse teorie, per esempio nella descrizione della superconduttività ad alta temperatura negli ossidi di rame.

Nello studio è stata appunto realizzata un'ulteriore frazionalizzazione dell’elettrone. I ricercatori hanno preso in considerazione l’eccitazione di un grado di libertà orbitale del rame nell’ossido Sr2CuO3, un isolante monodimensionale, in grado di produrre un processo di separazione spin-orbita analogo del meccanismo di separazione spin-carica. 

Utilizzando una tecnica di diffusione inelastica risonante dei raggi X, Justine Schlappa, dell’Helmholtz-Zentrum Berlin für Materialien und Energie, insieme con Thorsten Schmitt del Paul Scherrer Institut di Villigen, in Svizzera, e Ralph Claessen dell’Università di Würtzburg, in Germania, è così riuscito a separare la “qualità” corrispondente al grado di libertà orbitale dell’elettrone tanto da poterla osservare come nuova quasi-particella: l’orbitone.

I ricercatori in particolare sono riusciti a osservare un orbitone che si separava dagli spinoni e si propagava attraverso il reticolo come una distinta quasi-particella con una sostanziale dispersione in energia sul momento,  pari a circa 0,2 elettronvolt.

(da Le Scienze - link)
0 Comments

i10 esperimenti di fisica + belli di sempre

4/16/2012

0 Comments

 
Nel maggio del 2002 la rivista Phisics World lanciava un curioso sondaggio ai suoi lettori, ricercatori di fisica di tutto il mondo. Chiedeva di segnalare l'esperimento "più bello" di sempre secondo loro,  motivando la loro scelta.
Riporto qui di seguito la Top Ten risultante. 
Tra le varie motivazioni che rendono particolarmente bello un'esperimento di fisica sono state indicate : a) la capacità di trasformazione ovvero la sua capacità di cambiare il modo di pensare e vedere il mondo; b)economia, ovvero con quanta efficacia e immediatezza la prova renda esplicito un certo risultato; c) l'eleganza e la semplicità.

10) Il Pendolo di Foucault.
Realizzato più di 150 anni fa, con questo esperimento il fisico Foucault dimostra in modo evidente la rotazione della Terra. Lo scienziato costruisce un pendolo lungo un paio di metri nella sua casa a Parigi e osserva che il suo piano di oscillazione ruota nel tempo in senso orario. Ovviamente non è il pendolo che ruota (era nota la sua proprietà di oscillare sempre nello stesso piano) ma la Terra sotto di lui!.

9)Rutherford e la scoperta del nucleo atomico.
Questo esperimento getta le basi per la comprensione della struttura atomica. Realizzato alla fine del XIX secolo, consiste nel bombardamento di un sottile strato d'oro con alcune particelle pesanti (nuclei di He). Viene osservato che molte attraversano la lamina d'oro, alcune invece rimbalzano esattamente all'indietro.  L'analisi dei risultati rende evidente che l'atomo non è un miscuglio di carica positiva e negativa sparsa qua e là, ma che la quasi totalità della massa (con carica positiva e neutra) è concentrata in una struttura centrale (il nucleo atomico) e che gran parte dello spazio dell'atomo è in realtà vuoto.  Una simile tecnica (ovviamente con mezzi più moderni) viene utilizzata oggi negli acceleratori di particelle per indagare sulla struttura della materia subatomica.

8) Galileo ed il piano inclinato.
Questo esperimento del fisico italiano modifica radicalmente l'idea aristotelica del moto, focalizzando l'interesse sull'accelerazione.  In particolare consente di verificare che lo spazio percorso da una sfera lungo un piano inclinato è proporzionale al quadrato del tempo impiegato e non al tempo, come supponeva Aristotele.

7) Erastotene e la misura della circonferenza terrestre.
Noto che a Siene il sole è esattamente allo zenit il giorno del soltizio d'estate, dalla misura dell'estensione dell'ombra proiettata da un bastone di altezza nota piantato ad Alessandria nello stesso giorno (e conoscendo  la distanza tra le due località), Erastotene nel terzo secolo a.C. riesce a ricavare una buona stima della circonferenza terrestre con un errore di appena l'1% rispetto alle stime attuali !

6) Cavendish e la costante di gravitazione universale.
L'obiettivo iniziale di questo esperimento, realizzato attraverso una bilancia di torsione e l'attrazione gravitazionale tra pesi di massa molto diversa, era finalizzato alla misura della densità media terrestre. Un sottoprodotto dei calcoli fu G , la costante che entra nella formula di Newton F=(Gm1m2/r²) che misura la forza di attrazione gravitazionale tra due corpi di massa m1 e m2 posti alla distanza r. 

5)Newton e la decomposizione della luce.
Newton fa passare un raggio del sole attraverso un prisma triangolare e osserva l'immagine prodotta sul muro della sua stanza. Come ora ben noto, si vedono proiettati tutti i colori dell'arcobaleno. Viene quindi dimostrato che la luce bianca è composta di varie componenti, ciscuna corrispondente ad una diversa lunghezza d'onda. Dimostra inoltre che nel passaggio da un mezzo (aria) ad un altro (vetro) ciascuna componente viene deviata in modo diverso (ovvero che l'indice di rifrazione dipende dalla lunghezza d'onda).

4)Young e l'interferenza della luce.
Un raggio di sole viene reso molto sottile mediante un piccolo foro. Successivamente viene fatto passare attraverso due fenditure strette e vicine. Sullo schermo posto di fronte compaiono una serie di frange chiare e scure. Ecco dimostrata l'interferenza delle onde luminose. Infatti le zone chiare corrispondono a dei massimi d'interferenza , quelle scure a dei minimi.

3)Millikan e la misura della carica dell'elettrone.
Questo esperimento consiste nell'osservare il moto in cui si muovono piccole gocce d'olio caricate elettricamente fra due piastre metalliche parallele caricate con tensione opposta fra loro tramite una batteria. Variando la tensione delle piastre le goccioline possono cadere per effetto della gravità, salire se domina la forza elettrostatica prodotta dalle piastre , o rimanere ferme nel caso di perfetto equilibrio. In questo ultimo caso è possibile risalire al valore della carica elettrica fondamentale .

2) Galileo e la caduta dei gravi
Si tratta più di un esperimento mentale visto che probabilmente la famosa caduta di due pesi diversi dalla Torre di Pisa avrebbe portato a risultati fuorvianti. Galileo per la prima volta però riesce ad isolare il fenomeno che si vuole studiare da tutti gli elementi di disturbo come l'attrito dell'aria ed estrapola i risultati in una condizione ideale. Capisce quindi che e' sbagliata la teoria di Aristotele per cui un corpo pesante cade più velocemente di uno più leggero. Entrambi cadono con la stessa accelerazione.

1)Interferenza da singolo elettrone.
Al primo posto della classifica viene premiato un esperimento italiano recente (1974) volto a dimostrare un aspetto della meccanica quantistica, ovvero che a livello microscopico le particelle materiali come gli elettroni si comportano anche come onde. In questo esperimento viene utilizzata la tecnica delle fenditure di Young ma al posto del raggio di sole viene usato un singolo elettrone. Contrariamente a quanto si possa pensare nel senso comune, l'elettrone attraversa contemporaneamente le due fenditure come fosse un'onda e genera frange d'interferenza sullo schermo.


0 Comments

Meglio il passato....

4/3/2012

0 Comments

 
Qualche giorno fa, Francesco Piccolo ha scritto un bel pezzo a proposito della resistenza alle novità, criticando l’automatismo mentale per cui, a molte persone, i vecchi tempi sembrano sempre migliori del presente – presente che a sua volta è, possiamo prevederlo con certezza, molto meglio dei tempi che devono ancora arrivare. Il punto di partenza dell’articolo di Piccolo era il successo di The Artist, film ambientato ai tempi del passaggio dal cinema muto al sonoro, e a sua volta realizzato proprio con le modalità di una volta: muto, cioè, e in bianco e nero.

Si potrebbe contrapporre alla visione nostalgica di The Artist quella disincantata di un altro successo cinematografico recente: Midnight in Paris, di Woody Allen. Lì, il rimpianto per i bei tempi andati si trasforma nel corso del film nella consapevolezza che ogni epoca storica è sembrata ugualmente difettosa a chi si è trovato a viverla. Lamentarsi del presente, temere il futuro e rifugiarsi nel passato sembrano atteggiamenti universali, ma piuttosto inutili.

Comunque, mentre leggevo l’articolo di Piccolo, pensavo a possibili spiegazioni scientifiche per la paura del nuovo e per l’attaccamento emotivo ai tempi passati. (Deformazione professionale, che ci volete fare.) E insomma: perché sembra così naturale, per molti esseri umani, provare nostalgia per l’età dell’oro? Siamo ambivalenti: da un lato, come specie, sentiamo l’urgenza di esplorare, comprendere e inventare cose nuove. Dall’altro, dentro di noi c’è una continua paura dell’ignoto. Un biologo evoluzionista potrebbe certamente spiegare che esistono forti vantaggi selettivi in entrambi i comportamenti. Se non ti guardi intorno e non vai in cerca di nuove fonti di cibo, la tua sopravvivenza è a rischio. D’altra parte, una volta trovata una nicchia stabile e ben protetta, può essere svantaggioso abbandonarla per qualcosa di incerto.

Noi fisici, però, abbiamo il vizio di andare in cerca di spiegazioni ancora più fondamentali. E allora mi chiedo se per caso la nostalgia per il passato non sia in qualche modo legata al famigerato secondo principio della termodinamica: quello secondo cui l’entropia (ovvero, per semplificare, il disordine) di un sistema isolato non può diminuire con il passare del tempo. È il principio che è alla base della percezione di una direzione nello scorrere del tempo, una direzione che va dal passato verso il futuro. Un sistema lasciato a se stesso diventa sempre più disordinato, si degrada inesorabilmente. Bisogna continuamente immettere energia dall’esterno per mantenerlo in ordine. I nostri organismi, fortunatamente, non sono sistemi isolati, e le complesse reazioni biochimiche che ci mantengono in vita riescono, almeno temporaneamente, a contrastare l’aumento di disordine. Ma anche così, a un certo punto il degrado diventa irreversibile. E anche l’energia stessa si degrada, diventando sempre meno utilizzabile.

In questo senso, c’è qualcosa di vero nel fatto che il passato era migliore del presente. In effetti, i fisici del Diciannovesimo secolo che per primi studiarono e compresero la legge dell’aumento dell’entropia ne furono turbati, e ne trassero fosche previsioni sul destino della vita e dell’intero universo, condannato alla morte termica, alla negazione di qualunque ulteriore cambiamento. Sarà per questo che idealizziamo i tempi andati? Chiaramente ci sono molti altri fattori in gioco, ma forse una parte di noi avverte davvero il secondo principio della termodinamica in azione. Ad ogni modo, proprio il secondo principio della termodinamica ci condanna ad accettare l’impossibilità di ricreare il passato. Lasciamo stare le nostalgie: quello che è fatto è fatto, non si torna indietro. Le uova rotte non si possono rimettere a posto. In modo metaforico, da scrittore, David Foster Wallace descriveva così le conseguenze dello scorrere del tempo (e dell’aumento di entropia) sulle nostre esistenze:

“Ogni giorno sono costretto a compiere una serie di scelte su cosa è bene o importante o divertente, e poi devo convivere con l’esclusione di tutte le altre possibilità che quelle scelte mi precludono. E comincio a capire che verrà un momento in cui le mie scelte si restringeranno e quindi le preclusioni si moltiplicheranno in maniera esponenziale finché arriverò a un qualche punto di qualche ramo di tutta la sontuosa complessità ramificata della vita in cui mi ritroverò rinchiuso e quasi incollato su di un unico sentiero e il tempo mi lancerà a tutta velocità attraverso vari stadi di immobilismo e atrofia e decadenza finché non sprofonderò per tre volte, tante battaglie per niente, trascinato dal tempo. È terribile. Ma dal momento che saranno proprio le mie scelte a immobilizzarmi, sembra inevitabile, se voglio diventare maturo, fare delle scelte, avere rimpianti per le scelte non fatte e cercare di convivere con essi.”

È terribile, sì. Ma quello che vale per un solo individuo, non vale se guardiamo alla collettività. La nostra capacità di opporci, come specie, all’aumento di entropia, è molto maggiore di quella di un singolo organismo: e dipende anche dalla tecnologia, dall’uso che sapremo fare dell’ambiente, e quindi in ultima analisi dalla nostra capacità di esplorare e capire quello che abbiamo intorno. Avere paura, irrazionalmente, del nuovo e del futuro, è una scelta perdente.

Amedeo Balbi da link del Post
http://www.ilpost.it/amedeobalbi/2012/02/15/la-paura-del-futuro-e-le-leggi-della-fisica/
0 Comments

Classico o quantistico?

3/28/2012

0 Comments

 
Onda o corpuscolo? O meglio, quando una particella è abbastanza grande da essere “classica” e fino a quando è “quantistica”? Un passo avanti per rispondere a questa domanda è stato fatto da un gruppo di ricercatori che firma un articolo sulla rivista "Nature Nanotechnology".

Il metodo classico per dimostrare che ci si trova di fronte a un comportamento ondulatorio è quello di inviare un fascio di luce, che è un'onda, attraverso una coppia di strette fessure e misurare in che modo l'intensità della luce che colpisce uno schermo dietro le fessure varia in funzione della posizione. I picchi di intensità corrispondono ai punti in cui un massimo dell’onda che è passata attraverso una fenditura coincide con un massimo dell’onda che è passata attraverso l’altra fenditura, e le zone più scure a dove si ha la coincidenza di due minimi. Questa struttura di picchi e intensità ridotte è nota come schema di interferenza.

Un fotogramma del filmato che mostra la formazione di schemi di interferenza da parte di una molecola di ftalocianina. Se questo esperimento viene ripetuto con un fascio di particelle ordinarie vedremo solo due picchi, ciascuno formato dalle particelle che sono passate attraverso una particolare fessura. Se però si rivolge l’attenzione alle particelle quantistiche che condividono la doppia natura di onda e corpuscolo, si dovrebbero avere figure di interferenza con picchi multipli, proprio come per la luce.

La previsione teorica di questo effetto fu formulata da Louis de Broglie nel 1924, e la natura ondulatoria degli elettroni, ottenuta registrandone la diffrazione da parte della superficie di un cristallo di nichel, fu dimostrata sperimentalmente per la prima volta da Clinton Davisson e Lester Germer nel 1927.

Ma il primo esperimento della doppia fenditura con elettroni venne effettuato trent’anni dopo, nel 1961, da Carl Jönsson, mentre la formazione della figura di interferenza in presenza di un singolo elettrone nel dispositivo in un certo momento venne registrato dal gruppo bolognese composto da Pier Giorgio Merli, Gian Franco Missiroli e Giulio Pozzi nel 1974, in quello che è stato definito il più bell’esperimento di fisica di sempre, in cui – come ebbe a osservare Richard Feynman - era condensato tutto ciò che serve sapere sulla meccanica quantistica.

Il documentario prodotto dal CNR nel 1976 sull'esperimento Merli-Missiroli-Pozzi

(Cliccateci sopra, consigliato!!!!!)

Da allora, però, è stato un susseguirsi di tentativi di stabilire fino a dove fosse possibile registrare gli effetti delle leggi quantistiche, ossia dove si potesse collocare la linea di confine fra il mondo quantistico e quello classico. In questa corsa, un posto di primo piano è stato raggiunto dai ricercatori dell’Università di Vienna che ora – con la collaborazione di esperti in nanotecnologie delle Università di Tel Aviv, di Basilea e del Politecnico di Karlsruhe - sono riusciti a realizzare un filmato che mostra l'accumulo a valle della doppia fenditura di schemi di interferenza per molecole di ftalocianina (un colorante organico ampiamente utilizzato nell’industria) che hanno masse di 514 unità di massa atomica (amu), e di derivati di suoi derivati, molecole con masse addirittura di 1298 amu. Queste ultime sono le più grandi particelle per le quali sia mai stata registrata la formazione di uno schema di interferenza per singola particella.

(da Le Scienze -link)
0 Comments

Echi di luce

3/23/2012

0 Comments

 
La capacità di vedere oggetti nascosti dietro i muri può rivelarsi essenziale in luoghi pericolosi o inaccessibili, per esempio all'interno di macchinari con parti in movimento, o in zone fortemente contaminate. Ora gli scienziati del Massachusetts Institute of Technology di Cambridge hanno trovato un modo per fare esattamente questo.

I ricercatori sparano un impulso di luce laser verso una parete sul lato opposto della scena nascosta, e registrano il tempo in cui la luce dispersa arriva a una telecamera. I fotoni rimbalzano dalla parete all'oggetto nascosto e poi di nuovo sulla parete, disperdendosi ogni volta, prima che una piccola frazione finisca per raggiunge la telecamera, ciascuna in un tempo leggermente differente. E' questa risoluzione temporale che fornisce la chiave per rivelare la geometria nascosta. La posizione dell'impulso laser da 50 femtosecondi (cioè 50 quadrilioni di secondo) viene inoltre cambiata 60 volte, in modo da ottenere prospettive Citazione multiple della scena nascosta.

"Tutti conosciamo gli echi sonori, ma è possibile sfruttare anche echi di luce", spiega Ramesh Raskar, che guida il Camera Culture Research Group al Media Lab del MIT Lab che ha realizzato lo studio.

Una fotocamera normale può vedere solo gli oggetti che si trovano esattamente di fronte a essa. La luce che raggiunge il sensore da un punto che si trova al di là della linea di vista diretta è troppo diffusa per trasportare informazioni utili sulla scena nascosta, poiché è stata dispersa da riflessioni multiple. La nuova tecnica, descritta oggi su "Nature Communications", risolve il problema mediante l'acquisizione ultraveloce di informazioni sul tempo impiegato da ogni fotone per raggiungere la telecamera. Queste informazioni vengono poi decodificate da un algoritmo di ricostruzione realizzato da uno dei componenti del gruppo, Andreas Velten.

Sfruttare la dispersione

La maggior parte delle tecnologie di imaging ultraveloci puntano ad attenuare gli effetti della dispersione luminosa, concentrandosi solo sui primi fotoni che arrivano al sensore. In questo caso, spiega Raskar, la differenza "è che sfruttiamo la luce dispersa".

La videocamera merita senz'altro la definizione di ultraveloce, poiché è in grado di registrare un'immagine ogni due picosecondi, vale a dire il tempo impiegato dalla luce per viaggiare in soli 0,6 millimetri. Di conseguenza, può registrare la distanza percorsa da ciascun fotone con precisione submillimetrica.

Uno dei principali problemi tecnologici da superare ha riguardato la distinzione delle informazioni provenienti da fotoni che avevano percorso la stessa distanza, e raggiunto la telecamera nella stessa posizione, dopo aver colpito parti diverse della scena nascosta.

Il computer risolve il problema confrontando le immagini generate da posizioni differenti del laser, permettendo quindi una stima delle posizioni possibili dell'oggetto. Mentre fotoni che hanno colpito diverse parti della scena nascosta da una posizione del laser possono essere gli stessi, avranno comunque una distanza totale diversa da un altro punto laser. "La tecnica matematica generale," spiega Raskar, "è simile a quella della tomografia computazionale usata nelle scansioni TAC a raggi X ".

Allo stato attuale, l'intero processo dura diversi minuti, ma i ricercatori sperano in futuro di riuscire a ridurlo a meno di dieci secondi.

da Le Scienze, bel video illustrativo in link

0 Comments
<<Previous
    Picture
    From Stone To iPhone
    Science, Nature, Technology

    Archives

    February 2014
    December 2013
    January 2013
    December 2012
    September 2012
    April 2012
    March 2012
    February 2012

    Categories

    All
    Antimateria
    Fisica
    Frattale
    Genetica
    Luce
    Matematica
    Meccanica Quantistica
    Medicina
    Musica
    Temperatura
    Termodinamica

    RSS Feed


Powered by Create your own unique website with customizable templates.