Nano-laser costituito da una rete di nanofibre polimeriche

Il Nano-laser non-convenzionale è una sorta di minuscola e impalpabile ragnatela, un intreccio di nanofibre polimeriche che emettono e amplificano la luce

Ricercatori dell'Istituto nanoscienze del Cnr, Imperial College e Università di Pisa realizzano un nuovo tipo di Nano-laser basato su un reticolo di filamenti plastici che emettono e amplificano la luce.

Pubblicato su Nature Communications, lo studio apre la strada a una nuova classe di dispositivi che potranno essere usati come sorgenti di luce miniaturizzate e sensori ottici ad alta efficienza

Un team di ricercatori dell'Istituto nanoscienze del Consiglio nazionale delle ricerche (CnrNano) ha sviluppato un nuovo tipo di laser costituito da una rete di filamenti miniaturizzati di polimeri. Il risultato della collaborazione tra Imperial College di Londra, CnrNano, Università di Pisa, Università del Salento e Università di Exeter è pubblicato su Nature Communications, (1) e apre la strada ad una nuova classe di dispositivi laser che potranno essere usati come sorgenti di luce miniaturizzate e come sensori ottici ad alta efficienza.

Il cuore del laser non-convenzionale è una sorta di minuscola e impalpabile ragnatela, un intreccio di nanofibre polimeriche che emettono e amplificano la luce. “Contrariamente ai laser convenzionali che usano specchi o strutture periodiche per intrappolare ed amplificare la luce, in questo dispositivo essa è prodotta e amplificata dalla rete di filamenti”, spiega Andrea Camposeo di CnrNano. “Le nanofibre emettono luce e poi funzionano come fibre ottiche lungo le quali questa si propaga: intrappolata nel reticolo lungo i percorsi di una matrice disordinata la luce è soggetta a interferenze in centinaia di nodi ed emerge amplificata come luce laser”.

I ricercatori hanno realizzato una rete di nanofili composti da materiale fotoattivo, con un diametro di tra i 200 e i 500 nanometri (un nanometro è pari a un milionesimo di millimetro) e con un elevato numero di nodi e di rami. Ogni struttura è una rete disordinata planare, ramificata così da connettere ciascun nodo al loro vicino più prossimo.

Appiattimento progressivo del nostro cervello

L'appiattimento del cervello mira ad annullare qualunque asperità di pensiero che si opponga in qualche modo al trionfo del pensiero dominante

Il programma di appiattimento del cervello è iniziato insieme a Internet.

Da quando esiste Internet la gente si sta facendo più sveglia, ma insieme alla presa di coscienza collettiva, ci sono anche molte persone che vivono alcune paure che prima non conoscevano. Molti temono, ad esempio, l’appropriazione indebita delle nostre informazioni personali da parte di Big Data.

Altri temono che la teoria gender finirà per annullare le differenze fra il mondo maschile e quello femminile. Altri ancora temono che verremo tutti microchippati, con conseguente perdita della libertà individuale. Eccetera eccetera. Ma tutte queste sono paure grossolane, palesemente visibili, e in quanto tali relativamente facili da fronteggiare: basta stare attenti a non mettere in giro i propri dati personali, uno pensa, ed ecco che il problema della privacy è risolto.

Basta stare attenti a non farsi influenzare dalle ridicolaggini della teoria gender, uno pensa, e dentro di me non riusciranno mai a cancellare la differenza tra maschile e femminile. Basta rifiutarsi di farsi mettere i microchip, uno pensa, e la porta di casa mia continuerò ad aprirla con la vecchia chiave della serratura. Ma queste, come dicevo, sono battaglie grossolane, visibili, che servono magari a tenerci impegnati su un fronte più tangibile, ma magari meno importante.

C’è invece battaglia molto più sottile e invisibile – ma molto più importante – che si sta combattendo oggi nel mondo: è la battaglia per ottenere l’appiattimento progressivo del nostro cervello. Questa battaglia, sottile e strisciante, mira ad annullare qualunque asperità di pensiero che si opponga in qualche modo al trionfo del pensiero dominante. E’ una battaglia che è iniziata insieme a Internet, nel senso che nel momento stesso in cui il potere si è accorto di aver messo un’arma micidiale nelle mani della popolazione, ha anche sentito il bisogno di contrastare la diffusione di quest’arma con una equivalente forma di repressione del libero pensiero.

Non a caso, i primi sintomi di questa battaglia sono stati avvertiti proprio dopo l’11 Settembre. In quel periodo era in piena esplosione l’utilizzo di Internet, e fu proprio tramite Internet che iniziarono a diffondersi le prime teorie alternative sugli attentati delle Torri Gemelle. Non dimenticherò mai il giorno in cui George W. Bush disse in televisione: «Non tollereremo queste assurde e vergognose teorie del complotto».

Modelli di estrapolazione verticale della velocità del vento

La ricerca ha analizzato 332 applicazioni inerenti alla velocità del vento condotte negli ultimi 40 anni, su 96 località nel mondo

Uno studio dell'Istituto di biometeorologia (Ibimet) del Cnr di Firenze, riflette sui modelli di estrapolazione verticale della velocità del vento ai fini della predicibilità eolica.

La ricerca, pubblicata su Renewable and Sustainable energy reviews, ha analizzato 332 applicazioni condotte negli ultimi 40 anni, su 96 località nel mondo

“Poter prevedere, sulla base di semplici misure a terra, il profilo verticale della velocità del vento fino a quote difficilmente raggiungibili con strumentazione dai costi contenuti è un evidente vantaggio, soprattutto nella fase di prefattibilità di un progetto d'impianto eolico”, spiega Giovanni Gualtieri dell'Istituto di biometeorologia del Consiglio nazionale delle ricerche (Cnr-Ibimet) di Firenze e autore dello studio.

Questo compito è affidato ai modelli di estrapolazione della velocità del vento, la cui utilità pratica diventa oggigiorno sempre più stringente se si considera il costante aumento delle dimensioni dei moderni aerogeneratori, caratterizzati da un'altezza dei mozzi regolarmente al di sopra di 60-80 m, ma che arriva a superare (soprattutto nei modelli offshore) anche i 150 m.

La ricerca, pubblicata su Renewable and Sustainable energy reviews, (1) passa in rassegna 332 applicazioni condotte in un arco temporale di 40 anni (1978–2018) su 96 località nel mondo poste ad altitudini comprese tra 0 e 2230 m s.l.m.. Tre famiglie di modelli sono state prese in esame: i modelli basati sul profilo logaritmico; (ii) modelli basati sulla legge di potenza; (iii) modello di Deaves ed Harris. Il lavoro documenta l'accuratezza dei modelli applicati su ogni specifica località e ne discute nell'insieme l'andamento prendendo in esame quattro diversi tipi di sito: (i) pianeggiante e prevalentemente privo di ostacoli; (ii) collinare/ondulato con vegetazione/alberi; (iii) montuoso con orografia complessa; (iv) in mare aperto. Le prestazioni dei modelli sono state analizzate nella capacità di prevedere accuratamente il valore della velocità del vento in quota, ma anche nel riuscire a raggiungere quote particolarmente elevate, come richiesto dai moderni modelli di turbina eolica. "Oltre alla mera accuratezza numerica grande risalto è stato dato alla convenienza economica di un modello piuttosto che di un altro, e quindi alla strumentazione più o meno a basso costo richiesta per ogni applicazione", evidenzia il ricercatore Cnr-Ibimet.

Tra i principali risultati raggiunti, lo studio evidenzia che i modelli basati sul profilo logaritimico (utilizzati in passato all'incirca nel 25.6% dei casi) risultano inadatti allo scopo, in quanto non in grado di raggiungere l'altezza tipica delle moderne turbine; essi presentano inoltre lo svantaggio di richiedere un'accurata stima della lunghezza di rugosità del sito (z0), cosa di norma alquanto complessa.

Pagine