Tecnologia

Modelli di estrapolazione verticale della velocità del vento

La ricerca ha analizzato 332 applicazioni inerenti alla velocità del vento condotte negli ultimi 40 anni, su 96 località nel mondo

Uno studio dell'Istituto di biometeorologia (Ibimet) del Cnr di Firenze, riflette sui modelli di estrapolazione verticale della velocità del vento ai fini della predicibilità eolica.

La ricerca, pubblicata su Renewable and Sustainable energy reviews, ha analizzato 332 applicazioni condotte negli ultimi 40 anni, su 96 località nel mondo

“Poter prevedere, sulla base di semplici misure a terra, il profilo verticale della velocità del vento fino a quote difficilmente raggiungibili con strumentazione dai costi contenuti è un evidente vantaggio, soprattutto nella fase di prefattibilità di un progetto d'impianto eolico”, spiega Giovanni Gualtieri dell'Istituto di biometeorologia del Consiglio nazionale delle ricerche (Cnr-Ibimet) di Firenze e autore dello studio.

Questo compito è affidato ai modelli di estrapolazione della velocità del vento, la cui utilità pratica diventa oggigiorno sempre più stringente se si considera il costante aumento delle dimensioni dei moderni aerogeneratori, caratterizzati da un'altezza dei mozzi regolarmente al di sopra di 60-80 m, ma che arriva a superare (soprattutto nei modelli offshore) anche i 150 m.

La ricerca, pubblicata su Renewable and Sustainable energy reviews, (1) passa in rassegna 332 applicazioni condotte in un arco temporale di 40 anni (1978–2018) su 96 località nel mondo poste ad altitudini comprese tra 0 e 2230 m s.l.m.. Tre famiglie di modelli sono state prese in esame: i modelli basati sul profilo logaritmico; (ii) modelli basati sulla legge di potenza; (iii) modello di Deaves ed Harris. Il lavoro documenta l'accuratezza dei modelli applicati su ogni specifica località e ne discute nell'insieme l'andamento prendendo in esame quattro diversi tipi di sito: (i) pianeggiante e prevalentemente privo di ostacoli; (ii) collinare/ondulato con vegetazione/alberi; (iii) montuoso con orografia complessa; (iv) in mare aperto. Le prestazioni dei modelli sono state analizzate nella capacità di prevedere accuratamente il valore della velocità del vento in quota, ma anche nel riuscire a raggiungere quote particolarmente elevate, come richiesto dai moderni modelli di turbina eolica. "Oltre alla mera accuratezza numerica grande risalto è stato dato alla convenienza economica di un modello piuttosto che di un altro, e quindi alla strumentazione più o meno a basso costo richiesta per ogni applicazione", evidenzia il ricercatore Cnr-Ibimet.

Tra i principali risultati raggiunti, lo studio evidenzia che i modelli basati sul profilo logaritimico (utilizzati in passato all'incirca nel 25.6% dei casi) risultano inadatti allo scopo, in quanto non in grado di raggiungere l'altezza tipica delle moderne turbine; essi presentano inoltre lo svantaggio di richiedere un'accurata stima della lunghezza di rugosità del sito (z0), cosa di norma alquanto complessa.

La logica del calcolatore nei linguaggi procedurali

Le complesse procedure a calcolatore si riducono a pochissimi passi logici di base e rispettano le regole di deduzione stabilite dalla logica formale

Una macchina “intelligente”, ovvero un calcolatore, dovrebbe essere in grado di districarsi tra questi concetti che sembrano paradossali.

Vediamo più da vicino quali strumenti di base abbiamo a disposizione per costruire un calcolatore. In particolare analizziamo il funzionamento di un calcolatore, la macchina che è maggiormente candidata al raggiungimento di un simile obiettivo.

La logica del computer, nei linguaggi procedurali soliti, si basa su tre paradigmi:

1) sequenza - le istruzioni vengono eseguite in successione;

2) IF condizione THEN azione - Se si verifica una certa condizione allora viene eseguita una determinata azione;

3) salto - la sequenza delle operazioni passa ad un certo punto del programma antecedente o successivo all'istruzione corrente.

Come si vede le complesse procedure a calcolatore si riducono a pochissimi passi logici di base e da un certo punto di vista i programmi scritti per calcolatore sono logici, nel senso che rispettano le regole di deduzione stabilite dalla logica formale. Anche il neurone, costituente di base del cervello, funziona con un meccanismo di tutto o niente; ciascun neurone scarica un unico impulso elettrico, se eccitato sopra un determinato livello di soglia oppure non scarica affatto. I neuroni però sono collegati tra di loro in maniera molto complessa e, mentre si può isolare quale istruzione di programma viene eseguita in un determinato momento in un calcolatore, non è possibile determinare quale neurone possa essere responsabile di una determinata risposta in un particolare momento nel cervello. L'informazione nel cervello non è localizzata e probabilmente si diffonde in maniera olografica per aree molto vaste del cervello stesso.

Se l'approccio neuronale non ci è di grande aiuto per comprendere la logica del cervello vivente possiamo tentare con la psicologia cognitiva per trovare qualche suggerimento che ci aiuti nella comprensione delle somiglianze e delle differenze tra il procedere umano e l'esecuzione di algoritmi programmati a calcolatore.

Nuovi composti per i superconduttori

Questo studio scientifico dimostra che si può riprodurre una superconduttività in composti con argento e fluoro al posto di rame e ossigeno

Temperature relativamente più alte per raggiungere la superconduttività con argento e fluoro al posto di rame e ossigeno (con i quali si è ottenuto il record premiato con il Nobel).

È quanto propone un team di ricerca internazionale cui partecipa il Consiglio nazionale delle ricerche (Ismn, Istituto Spin, Isc). Tale risultato potrebbe consentire un utilizzo molto più economico nella diagnostica medica e negli acceleratori. Lo studio è pubblicato su su Proceeding of the National Academy of Sciences (Pnas). (1)

I superconduttori ‘chiedono’ il freddo per condurre l'elettricità senza perdita d'energia. Infatti se portati a temperature pari o inferiori a -140? permettono un moto perpetuo degli elettroni che viene sfruttato per creare grandi campi magnetici. Tuttavia questi materiali speciali, usati per la diagnostica medica, per esempio la risonanza magnetica, o negli esperimenti nei grandi acceleratori come Lhc del Cern potrebbero essere utilizzati più ampiamente se si potesse evitare di raffreddarli a bassissima temperatura, operazione che richiede costi elevati.

Un team internazionale composto da ricercatori del Consiglio nazionale delle ricerche (Istituto per lo studio dei materiali nanostrutturati, Istituto Spin, Istituto dei sistemi complessi) e colleghi di Polonia, Regno Unito, Slovenia, Stati Uniti e Repubblica Slovacca hanno proposto una nuova famiglia di composti.

“Finora il record a pressione ambiente è stato ottenuto con una famiglia di materiali contenenti rame e ossigeno che devono essere raffreddati ‘solo’ fino a -140? per diventare superconduttori: una scoperta che è valsa il premio Nobel a Bednorz e Müller nel 1987”, spiega José Lorenzana, direttore dell’Istituto dei sistemi complessi (Cnr-Isc).

“Curiosamente, i materiali di base per fare questi superconduttori non sono buoni conduttori ma ceramici isolanti, simili a una porcellana con caratteristiche molto peculiari, in grado di sfidare le leggi basilari sulla conduttività dei solidi e con forti fluttuazioni quantistiche, fenomeni considerati il “concime”, cioè necessari, per raggiungere la superconduttività ad alta temperatura. Solo dopo un’appropriata sostituzione chimica diventano metallici a temperatura ambiente e superconduttori se raffreddati. I nostri studi hanno mostrato che è possibile riprodurre lo stesso ‘concime quantistico’ che dà luogo alla superconduttività in materiali con argento e fluoro al posto di rame e ossigeno”.

Pagine