IL RISVEGLIO DEL CADUCEO DORMIENTE: la vera genesi dell'Homo sapiens

IL RISVEGLIO DEL CADUCEO DORMIENTE: la vera genesi dell'Homo sapiens
VIDEO TRAILER

VIDEO SINOSSI DELL'UOMO KOSMICO

VIDEO SINOSSI DELL'UOMO KOSMICO
VIDEO SINOSSI DELL' UOMO KOSMICO
Con questo libro Marco La Rosa ha vinto il
PREMIO NAZIONALE CRONACHE DEL MISTERO
ALTIPIANI DI ARCINAZZO 2014
* MISTERI DELLA STORIA *

con il patrocinio di: • Associazione socio-culturale ITALIA MIA di Roma, • Regione Lazio, • Provincia di Roma, • Comune di Arcinazzo Romano, e in collaborazione con • Associazione Promedia • PerlawebTV, e con la partnership dei siti internet • www.luoghimisteriosi.it • www.ilpuntosulmistero.it

LA NUOVA CONOSCENZA

LA NUOVA CONOSCENZA

GdM

sabato 31 agosto 2013

INVENZIONI E LORO APPLICAZIONI “2” …



…NEL MONDO DELLA FORMULA 1

di: DOTT. GIUSEPPE COTELLESSA (ENEA)

La gestione delle vetture di Formula 1 è molto complessa. L'invenzione del  mio procedimento fisico-matematico può contribuire a migliorare la gestione delle vetture soprattutto fuori gara per ottimizzarne le prestazioni.
Le vetture di Formula 1 sono monoposto usate per correre nella massima formula dell'automobilismo mondiale; nel corso del tempo hanno cambiato più volte il loro aspetto, anche radicalmente, sia per effetto delle invenzioni ed intuizioni di progettisti e costruttori, sia per rispettare i mutevoli parametri del regolamento, che più volte è intervenuto a limitare gli eccessi di talune soluzioni, o a ridefinire alcuni parametri (ad esempio, la cilindrata dei motori), spesso per ragioni di sicurezza.

Aerodinamica e prestazioni velocistiche

La configurazione aerodinamica delle moderne auto di Formula 1 si è definita nelle sue grandi linee nel periodo 1968/1974; 6 anni durante i quali fecero la loro comparsa gli alettoni (posteriori ed anteriori), le “pance” laterali ed il “periscopio” centrale. Sono questi gli elementi che ancora oggi, seppure con un’infinità di sviluppi ed affinamenti, caratterizzano queste vetture, con l’aggiunta della raffinatissima (ma poco evidente dall’esterno) struttura aerodinamica che caratterizza la parte inferiore del retrotreno; nonché di una serie di variopinte appendici, giunte al loro massimo sviluppo nel periodo 2005-2008, ma abolite per regolamento a partire dalla stagione 2009.

Contrariamente a quanto credono i “profani”, le straordinarie prestazioni velocistiche delle auto di Formula 1 non dipendono dalla velocità di punta, bensì dalla velocità di percorrenza in curva. La velocità massima mai registrata durante un Gran Premio è stata quella di 369,9 km/h toccata da Antonio Pizzonia con la BMW a Monza, circuito dove l’abbondanza di rettilinei consente di viaggiare con gli alettoni quasi scarichi.Infatti, tutte le appendici aerodinamiche che consentono di accrescere la velocità in curva hanno anche l’effetto di rallentare l’auto in rettilineo; da cui un complicatissimo lavoro di bilanciamento che impegna piloti ed ingegneri per adattare le auto alle caratteristiche di ciascun circuito. Monoposto in grado di produrre un grande carico aerodinamico col semplice corpo vettura (diffusore incluso) hanno potuto usare ali più scariche anche in condizioni che richiedessero molto carico aerodinamico, diminuendo la resistenza (drag) all'avanzamento e riuscendo quindi ad essere competitive in ogni circostanza (sia in circuiti lenti dove il carico aerodinamico è fondamentale per garantire trazione, sia nei rettilinei in cui è fondamentale non offrire resistenza all'avanzamento). Altre monoposto, meno performanti in condizioni tipiche, in certe situazioni particolari (come Monza ed il vecchio Hockhenheim, soprattutto) grazie ad un grosso vantaggio in termini di potenza del motore sono riuscite ad ottenere vittorie perché i cavalli in più hanno consentito l'uso di ali più cariche delle altre monoposto (guadagnando il carico aerodinamico, la stabilità e la trazione in curva in cui erano deficitarie, compensando così l'inefficenza del pacchetto meccanico/aerodinamico) malgrado la maggiore resistenza all'anvanzamento dovuta agli alettoni più carichi.
 Eliminando quasi completamente le appendici aerodinamiche tipiche del tempo, nei primi mesi del 2006, una Honda di Formula 1 in un doppio test al Bonneville Speedway e nel Deserto del Mojave, usufruendo anche di pneumatici più stretti, raggiunse una velocità di 416 km/h, pari a 258 miglia orarie. Secondo la Honda, la vettura era totalmente conforme ai regolamenti della Federazione.

La velocità in curva di una macchina di Formula 1 è determinata principalmente dalle forze aerodinamiche che spingono la vettura verso il basso, aumentando così la tenuta delle gomme e l’aderenza al suolo. In pratica: le auto sono leggerissime, ma gli alettoni con l'aumentare della velocità conferiscono ad esse un peso aggiuntivo che però non ha inerzia, e che cresce con l’aumentare della velocità, sfruttando il principio opposto a quello che fa volare gli aerei (“schiacciando” così l’automobile al suolo: si veda il Principio di Bernoulli, e si consideri che le ali di una monoposto sono rovesciate rispetto a quelle di un aereo, schiacchiando la vettura al suolo a tutto vantaggio della guidabilità). A 160 km/h, la forza generata verso il basso è uguale al peso della vettura; ma quando si viaggia alla massima velocità, essa può essere pari a 2,5 volte il peso della vettura. Inoltre, in curva si genera una forza trasversale che può arrivare a 4,5 g (= 4 volte e mezzo la forza di gravità; mentre in una normale vettura stradale essa è di circa 0,85/1,00 g). Con queste forze laterali respirare diviene difficoltoso e la guida si trasforma in una vera e propria attività atletica.
Tecnologie abolite

Una grande varietà di tecnologie sono state progressivamente bandite dai regolamenti, fra queste:
•sospensioni attive;

•vari dispositivi per l'effetto suolo: divieto di parti a contatto col terreno (prima solo le minigonne dalla stagione 1983, poi generalizzato a tutta la vettura); proibito fondo vettura sagomato ad eccezione di zone indicate nel regolamento; proibiti aspiratori motorizzati di aria al posteriore; proibito il doppio diffusore dal 2011;
•appendici aerodinamiche mobili (divieto parzialmente rimosso nella stagione 2009: ai piloti è stato consentito di regolare dall'abitacolo l'incidenza dei flap anteriori di un massimo di 6 gradi, per 2 volte nell'arco di ogni giro). Nel 2011 è invece consentito di regolare l'incidenza dell'ala posteriore, ma soltanto in un tratto di pista predeterminato e solo al pilota che segue da vicino un avversario (sistema DRS);

•sovralimentazione del motore (dalla stagione 1989); i motori turbo verranno ripristinati, con nuove caratteristiche, dalla stagione 2014);
•zavorre mobili (come mass damper o doppi serbatoi); dispositivo di stallo "F-Duct" (utilizzato solo nel 2010).

La Lotus 79 ad effetto suolo

Nel corso degli anni, la tecnica di guida ha conosciuto costanti evoluzioni, ma l’obiettivo di tutti i piloti è sempre stato quello di accelerare il più possibile ed il prima possibile durante i tratti curvilinei]; sicché il lavoro di telaisti, motoristi e gommisti è costantemente andato in questa direzione. Particolarmente fantasiosa (ma anche pericolosa) fu la soluzione adottata nel periodo 1977/1982 e basata sul cosiddetto "effetto suolo", ottenuto sigillando il flusso d'aria tra monoposto e suolo mediante delle bandelle laterali (le cosiddette minigonne, dapprima spazzole a diretto contatto con l'asfalto, in seguito paratie con un'estremità resistente all'abrasione e spinte al suolo da un sistema di molle) abbinate al disegno del fondo vettura ad ala rovesciata. Esse furono poi vietate dopo i gravi incidenti della stagione 1982 per motivi di sicurezza, onde diminuire la velocità in curva delle auto, anche perché l'effetto suolo, schiacciando le vetture al terreno, rendeva difficilissimi i cambi di direzione. Inoltre, se la "minigonna" non si trovava più a perfetto contatto con il suolo (cordoli, sollevamento di una ruota, incidenti), l'auto perdeva improvvisamente aderenza e diventava ingovernabile, pericolosissima da guidare.

Ideazione di una vettura

Fino alla fine degli anni ’80, ogni auto di Formula 1 fu principalmente il frutto del genio creativo del capo-progettista di ciascun Team, nomi come Colin Chapman, Harvey Postlethwaite, Mauro Forghieri, John Barnard, Gordon Murray o Patrick Head erano indissolubilmente legati alle monoposto di cui curavano la nascita e lo sviluppo.

Negli ultimi 20 anni le cose sono molto cambiate ed ogni auto è stata frutto di un lavoro collettivo, anche se alcuni nomi (come quelli di Adrian Newey e Rory Byrne) ancora oggi si contraddistinguono per il loro genio creativo.

Innovazioni tecniche e limitazioni regolamentari

Telaio

La McLaren MP4/1 fu la prima monoposto di Formula 1 con telaio realizzato in fibra di carbonio

Fu il geniale Colin Chapman della Lotus a realizzare nel 1962 la prima monoposto dotata di telaio “monoscocca”]: non più una serie di tubi orizzontali ai quali venivano ancorati i diversi componenti della vettura; bensì una “vasca” in alluminio, nel quale veniva alloggiato il pilota ed alla quale veniva agganciato il motore. Una soluzione che garantiva valori di rigidità torsionale fino ad allora impensabili.

Tutti i costruttori si dotarono progressivamente di telai monoscocca, che vennero realizzati in metallo leggero (in particolare con uso di pannelli di alluminio a struttura di alveare, il cosiddetto “honeycomb”), finché nel 1981 venne realizzata la McLaren MP4/1 con telaio in fibra di carbonio.

Tale soluzione risultò subito così superiore alle tecniche precedenti (anche sotto l’aspetto della sicurezza per il pilota) che nel giro di due anni venne adottata da tutti gli altri costruttori

Alettoni ed altri elementi aerodinamici

La prima Formula 1 dotata di alettone posteriore  fu la Ferrari 312 F1 del 1968, con cui Jacky Ickx vinse il G.P. di Francia.
Alla fine di quell’anno, era già stata copiata da tutte le altre squadre.

La Ferrari 312 F1 era in origine una classica vettura anni '60 con forma affusolata; solo a metà del 1968 le fu aggiunto un alettone posteriore.

L'incidenza (cioè l'angolo di inclinazione) dei primi alettoni era variabile in ragione della velocità e dell'accelerazione dell'auto; e, con essa, anche il carico aerodinamico che veniva generato. Inoltre, essi erano collocati molto in alto rispetto al corpo-vettura, su tralicci in metallo assai brutti a vedersi, ed anche pericolosi. La Federazione li vietò dopo i gravi incidenti registratisi nel Gran Premio di Spagna del 1969; e nel successivo G.P. di Monaco le auto corsero senza alettoni, che però vennero riammessi dal G.P. di Olanda, ma con incidenza fissa (cosiddetto "divieto di appendici aerodinamiche mobili") e con regolamentazione della loro altezza massima dal suolo. Da allora, nessuna vettura di Formula 1 ne è stata priva e la Federazione è intervenuta più volte per stabilire la loro larghezza, altezza e sporgenza.

Parallelamente, vennero adottati i cosiddetti “baffi” (o "flap") anteriori, per bilanciare meglio la vettura (ma nel periodo 1971-73 la Tyrrell li sostituì con un profilo avvolgente, che ricordava quelli della Bugatti 251 e delle Ferrari 555 "squalo" del 1955; e che fino al 1977 venne adottato anche da altre vetture). In alcune gare, le vetture ad effetto-suolo dei primi anni ottanta ne furono privi, perché l'effetto deportante garantito dalle "minigonne" li rendeva superflui.

Anche in questo campo non sono mancati gli esperimenti: la Mclaren M26 nel 1978 utilizzò un doppio alettone anteriore; la Lotus "JPS9" (che corse solo le prime gare del 1974) utilizzò invece un doppio alettone posteriore. All'inizio del 1977, prima dell'inizio del campionato, la Ferrari 312 T2 si presentò con un alettone anteriore munito di parafanghi che vennero definiti irregolari in quanto definitiappendici aerodinamiche mobili.

La Benetton fu la prima auto che innalzò il muso anteriore della vettura

Un residuo effetto-suolo (progressivamente divenuto, comunque, molto rilevante) è stato garantito dagli "scivoli" (o "profili estrattori") introdotti per prima sulla Renault RE40 del 1983 e collocati oltre l'asse delle ruote posteriori. Dapprima molto semplici, essi hanno conosciuto una grandissima evoluzione nel corso degli anni, venendo più volte regolamentati, soprattutto per quanto riguarda la loro sagomatura interna.

In tal modo è stato in parte vanificato l'obiettivo di ridurre le prestazioni aerodinamiche, che la Federazione aveva perseguito con una drastica riduzione delle dimensioni dell'alettone posteriore, bilanciata dall'ampliamento di quelle dei flap anteriori. Tale soluzione avrebbe dovuto diminuire la sensibilità delle vetture (soprattutto nelle curve veloci) alle turbolenze generate dalle altre auto, rendendo più agevoli i sorpassi. Tuttavia, all'atto pratico non si è assistito ad un'apprezzabile incremento dei duelli ravvicinati ed in più di un caso gli inseguitori hanno dovuto interrompere le loro rimonte per l'impossibilità di avvicinarsi a stretto contatto con le vetture che li precedevano.

Nel 2010 è comparsa un'inedita soluzione sulle vetture McLaren, il cosiddetto F-Duct: il sistema prevedeva una presa d'aria indipendente, collegata ad un condotto che correva lungo tutta la vettura, fino all'alettone posteriore. La canalizzazione era forata all'altezza del cockpit; chiudendo il foro col braccio o col ginocchio, il pilota impediva al flusso d'aria canalizzato di uscire e sfogarsi nell'abitacolo. A foro chiuso, il flusso d'aria era forzato a percorrere il resto del condotto fino ad arrivare all'alettone posteriore, mandandolo in stallo ed incrementando così la velocità massima in rettilineo di circa 10 km/h. Il sistema del foro, essendo completamente passivo e basandosi sull'azione del pilota, permetteva di modificare il percorso di un flusso d'aria aggirando il divieto di parti aerodinamiche mobili. A partire dai G.P. di Cina e di Spagna è stato copiato ed utilizzato anche da altre scuderie, tra cui anche la Ferrari che ha ridenominato il sistema "ala soffiata"

Tale dispositivo è stato proibito a fine stagione, con la motivazione che distraesse il pilota, costringendolo a togliere le mani dal volante; al suo posto è stata introdotta un'importante novità: il DRS. Esso permette l'apertura dell'alettone posteriore in rettilineo, riducendo la resistenza all'avanzamento con consistente incremento di velocità; l'utilizzo del DRS è però limitato dalla federazione soltanto alla vettura che insegue un avversario, in uno o due tratti predeterminati del circuito (le "DRS Zone"), e solo se al momento del passaggio in una zona dotata di sensori (il DRS Detection point) l'inseguitore abbia un distacco inferiore al secondo. L'obiettivo è quello di agevolare i sorpassi, ed in effetti dalla sua introduzione sono aumentati molto;
Sospensioni

Dopo l’invenzione dei telai monoscocca, le molle degli ammortizzatori vennero alloggiate all’interno della carrozzeria (Lotus/Ferrari nel 1963). Ciò contribuì a migliorare la rigidità e l’aerodinamica delle vetture.

Le "sospensioni attive" vennero bandite a partire dalla stagione 1994, perché intervenivano eccessivamente sulla qualità di guida, rischiando di falsare il valore sportivo delle competizioni tra piloti, tramutandole in una sfida tra ingegneri.

Nel 2009 sulla Red Bull RB5 viene reintrodotta una sospensione posteriore "pull-rod", dotata di un tirante (una soluzione vecchia di circa 20 anni), ottenendo buoni risultati. Questo "passo indietro" tecnologico in realtà ha un senso: permette di migliorare la qualità del flusso d'aria al retrotreno (meno disturbato dal tirante rispetto al puntone diagonale), zona a cui il progettista Adrian Newey ha sempre prestato la massima attenzione, ad esempio carenando i semiassi (sia pur con un profilo neutro, obbligatorio per regolamento) per impedire che i flussi fossero disturbati dalla loro rotazione.
Sistema d'accensione, controlli elettronici e telemetria

Sin da quando sono stati banditi i sistemi elettronici di ausilio alla guida, ogni progettista ha cercato di reintrodurne delle parti in via legale, o aggirando i regolamenti. Negli anni a venire destarono scalpore gli sportellini del rifornimento, visti spesso aperti in curve a bassa trazione: questi erano collegati al limitatore di giri (per assicurare che nella pit lane, cioè in prossimità del rifornimento, il limitatore rendesse impossibile il superamento della velocità massima in corsia box ed al contempo aprisse lo sportellino). La loro apertura fuori dalle zone designate sembrò testimoniare che i team usassero il limitatore di giri per evitare erogazioni troppo brusche della potenza in uscita di curva; un traction control mascherato.
A partire dal 2008 le vetture utilizzano solo una centralina unica per tutti, fornita dalla McLaren e Microsoft, scelta che ha generato scompiglio e polemiche, inoltre tale centralina ha destato sospetti, per via anche dei suoi bug e della Spy Story del 2007.

Inoltre sempre a partire dal 2008 vi è l'abolizione dei controlli elettronici di trazione, così come quelli meccanici, inoltre viene abolito anche l'assistenza alla frenata.
La telemetria è fondamentale per conoscere i dati della vettura, come la temperatura del motore e altri valori della vettura, nel 2002 debutta la telemetria bidirezionale, che oltre alla sola raccolta dati, permette anche una modifica di alcuni parametri della vettura, senza passare per i box, nel 2003 questa tecnologia viene abolita.


Biblio: Wikipedia

sabato 24 agosto 2013

IL POTERE DELLA FORMA

IL CONCETTO MOLTO MOLTO ANTICO, DEL POTERE (UNA VOLTA DEFINITO MAGICO) DELLA "FORMA" DEGLI OGGETTI, DELLE COSTRUZIONI E QUINDI DEI SIMBOLI, E' STATO FINALMENTE SVISCERATO E RESO FRUIBILE A TUTTI, DALLO STUDIOSO DAN A. DAVIDSON, DOPO OLTRE 35 ANNI DI RICERCHE.
SICURAMENTE UN' OPERA CHE MERITA DI ESSERE STUDIATA DA TUTTI COLORO CHE COME IL SOTTOSCRITTO, REPUTANO IL LASCITO CULTURALE DELLE ANTICHE CIVILTA' UNA STRADA OBBLIGATA PER UN FUTURO DI CONSAPEVOLEZZA.

MLR

“SHAPE POWER”



Il Potere della Forma

di Dan A. Davidson


“Un trattato su come la Forma converte l'Etere
Universale in Forza Elettromagnetica e Gravitazionale,
e le Relative Scoperte nella Fisica Gravitazionale”

“La fondamentale scoperta di come la forma modifica
l'etere universale indifferenziato in elettricità,
magnetismo e forze nucleari”

Il Potere della Forma (in inglese "Shape Power"), è la capacità delle forme multi-dimensionali di manipolare l'energia dello spazio locale. In questo trattato Dan A. Davidson usa il termine "etere" per rappresentare il campo di energia che permea tutto lo spazio e il tempo. Tutte le forme sono il risultato di forze naturali all'opera, e in quanto tali sono sintonizzate su di esse, perché sono parte di queste stesse forze.
Un esempio è la capacità della forma a piramide di raccogliere e focalizzare l'energia eterica. Sono stati scritti numerosi libri sulla "energia della piramide", e le piramidi hanno attraversato - e ancora attraversano - vari periodi di moda nei circoli new-age. La capacità dell'energia della piramide di causare vari effetti è ampiamente documentata. Ogni forma manipola l'etere in qualche modo. Un cono è un esempio di piramide con un infinito numero di lati, e come tale farà molte delle cose che fa una semplice piramide. La tenda degli indiani americani, detta teepee, è un esempio di forma quasi conica che ha molti degli stessi effetti energetici della piramide. Benché il "Potere della Piramide" sia ben conosciuto, pochi lo hanno esteso ad altre forme geometriche e ai fenomeni che possono essere prodotti attraverso la comprensione di quello che sta avvenendo.
Ma accade qualcosa anche con triangoli, quadrati, cerchi, spirali e altre forme, e non solo in quelle solide, ma anche in quelle semplicemente disegnate sulla carta! Per spiegarci come ciò avvenga, Dan comincia da linee singole, poi scopriamo cosa accade se due linee si intersecano, se più linee si incontrano a formare vertici, e così via finché, compreso il meccanismo, tutto ci diviene chiaro, e non solo perfettamente plausibile ma persino ovvio! Questo libro esplora come le diverse forme manipolano l'etere, e come il Potere della Forma possa essere usato per migliorare la nostra vita, la nostra casa, il nostro ufficio, e il nostro benessere generale.
L'Ingegneria pratica dell'Etere è realizzata dalla Natura con l'uso di varie forme geometriche e schemi, come attestato nelle serie di Fibonacci e nei frattali, nei coni e forme tetraedriche. Gli insetti e alcune piante usano forme geometriche per raccogliere e trasmettere onde elettromagnetiche e acustiche. Quando si comprende che l'Etere, essendo il substrato fondamentale dell'universo, può creare interferenze con se stesso in misura tale da produrre tutti i tipi di energia e aggregazioni di materia, ne consegue che tutto è un risultato di Ingegneria Eterica a vari gradi.
L'essenza di come gli schemi geometrici possano influenzare i flussi di energia, è esattamente la stessa di come funzionano le antenne ed altre strutture risonanti. Poiché ogni cosa risuona e stabilisce un trasferimento di informazione e di energia tra due o più corpi risonanti, allora uno schema a due dimensioni può precisamente risuonare con una struttura tridimensionale. I principi geometrici del Potere della Forma, come descritti in questo libro, sono queste forme bidimensionali funzionanti come guide d'onda di energia eterica o sottile. In un senso più pratico, il Potere della Forma può essere inteso   come un mezzo per instradare i flussi di energia in un percorso desiderato. Questo percorso è la geometria che si riflette come una struttura tridimensionale, e che risuona e scambia energia con altre simili strutture risonanti, essendo ora sintonizzate.
Uno dei più grandi problemi col Potere della Forma al suo stato attuale, è la mancanza di strumentazione che possa direttamente rilevare e quantificare i cambiamenti nell'etere. Gli effetti secondari e terziari dell'etere, si manifestano in forma di fluttuazioni nel magnetismo, nella elettricità e nella gravità. Al fine di studiare ogni tipo di fenomeno energetico, è necessaria una strumentazione, per sapere cosa sta avvenendo con le energie. In fisica ed elettronica abbiamo strumenti di rilevazione come voltmetri, magnetometri, oscilloscopi, camere a nebbia, amperometri, misuratori di campo elettromagnetico, microscopi a scansione, telescopi, ecc., per rilevare e misurare le forze fisiche e gli effetti ad esse associati. Nel caso dell'etere, sono esistiti relativamente pochi veri strumenti, finché Dan Davidson non ha inventato una strumentazione che davvero rileva le forze eteriche e misura i loro effetti.   Questi strumenti hanno permesso che alcune delle scoperte in questo trattato potessero essere comprese.
In aggiunta alla strumentazione fisica, Dan ha anche usato chiaroveggenti alla stregua di strumenti umani, quando è stato in grado di dimostrare in modo conclusivo che avevano la loro vista interiore aperta. Un vero chiaroveggente può vedere i campi di energia del piano eterico, così come la luce attorno una persona (cioè, l'aura), e in natura attorno varie attività della luce (per esempio, intorno e all'interno di alberi e organismi viventi), e attorno alle forme geometriche e ai magneti. I veri chiaroveggenti possono vedere nella materia, hanno la visione sia microscopica che telescopica, e molte altre notevoli abilità. Possono vedere la direzione del flusso dei campi di energia sottile, i loro colori, e la loro forma generale. L'esperienza di Dan nel campo della ricerca psichica e nei test psicologici, gli ha permesso di identificare alcuni veggenti di prima qualità, che hanno fornito una comprensione ulteriore e di grande valore della scienza del Potere della Forma. È sorprendente quello che Dan A. Davidson è stato capace di provare finora con i chiaroveggenti, ed è meglio che usare un oscilloscopio su circuiti elettronici, perché con loro come strumento, c'è un totale feedback in tempo reale su quello che sta esattamente accadendo all'energia. Per esempio, Dan ha eseguito test strumentali su vari materiali, per scoprire cosa avviene quando l'energia eterica li attraversa. Quando sono stati usati i chiaroveggenti, questi gli hanno spiegato ciò che loro potevano vedere accadere mentre l'energia eterica interagiva con i diversi materiali, dopodiché è stata usata la strumentazione elettronica per verificare quello che era stato osservato dai chiaroveggenti.
Il Potere della Forma è stato usato attraverso tutta la storia conosciuta e più indietro, nella più remota antichità. La sua manifestazione più comune è stata nell'uso di amuleti, cerimonie magiche e pratiche occulte. Simboli come il quadrato, la croce e il triangolo ricorrono regolarmente nei simboli occulti. All'inizio del suo studio del Potere della Forma e dei simboli, Dan si è chiesto come uno stesso simbolo possa essere usato sia per scopi costruttivi che distruttivi, fino al punto di dubitare che il simbolo abbia realmente qualcosa a che fare col procedimento magico. Ma da tempo egli ha tratto conclusioni diverse, e qui ci invita ad apprendere cose davvero eccitanti sulle forme semplici: cose che, se applicate, possono migliorare la nostra vita e la comprensione dell'universo in cui viviamo. Chiaramente, il Potere della Forma ha molti possibili usi pratici, e le strade per la sua scoperta sono largamente aperte per coloro che desiderano perseguire questo obbiettivo. Dan ha condiviso la sua conoscenza, così che altri ne siano ispirati e vedano le possibilità di come il Potere della Forma possa essere usato per migliorare le nostre vite.
Un bestseller mondiale, un "must" per chiunque si interessi di free-energy, antigravità, fenomeni legati alle forme (solidi platonici, piramidi, mandala, feng-shui, ecc.) e energie sottili (etere, energia del punto zero o ZPE, orgone, od, chi, ki, vril, prana, mana, ecc.), sia con finalità scientifiche che per l'evoluzione personale.






giovedì 22 agosto 2013

ENEA ALL'AVANGUARDIA SUL SOLARE TERMODINAMICO




di: DOTT. GIUSEPPE COTELLESSA

L'applicazione del procedimento fisico-matematico della mia invenzione potrebbe dare un contributo significativo per l'ottimizzazione ed il buon funzionamento dei sistemi molto complessi, come la gestione di una centrale solare termodinamico e di un sistema termodinamico.

Solare termodinamico

Nell’ambito della tipologia dei collettori parabolici lineari, l’ENEA ha sviluppato una filiera tecnologica innovativa basata sull’uso di una miscela di sali fusi con funzione sia di trasporto del calore, sia di accumulo termico. Questa soluzione tecnologica consente di incrementare la temperatura di funzionamento rispetto all’utilizzo di olio termico e comporta significativi vantaggi sulla funzionalità, economia, sicurezza e compatibilità ambientale dell’impianto. Altri importanti vantaggi derivano dalla possibilità di integrare questo tipo di impiantosolare con centrali termoelettriche convenzionali e di accumulare in modo efficiente l’energia termica, aumentando la “dispacciabilità” dell’energia elettrica prodotta a fronte dell’aleatorietà della fonte solare.
Il primo impianto industriale basato sulla tecnologia solare ENEA è stato realizzato dall’ENEL presso la centrale di Priolo Gargallo (SR) - Progetto Archimede – attualmente in fase di dimostrazione.
Sulla base dell’esperienza e delle competenze maturate in questo progetto, l’ENEA rappresenta attualmente il punto di riferimento tecnologico nazionale per la tecnologia solare termodinamica, detiene numerosi brevetti e competenze esclusive ed è impegnata, in collaborazione con diverse aziende industriali, in varie iniziative nazionali e internazionali per il miglioramento e la diffusione di questa tecnologia. Le attività svolte dall’ENEAin questo settore riguardano:
  1. progettazione, realizzazione e dimostrazione di impianti solari per la produzione di energia elettrica, per cogenerazione o per dissalazione dell’acqua, anche integrati con altre fonti rinnovabili o fossili;
  2. progettazione, realizzazione prototipale, sperimentazione, ingegnerizzazione e qualificazione di componenti innovativi per impianti solari, in particolare tubi ricevitori, collettori solari (struttura di supporto, pannelli riflettenti e sistema di puntamento) e componenti del circuito a sali fusi (giunti flessibili, riscaldatori ausiliari, strumentazione speciale);
  3. sviluppo di nuove applicazioni della tecnologia solare termodinamica, tra cui la produzione di idrogeno attraverso processi termochimici e l’utilizzazione industriale dell’energia termica ad alta temperatura da fonte solare.
Per lo svolgimento di queste attività l’ENEA si avvale di circa 70 ricercatori e tecnici, di infrastrutture sperimentali specifiche (impianti e laboratori) presso i propri centri della Casaccia e di Portici, di una rete di collaborazioni industriali di oltre 30 aziende italiane e di accordi con diversi Paesi interessati alla realizzazione di impianti, tra cui Egitto, Libia e Cina.
In ingegneria energetica un impianto solare termodinamico, anche noto come impianto solare a concentrazione, è una tipologia di impianto elettrico che sfrutta, come fonte energetica primaria, la componentetermica dell'energia solare, attraverso tecniche di concentrazione solare e relativo accumulo, per la produzione di energia elettrica.
Deve il suo nome al fatto che, oltre alla captazione di energia termica solare a partire dalla radiazione solare incidente già presente nei comuni impianti solari termici, aggiunge un ciclo termodinamico (Ciclo Rankine) per la trasformazione dell'energia termica accumulata in energia elettrica tramite turbina a vapore e alternatore come avviene nelle comuni centrali termoelettriche.
Caratteristiche
A differenza dei comuni pannelli solari termici per la generazione di acqua calda a fini domestici (con temperature inferiori a 95 °C), questa tipologia di impianto genera medie ed alte temperature (600 °C e oltre) permettendone l'uso in applicazioni industriali come la generazione di elettricità e/o come calore per processi industriali (cogenerazione).
La grande rivoluzione rispetto alle altre tecnologie solari (solare termico e fotovoltaico) è però la possibilità di produzione di elettricità anche in periodi di assenza della fonte energetica primaria durante la notte o con cielo coperto da nuvolosità grazie alla possibilità di accumulo del calore in appositi serbatoi, ponendo almeno parziale rimedio ai limiti fisici di continuità/intermittenza imposti da tale tipo di fonte energetica.
Si tratta dunque di una tecnologia energetica alternativa e rinnovabile rispetto a quelle tradizionali basate su combustibili fossili e nucleari, il cui principio di funzionamento ha lontane origini storiche essendo fatta risalire a più di 2 millenni fa all'idea di Archimede sugli specchi ustori.

Tipi di impianto e funzionamento

Impianto a collettori parabolici lineari

Questo tipo di impianto è formato da specchi parabolici - che ruotano su un solo asse - che riflettono e concentrano la luce diretta del sole su un tubo ricevitore posto nel fuoco del paraboloide.

Dentro il tubo scorre un fluido (detto fluido termovettore perché adatto ad immagazzinare e trasportare calore), che assorbe l'energia e la trasporta in un serbatoio di accumulo, necessario se si vuole supplire ai momenti di scarsa o nulla insolazione (come la notte). Per esempio nella centrale sperimentale Archimede di Priolo l'accumulo termico è sufficiente per coprire la produzione elettrica per 8 ore in assenza di sole.
L'accumulo è in contatto termico con uno scambiatore di calore, che attraverso una caldaia genera vapore; questo viene utilizzato per muovere delle turbine collegate a loro volta a degli alternatori (il complesso turbina-alternatore è detto anche turboalternatore) per produrre così corrente elettrica.
Il fluido termovettore può essere olio diatermico (centrali di 1ª generazione) oppure, secondo gli sviluppi di questi ultimi anni, una miscela di sali che fondono alle temperature di esercizio della centrale e per questo dettisali fusi (centrali di 2ª generazione).
La temperatura più alta raggiunta dai sali fusi (anche fino a 550 °C) rispetto all'olio diatermico consente una migliore resa energetica finale grazie alla possibilità di accoppiamento con centrali a recupero di calore dai fumi di scarico, più efficienti delle centrali standard e che lavorano a temperature più alte.
Con l'utilizzo di miscele a sali fusi è possibile inoltre migliorare la capacità di accumulo termico dell'impianto, prolungandone la produttività anche fino ad alcuni giorni senza esposizione al sole.
Una volta "catturata" l'energia del Sole (sorgente) il processo di produzione ovvero conversione in energia elettrica è quindi del tutto analogo a quanto avviene in una comune centrale termoelettrica.
In generale si possono definire un'efficienza di captazione del calore da parte degli specchi rispetto all'energia solare totale incidente (1°conversione), un'efficienza nel trasporto del calore nel tubo centrale, un'efficienza nell'accumulo di calore nel serbatoio di accumulo, un'efficienza di conversione del calore accumulato in energia elettrica (2° conversione) (sempre minori dell'unità per via di inevitabili perdite) e un'efficienza totale del totale rispetto alla fonte primaria di energia che si ottiene come prodotto delle varie efficienze precedenti.
Gli specchi concentratori sono completamente automatizzati in modo da inseguire costantemente il Sole nel suo moto apparente in cielo (sono detti per questo eliostati), massimizzando così la resa di captazione solare durante l'intero arco della giornata. In caso di forte vento è previsto l'abbassamento verso terra degli specchi in modo da evitare rotture, posizione utilizzata anche per pulire gli specchi.

Impianto a torre centrale

Esistono anche centrali solari con un sistema di specchi riflettenti indipendenti che inseguono il sole e concentrano i suoi raggi su un ricevitore fisso posto alla sommità di una struttura a torre posta al centro dell'impianto. In questo caso si parla di impianto a torre centrale o centrale solare a torre. Nel ricevitore al vertice della torre scorre il fluido termovettore che trasferisce il calore a un generatore di vapore, che alimenta un turboalternatore. Con questo sistema si possono raggiungere fattori di concentrazione, e quindi temperature, superiori rispetto ai collettori parabolici lineari.

Vantaggi e svantaggi

Nel 2008, il fisico italiano Rubbia ha stimato che un ipotetico quadrato di specchi di 40 000 km² (200 km per ogni lato) basterebbe per sostituire tutta l'energia derivata dal petrolio prodotta oggi nel mondo, mentre per alimentare un terzo dell'Italia bastava un'area equivalente (alla potenza) di 15 centrali nucleari: vasta, in pratica, quanto all'area circoscritta dal Grande Raccordo Anulare.

Il vantaggio riscontrabile nell'immediato rispetto ad un tradizionale impianto fotovoltaico consiste in una produzione di energia più uniforme nel tempo causa lo sfruttamento indiretto dell'energia solare anche di notte o in caso di cattivo tempo fino ad alcuni giorni grazie al sistema di accumulo del fluido termovettore e all'alta temperatura raggiungibile dai sali fusi (circa 550 °C).
Per far fronte ai periodi di scarso soleggiamento, specialmente nel periodo invernale e per impianti di grossa potenza, si è pensato di abbinare a questo tipo di impianti solari, dei sistemi di combustione tradizionali con cui poter mantenere la temperatura dei sali fusi oppure, come ad esempio nel caso del progetto Archimede, integrando l'impianto solare termodinamico con un impianto termoelettrico a ciclo combinato alimentato a metano. Un problema che presentano questo tipo di impianti e più in generale i sistemi energetici che sfruttano l'energia solare, sono le notevoli superfici libere da occupare in rapporto alla produzione elettrica. Ad esempio un impianto da circa 40 MW nominali di potenza elettrica in una zona con un DNI (Direct Normal Irradiance) attorno a 1800 kWh/m² anno (Sicilia), occupa circa 120 ettari di superficie.
Il problema della disponibilità dello spazio potrà essere superato costruendo gli impianti solari nel Sud Italia, che dispone di molte zone utilizzabili, come testimoniano i progetti già avviati[2].
Seguendo questa linea si è pensato anche alla costruzione di mega centrali solari-termodinamiche nelle aree desertiche del Nord Africa, in seguito ad accordi internazionali con Libia e Marocco (Progetto Desertec), laddove la disponibilità di spazio e condizioni climatiche relative all'insolazione media annua del tutto ottimali creerebbero situazioni particolarmente favorevoli alla produzione su vasta scala di energia elettrica: sembra che tale soluzione, unita alla realizzazione di reti di distribuzione elettrica a "corrente continua" e bassa perdita, possa arrivare a soddisfare anche l'intero fabbisogno energetico europeo.
Attualmente il "costo per kilowattora" dell'energia prodotta con tale tecnologia è superiore di 5 o 6 volte a quello di altre fonti come dichiarato dall'amministratore delegato dell'ENEL Conti, tuttavia si ritiene che i costi scenderebbero inizialmente lievemente e poi forse in maniera decisa, una volta avviata una produzione di massa di questi sistemi ovvero con quella che in gergo tecnico-economico si chiama "regime di economia di scala". Essendo una tecnologia relativamente nuova ed emergente non può però vantare ancora una piena maturità a livello commerciale rispetto ad altri sistemi di produzione energetica già testati e affermati da tempo.
Un altro svantaggio è che un siffatto sistema di produzione di energia, se fortemente centralizzato, risulterebbe facilmente soggetto ad attacchi di tipo terroristico, in quanto, vista la superficie occupata, non potrebbe essere sorvegliato come accade con impianti di altro tipo. Tale obbiezione appare però piuttosto strumentale, visto che l'attuale approvvigionamento energetico si basa su un sistema di poche, grandi centrali, e quindi soggette allo stesso tipo di rischi di sabotaggio. Anzi, una centrale di questo tipo, proprio grazie alla sua struttura, sarebbe molto più veloce e più economica da riparare rispetto ad una comune centrale a turbogas.
Qualcuno ritiene che la scalabilità di tali sistemi sia scarsa, senza pensare però che in zone desertiche "aggiungere" altre file di specchi a un impianto già esistente sarebbe decisamente più economico che aggiungere un nuovo generatore a una centrale a combustibile fossile. Nonostante queste limitazioni si ritiene tuttavia che tali sistemi rappresentino comunque una svolta o un miglioramento sensibile all'interno del panorama di produzione energetico da fonte solare, la fonte primaria di energia sulla Terra.

Diffusione

Nel mondo

Questa tipologia di centrali è utilizzata da anni negli Stati Uniti. Il Solar-1 fu un progetto pilota, costruito nel deserto del Mojave, a est di Barstow in CaliforniaSolar-1 fu completato nel 1981, e fu operativo dal 1982 sino al 1986. Fu distrutto da un incendio che mandò a fuoco l'olio su cui i raggi del sole venivano concentrati. Seguì un Solar-2 sempre in California. Dal 1985, il cosiddetto SEGS è operativo in California; è costituito da 9 impianti per una capacità totale di 350 MW. Un nuovo impianto è il Nevada Solar One, con una capacità di 64 MW.

Tra il 2006 e il 2011 in Spagna sono state costruite 3 centrali di questo tipo: Andasol 1Andasol 2 e Andasol 3, tutte con una capacità di 50 MW.

In Italia

Nel dicembre 2007, il secondo Governo Prodi ha approvato un piano industriale per costruire dieci centrali da 50 MW nel sud Italia.
Nel marzo 2008, il governo ha ricevuto il parere favorevole della Conferenza Stato-Regioni per avviare questa anche nel resto del territorio nazionale.
Nel progetto Archimede dell'ENEA, sviluppato in collaborazione con l'ENEL e fortemente sponsorizzato dal premio Nobel Carlo Rubbia, come fluido termovettore venne usato una miscela di sali fusi (60% di nitrato di sodio e 40% dinitrato di potassio) che permette un accumulo in grandi serbatoi di calore e una temperatura di esercizio molto elevata (fino a 550 °C) aumentando l'efficienza dell'impiantoL'uso di sali fusi come fluido di scambio termico compare anche nel progetto di nuovi sistemi che condividono la necessità di liquidi di conduzione ad alta temperatura come i reattori a fissione di IV Generazione ed i reattori nucleari a fusione.
È bene sottolineare che però questa è solo una coincidenza: l'utilizzo di sodio per il raffreddamento dei reattori a fissione, ad esempio del tipo SFR, risponde alla necessità di una moderazione più efficace dei neutroni ed evitare i rischi legati all'utilizzo dell'acqua a temperature dell'ordine del centinaio di gradi. A queste temperature infatti l'acqua si dissocia in idrogeno e ossigeno, entrambi gas con elevata attitudine esplosiva: tale dissociazione è evitabile solo mantenendo adeguatamente pressurizzata l'acqua, operazione economicamente costosa.
Nel luglio 2009 il Senato Italiano ha approvato una mozione decisamente critica riguardo al solare termodinamico, ritenuta una fonte non completamente ecologica in quanto necessita di essere combinata a fonti non rinnovabili che ne garantiscano il funzionamento anche in assenza di sole, e poco efficiente sotto diversi punti di vista anche in confronto con la nuova politica di rilancio del nucleare. Nella mozione si sottintende che il solare termodinamico abbia difficoltà a trovare siti adeguati, che abbia bisogno di una fonte d'acqua per il raffreddamento, che non debba essere troppo lontana dalla connessione alla rete, che l'efficienza energetica difficilmente potrà superare il 25%, che per funzionare senza soluzione di continuità abbia bisogno di combustibile e quindi non sarebbe ecologica, e critica l'utilizzo della componente termodinamica dal punto di vista economico perché i costi non sarebbero comprimibili, essendo una tecnologia matura, che i costi di produzione siano nell'ordine dei 6 euro a watt, che i costi sono comunque elevati poiché gli impianti sono piccoli e non beneficiano di fattori di scala, che manca un sistema industriale in Italia, che i costi per essere amortizzati in 20 anni devono essere inseriti in formule di cogenerazione con cicli combinati o impianti a carbone, che la tipologia e' complessa e quindi non alla portata di piccoli imprenditori, che i primi impianti (ndr: SEGS per 350 MW nel deserto del Mojave) non sarebbero stati persuasivi, e quindi abbandonati, che conviene puntare più sulla tecnologia fotovoltaica, del consumo di biomasse e dell'eolico.
Il 15 luglio 2010 è stata inaugurata dall'ENEL a Priolo Gargallo in provincia di Siracusa la prima centrale termodinamica italiana da 5 MW costata 60 milioni di euro (Progetto Archimede). Lo scopo principale di questo progetto è di tipo dimostrativo e vuole sottolineare la grande potenzialità del solare termodinamico applicato alle centrali a turbo gas al fine di migliorarne l'efficienza.

Sistema termodinamico

Il sistema termodinamico è un innovativo bollitore basato sul sistema di pompa di calore in grado di assorbire l'energia ambientale e solare per riscaldare l'acqua sanitaria in modo particolarmente efficiente rispetto ai sistemi abituali.

E’ un impianto ad elevata efficienza energetica in grado di lavorare tutto l'anno con o senza radiazione solare. L'energia captata viene trasmessa all'acqua attraverso uno scambiatore di calore o condensatore
Un sistema innovativo
I pannelli solari termodinamici, a differenza di quelli tradizioni, sfruttano il ciclo di funzionamento del frigorifero, ma all'inverso. In un frigorifero il pannello interno raffredda sottraendo calore che verrà dissipato dal radiatore esterno, mentre nel sistema termodinamico la parte che raffredda verrà posta all'esterno dell'edificio per assorbire sia il calore del sole che quello ambientale. il calore così acquisito verrà trasferito ad uno scambiatore riscaldando così l'acqua all'interno dell'accumilo.

La tecnologia di questi pannelli basa sul Principio di Carnot (1824) ed un brevetto francese messo a punto venti anni fa.

Il sistema è efficiente e versatile. I vantaggi sono indubbiamente legati al funzionamento estremamente semplice ed alla tipologia di pannello, molto leggero e resistente, che non richiede alcun tipo di manutenzione.
I pannelli solari termodinamici sono di facile installazione e di ridotte dimensioni: ogni pannello pesa ca. 8 kg e non necessitano di particolari opere murarie in installazione.

mercoledì 21 agosto 2013

INVENZIONI E POTENZIALI APPLICAZIONI


L'applicazione del procedimento fisico-matematico della mia invenzione potrebbe dare un contributo significativo per l'ottimizzazione ed il buon funzionamento dei sistemi molto complessi, come la gestione della centrale fotovoltaica più grande d'Europa.

di: DOTT. GIUSEPPE COTELLESSA (ENEA)

“La centrale fotovoltaica più grande d’Europa”

Arriva questa volta dalla Germania, per la precisione da Templin, Brandeburgo, la notizia della inaugurazione della centrale fotovoltaica con moduli a film sottile più grande d’Europa.
La centrale fotovoltaica occupa ben 212 ettari ed è installata su un terreno, ex aeroporto militare, attualmente non utilizzato, ma sfruttato dall’esercito russo fino alla caduta del muro di Berlino.
La centrale solare si stima potrà rifornire di energia pulita circa 36 mila famiglie, producendo circa 120 milioni di Kwh all’anno di energia verde. Energia potenzialmente sufficiente al fabbisogno elettrico stradale di tutta Berlino.
La centrale fotovoltaica, si stima, potrà ridurre l’inquinamento da biossido di carbonio di circa 90 mila tonnellate l’anno.
La realizzatrice del mega progetto è stata la società tedesca Belectric  il cui CEO, Bernhard Beck, afferma soddisfatto:”la centrale solare è equipaggiata della più recente tecnologia Made in Germany. Fin dall’inizio l’obiettivo della nostra società è sempre stato di fornire energia pulita in maniera economica e conveniente. Questa nuova centrale solare dimostra che questo obiettivo è già una realtà. Grazie alla diminuzione dei prezzi di mercato, il solare fotovoltaico può divenire la fonte energetica a tutti gli effetti più conveniente rispetto a tutte le altre”.
La centrale fotovoltaica è stata connessa in realtà già qualche settimana fa ed è stata completata già dall’estate scorsa. In totale ci sono voluti solo 4 mesi per la messa in opera, grazie all’efficace collaborazione delle parti coinvolte.
I pannelli utilizzati sono moduli a film sottile di fabbricazione dell’americana First Solar.

ALTRO ESEMPIO DI APPLICAZIONE SEMPRE SUL FOTOVOLTAICO:

Come viene riportato alla fine dell'articolo "nessun è profeta in patria". Speriamo che questa azienda possa venire a conoscenza dell'invenzione per poterne utilizzare i sicuri benefici.

di: DOTT. GIUSEPPE COTELLESSA (ENEA)


“Messa in servizio della piú grande centrale solare galleggiante del mondo”

L’azienda francese Ciel et Terre ha messo in servizio il piú grande centrale fotovoltaico galleggiante del mondo di piú di 1,1 MW in Giappone.
La centrale, installata su un bacino d’irrigazione di 3 ettari a Okegawa, al di fuori di Tokyo, é stato costruita col partneriato dell’investitore inglese West Holdings.
Secondo la societá francese, mentre c’é poco spazio nell’archipelago sul suolo per costruire grandi centrali, „ci sono migliaia di laghi d’irrigazione e altri recipienti d’acqua adatti”.  Con questa realizzazione Ciel et Terre porta una tecnologia brevettata (Hydrelio con garanzia per 20 anni, capace di resistere ai venti e tifoni.  I galleggianti in polietilene ad alta densitá che compongono les isole solari (5000 moduli) sono stati fabbricati in Francia, in Corréze.
Ciel et Terra conta di sviluppare altri progetti di centrali galleggianti nell’arcipelago, coll’obiettivo di arrivare a 1000 MW in cinque anni. La direzione commerciale di Ciel et Terre International s’installerá in questo mese in Giappone per coprire l’Asia e il mondo.
In Francia, Ciel et Terra si sforzó – in vano – di far riconoscere dai ministeri competenti l’importanza specifica di questa tecnologia, che non consuma spazi agricoli. Ma come  ricorda la societá, nessuno é profeta in patria”.  La Francia conta in effetti numerosi piani d’acqua adatti, dove almeno 2000 MW potrebbero essere installati.


EOLICO, TURBINE PIU' SILENZIOSE ED EFFICIENTI GRAZIE AD UN SUPER COMPUTER


di: DOTT. GIUSEPPE COTELLESSA (ENEA)

Anche in questa particolare applicazione l'invenzione del procedimento fisico-matematico della mia invenzione,  potrebbe dare un contributo significativo per il raggiungimento degli obiettivi proposti.

"Eolico, turbine più silenziose ed efficienti grazie a un super computer"
(Emiliano Angelelli)


Grazie a un nuovo modello ingegneristico sperimentato da GE Global Research in futuro sarà possibile realizzare turbine più silenziose ed efficienti.
Il movimento aerodinamico creato dalle pale eoliche è la fonte di rumore più significativa proveniente dalle turbine: per questo motivo GE Global Research sta studiando un nuovo approccio di design che permetta di ridurre il rumore e allo stesso tempo di migliorare l'efficienza degli impianti. Soprattutto quest'ultimo aspetto è da tenere seriamente in considerazione, perché se nei prossimi 5 anni saranno installati 240 GW di nuovi impianti, come afferma l'azienda, ogni piccolo passo in avanti in questo senso rappresenta un notevole progresso a livello mondiale.
Lo studio compiuto da GE Global Research è stato possibile grazie all'impiego del super computer Red Mesa nei laboratori Sandia del Dipartimento dell'energia americano, grazie a una simulazione chiamata Large Eddy Simulation. L'obiettivo è aumentare la velocità delle pale senza che questo provochi un aumento del rumore.



La simulazione è stata condotta per tre settimane e ha misurato la turbolenza del flusso d'aria che attraversa la sezione di una pala eolica. Il risultato è stata la realizzazione di un modello che secondo GE sarà utile per migliorare il design attuale delle pale e anche per aumentare la potenza in uscita. L'azienda prevede infatti che sarà possibile ottenere un incremento annuale della produzione delle singole turbine del 2% con una riduzione di 1 decibel del rumore del rotore.

Giuseppe Cotellessa

lunedì 19 agosto 2013

L'UOMO PIU' ANZIANO DEL MONDO


Ultime da Ansa

 da www.Ansa.it"
E' ufficiale: l'uomo più vecchio del mondo è Carmelo Flores, un indio che vive nelle montagne della Bolivia ha festeggiato il suo 123/mo compleanno, secondo l'anagrafe locale. Il record è stato confermato dal Registro Civico del Tribunale Supremo Elettorale del paese andino. Flores risulta dunque più vecchio della giapponese Misao Okawa, riconosciuta come la persona più anziana del mondo dal Libro dei Record Guinness con 115 anni, ma anche della francese Jeanne Calmet, morta nel 1997 dopo 122 anni


Intervistato dai media locali, Flores ha raccontato che ha sempre vissuto in modo molto semplice e frugale: lavora ancora come pastore, vive in una capanna a quota 4 mila metri sulle Ande, ha sempre mangiato quello che coltivava ("a volte se mangio pasta mi viene mal di testa") e fino a tre anni fa non disponeva di elettricità né di acqua corrente. "



zero medicine, zero campi elettromagnetici, zero fabbriche , zero inquinamento, quota 4.000,  aria pulita
123 anni senza occhiali . 


venerdì 16 agosto 2013

Nuove tecnologie al servizio dell'archeologia e delle coltivazioni


Da http://www.tmnews.it ( ripresa da Antikitera.net )
"
I DRONI VOLANTI AL SERVIZIO DELL'ARCHEOLOGIA
FOTOGALLERY
                

Molto spesso i siti archeologici si trovano in aree remote e difficili da raggiungere, ma grazie alla tecnologia presa in prestito da quella militare si possono fare importanti scoperte. I droni, spesso usati per combattimenti in zone impervie, ora hanno un nuovo impiego civile, e in Perù vengono utilizzati negli scavi archeologici."Grazie all'uso dei droni radiocomandati possiamo ottenere foto e video dei siti archeologici che ci permettono la produzione di mappe digitali e modelli 3D" spiega la studentessa di archeologia Shelly Miller."Attraverso questi dati è possibile monitorare le aree di prossimità degli scavi, e scoprire pareti, cortili e la trama cittadina in modo da poter individuare la presenza di reperti non ancora portati alla luce" aggiunge il professor Luis Jaime Castillo.Ma l'uso dei droni in Perù si sta diffondendo anche per monitorare lo stato delle coltivazioni, per portare un aiuto concreto ai contadini delle zone più remote. "


giovedì 15 agosto 2013

LUC MONTAGNIER E L'ACQUA CHE "SEMINA" VITA



Luc Montagnier nato Chabris (FR) il  18 agosto 1932 è un medico, biologo e virologo francese.
Professore presso l'Istituto Pasteur di Parigi, presidente della fondazione mondiale per la ricerca e prevenzione dell'AIDS, ha scoperto nel 1983 il virus dell'HIV, insieme alla dottoressa Françoise Barré-Sinoussi e al dottor Robert Gallo e ha vinto il Premio Nobel per la medicina nel 2008.

Nel 2011 una sezione della rivista scientifica Journal of Physics (la Conference Series) ha pubblicato uno studio di Luc Montagnier intitolato DNA waves and water, nel quale viene illustrato come alcune sequenze di DNA potrebbero indurre segnali elettromagnetici di bassa frequenza in soluzioni acquose altamente diluite, le quali manterrebbero poi memoria delle caratteristiche del DNA stesso. Una scoperta che, se fosse confermata, potrebbe aprire nuove prospettive scientifiche a tutto campo.
Ovviamente, nonostante il Nobel e tutto il resto, se uno scienziato del calibro di Montagnier dopo la decisione di approfondire gli studi sull’”OMEOPATIA,  fa scoperte epocali ed ottiene risultati strabilianti, senza il supporto e l'ausilio del "carrozzone" accademico-scientifico, cade inevitabilmente in disgrazia.
Ma l'importante è perseverare, e Montagnier lo ha fatto, divulgando tutto sulle sue ricerche. Sono convinto che  alla fine,  anche gli strenui inutili baluardi del "vecchio carrozzone",  finiranno per morire o perdersi nel nulla insieme ai discepoli-servi e si riconoscerà il valore dei pionieri come Montagnier.

Ma vediamo come lo scienziato francese ha scoperto ed ottenuto risultati incredibili dallo studio dell'acqua.
Lo spiega il Prof. Emilio Del Giudice fisico:
"Montagnier pone in una provetta di acqua delle sequenze di DNA batterico; e poi molto importante diluisce via via con acqua. Una bobina prende i segnali elettromagnetici provenienti dalla provetta. Prima cosa importante è il fatto che più si diluisce più aumentano i segnali elettromagnetici! Quindi è lacqua a regolarne lintensità. Quali frequenze? Lo stabilisce il DNA. Infatti, lacqua può oscillare su un grande numero di frequenze, ma è il partner con cui lacqua se la sta facendo in quel momento che stabilisce quali.

Già questo è interessantissimo, e si capisce che Montagnier si è ispirato ai famosi esperimenti di Jacques Benveniste, che a suo tempo purtroppo furono incompresi.
Sì, infatti, Montagnier non ne fa mistero Ma lui è andato oltre, e infatti la seconda parte dellesperimento è quella più sconvolgente. Ebbene, cosa succede? Questi segnali vengono inviati ad un secondo recipiente con pura acqua distillata e, per evitare dubbi di contaminazione, la cosa è stata fatta anche per via telematica a centinaia di km di distanza.

Che succede nel recipiente di acqua pura esposto a questi segnali?
Gli sperimentatori aggiungono a quellacqua pura le sostanze necessarie alla strutturazione del DNA, adenina, timina, citosina e guanina, più i necessari catalizzatori, le polimerasi, ecc e cosa succede? Dopo un certo numero di ore (circa 20 ore) compare fisicamente lo stesso tipo di DNA da cui era stato estratto il segnale!!!


Eccezionale! Quindi, capire lacqua fresca aiuta a risolvere il mistero della vita?!
Eh sì! Ma, non solo, capire queste cose potrà permettere di dare origine ad una nuova industria chimica non inquinante, che si ispiri al caso biologico, in cui le molecole interagiscono in maniera precisa tra di loro senza generare composti a caso, e cioè in maniera altamente efficiente, a basso consumo energetico, e senza generare rifiuti inquinanti E credo che lEffetto Ossidroelettrico che ho da poco sperimentalmente evidenziato in PROMETE, cioè lestrazione di corrente elettrica dallacqua, mediata dalle molecole di Ossigeno, possa essere un primo passo in questa direzione. Infatti, gli organismi viventi riescono proprio grazie allacqua a trasformare energia di basso grado (calore, infrarossi) in energia di alto grado (energia elettrica, energia chimica), appunto con questo tipo di meccanismi ancora non molto chiari ai più…”
Perche lacqua, fondamento della vita è scientificamente snobbata?
Emilio Del Giudice:
“…E semplice rendersi conto che lacqua ha un ruolo fondamentale nella vita. Il nostro corpo, come numero di molecole, è costituito da circa il 99% da molecole dacqua; soltanto il restante 1% è costituto da molecole diverse dallacqua (proteine, DNA, ormoni, vitamine, ecc). Ci si può chiedere come mai i biologi finora hanno studiato l1% e trascurato il 99%. La ragione è che esiste il preconcetto secondo cui la dinamica biologica è governata dalla chimica, cioè dal fatto che questo 1% di molecole si incontra, fa reazioni chimiche, e linsieme di tutte queste reazioni chimiche da luogo alla dinamica biologica. Siccome le molecole dacqua non fanno reazioni chimiche, vengono trascurate, come se fossero gli spettatori della partita: allo stadio 22 persone giocano e 60 000 guardano

Come superare questo preconcetto? Sarà di certo difficilissimo. Ad esempio, ci sono voluti secoli per cogliere lesistenza della pressione atmosferica
Il trucco sta nel farci una domanda ingenua. Spesso sono proprio le domande ingenue che danno origine alle grandi scoperte. Nella visione attuale, posto che siano le molecole diverse dallacqua che danno origine alla dinamica vivente, come fanno queste molecole a riconoscersi, a trovarsi e ad incontrarsi? Infatti, nella dinamica biochimica non ci sono errori, non ci sono incontri che danno luogo a specie molecolari non volute. Mentre in un reattore chimico industriale ci sono incontri di ogni genere, per cui oltre al prodotto che si vuole si producono anche i rifiuti. Ma allora deve esistere una sorta di governo delle reazioni biochimiche, un qualche agente fisico che dice alle molecole dove devono andare e chi devono incontrare.

La domanda apparentemente sciocca, come quelle che fa il tenente Colombo, ci sta iniziando a far intuire qualcosa Quindi, qual è questo agente?
Si può senzaltro candidare a questo ruolo il campo elettromagnetico. Infatti esiste un teorema che dice che quando un campo elettromagnetico occupa una certa regione di spazio ed oscilla ad una certa frequenza, è capace di attirare in quella regione molecole che oscillino alla stessa frequenza (o a frequenze molto simili). C’è quindi un meccanismo selettivo di richiamo.

Ma chi produce questo campo elettromagnetico?
Negli ultimi anni, la risposta a questa domanda ha fatto cogliere il ruolo fondamentale dellacqua. Le molecole dacqua sono capaci di avere unattività collettiva, cioè in metafora: le molecole dellacqua liquida non sono una folla di oggetti indipendenti, ma sono come un corpo di ballo, cioè danno luogo ad un ordine, non di tipo spaziale, come in un cristallo, ma si muovono in modo definito. Poiché i campi magnetici sono prodotti dalle oscillazioni delle cariche elettriche, unoscillazione di un gran numero di molecole in fase da luogo appunto ad un campo elettromagnetico ben definito. Ecco lorigine del campo elettromagnetico, che si comporta da governatore; ed ecco quindi anche il ruolo per i 60 000 dello stadio i quali, facendo la ola, fanno sì che i calciatori giochino meglio…”

Sincronicità, entaglement, sono tutti aspetti da approfondire, poichè è indubbio che l'acqua supporta fenomeni che sono il fondamento della vita, ma che non siamo ancora in grado di comprendere appieno.


Le implicazioni sulla ricerca di vita ET delle scoperte di Montagnier sulla memoria, e sulla  trasmissione di segnali "non locali" anche attraverso l'acqua,  sono fondamentali.

La mia ipotesi  é che, chiunque detenesse una conoscenza ed una tecnologia avanzata in questo campo, potrebbe letteralmente portare e replicare la vita su qualsiasi pianeta che ospitasse acqua allo stato liquido e forse anche solido (ghiaccio),  semplicemente trasmettendo il segnale elettromagnetico voluto, come quello che Montagnier registra ogni volta che replica l'esperimento.  

Chi ci dice che qualcuno non l'abbia già fatto, magari più e più volte?
Dopotutto se nell'Universo ci fossimo solo noi terrestri..."non sarebbe uno spreco di spazio"?

MLR



Bibliografia
E. Collini, C. Y. Wong, K. E. Wilk, P. M. G. Curmi, P. Brumer, G. D. Scholes, Coherently wired light-harvesting in photosynthetic marine algae at ambient temperature, Nature 463, 644-647 (2010).
N. Marchettini, E. Del Giudice, V. L. Voeikov, E. Tiezzi
Water: A medium where dissipative structures are produced by a coherent dynamics,
J. Theo. Bio. 265, 511-516 (2010).
A. Kurcz, A. Capolupo, A. Beige, E. Del Giudice, G. Vitiello, Energy concentration in composite quantum systems, Phys. Rev. A 81, 063821 (2010).
E. Del Giudice, G. Vitiello, Role of the electromagnetic field in the formation of domains in the process of symmetry-breaking phase transitions, Phys. Rev. A 74, 22105 (2006).
E. Del Giudice, R. M. Pulselli, E. Tiezzi, Thermodynamics of irreversibile processes and Quantum Field Theory: An interplay for the understanding of ecosystem dynamics, Ecol. Model. 220, 1874-1879 (2009).
A. Tedeschi, Is the living dynamics able to change the properties of water?, International Journal of Design & Nature and Ecodynamics, 5(1), 6067 (2010).
R. Germano et al., Oxhydroelectric Effect: Electricity from Water by Twin Electrodes, Key Engineering Materials, 495, 100-103 (2012).
R. Germano et al., Oxhydroelectric Effect: oxygen mediated electron current extraction from water by twin electrodes, Journal of Optoelectronics and Advanced Materials (in corso di pubblicazione).
L. Montagnier, J. Aissa, S. Ferris, J. Montagnier, C. Lavallée, Electromagnetic Signals Are Produced by Aqueous Nanostructures Derived from Bacterial DNA Sequences, Interdiscip. Sci. Comput. Life Sci., 1:81-90 (2009).
L. Montagnier , J. Aissa, E. Del Giudice, C. Lavallée, A. Tedeschi and G. Vitiello, DNA , Waves and water, Journal of Physics: Conferences Series, The proceedings of DICE 2010: Space, Time, Matter - Current Issues in Quantum Mechanics and Beyond, 2011 (in corso di pubblicazione).

Roberto Germano - 05/08/2013 


Intervista a :
Emilio Del Giudice
Fisico teorico. Ricercatore INFN a Milano, ora in pensione, è membro dell'International Institute of Biophysics di Neuss in Germania. Ha lavorato presso il MIT di Cambridge, USA e presso il Niels Bohr Institute di Copenhagen. I suoi interessi scientifici riguardano prevalentemente la teoria quantistica dei campi, e lo studio delle proprietà collettive della materia, per fare luce sulla natura della vita. E autore di numerosissimi articoli scientifici. E stato insignito della Prigogine Medal 2009.

Per approfondire
Metodo WHITE e HadoShiatsu
Il Prof.Emilio Del Giudice (INFN, Milano) è pubblicato online sul Journal of
Physics con il recente lavoro "The interplay of biomolecules and water at the origin of the active behavior of living organisms". Scritto insieme a Giuseppe Vitiello, fisico teorico (Univ. Salerno), Alberto Tedeschi, studioso delle dinamiche coerenti dell'acqua (metodo WHITE) e
Patrizia Stefanini, fisica  che studia le dinamiche biofisiche dello shiatsu
(HadoShiatsu), il paper illustra il  metodo WHITE che per permette di ottenere
acqua biologica supercoerente e la sua rilevanza sulla salute, la materia
vivente e gli ecosistemi e HadoShiatsu, una innovativa pratica della medicina
tradizionale cinese che utilizza principi della fisica quantistica.
Il download del paper è libero al seguente link:
http://iopscience.iop.org/1742-6596/329/1/012001/