Vai al contenuto


Le cose più strane e curiose nel mondo

informazione cultura guinness scienza

  • Per cortesia connettiti per rispondere
187 risposte a questa discussione

#121 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 31 agosto 2016 - 04:02

Colore della pelle umana
 
colore%20della%20pelle%20scura.jpg
 
Dati storici per le "popolazioni native" Renato Biasutti al 1940. Le tonalità più scure rappresentano colori della pelle più scuri. Vedi anche qui.
Il colore della pelle umana può variare da quasi nero a quasi incolore (quest'ultimo appare lievemente rosato per la presenza dei vasi sanguigni e capillari), a seconda delle persone. Il colore della pelle non dipende da una concentrazione più o meno elevata di melanina, quanto piuttosto dalla presenza nelle cellule di vacuoli che la contengono. Le cellule degli individui con la pelle scura hanno la melanina dispersa nel citosol, gli individui con la pelle chiara invece la melanina racchiusa in vacuoli. In generale, persone che hanno antenati provenienti da regioni soleggiate hanno pelli più scure di persone con antenati da regioni meno soleggiate. La regola non è tuttavia ferrea e il colore della pelle può assumere una tonalità qualsiasi tra quelle dell'intero spettro. Di media, le donne hanno pelle lievemente più chiara rispetto agli uomini.
 
A livello culturale, le metafore che associano il colore della pelle all'etnia si sono evolute basandosi sulle variazioni genetiche del colore della pelle umana, cambiando i criteri arbitrari utilizzati tradizionalmente per definire il numero di categorie da usare.
 
Mappa pubblicata dalla bibliografici Institute, Lipsia e Vienna, quarta edizione, 1885-1892
Il colore della pelle è determinato dalla quantità e dal tipo di pigmento (melanina) nella pelle. La melanina si presenta in due forme: la pheomelanina, che corrisponde ai colori dal giallo al rosso, e la eumelanina che va dal marrone scuro al nero. Sia la quantità che il tipo sono determinati da quattro-sei geni che operano secondo il meccanismo di dominanza incompleta. Una copia di ognuno di questi geni è ereditata dal padre, e uno dalla madre. Ogni gene si presenta sotto forma di numerosi alleli, producendo una grande varietà di colori differenti della pelle.
 
La pelle scura protegge dai melanomi causati dalle mutazioni nelle cellule della pelle, indotte dai raggi ultravioletti. Le persone con pelle chiara hanno una probabilità dieci volte superiore di morte per melanoma, se esposte ad analoghe condizioni di esposizione solare. Inoltre, la pelle scura protegge dal rischio di distruzione della vitamina B folato da parte delle radiazioni UV-A. Il folato è necessario per la sintesi del DNA durante la duplicazione cellulare, e livelli bassi di folato durante la gravidanza sono collegati a difetti congeniti.
 
Mentre la pelle scura protegge la vitamina B, può anche portare a una deficienza in vitamina D. Il vantaggio della pelle più chiara sta nel bloccare meno efficacemente la luce solare, e quindi nel favorire la produzione di vitamina D3, necessaria per l'assorbimento del calcio e la crescita ossea. Questo ha portato all'introduzione di latte arricchito con vitamina D in alcuni paesi. Le tonalità più chiare della pelle femminile potrebbero dipendere dal fabbisogno maggiore di calcio durante la gravidanza e l'allattamento.
 
Una delle ipotesi sull'evoluzione dei differenti colori della pelle umana è attualmente la seguente: gli antenati pelosi degli umani, come accade per i moderni primati affini all'uomo, avevano pelle chiara al di sotto del pelo. Una volta che il pelo fu perso, essi scurirono progressivamente il colore della pelle come difesa dai raggi solari, prevenendo l'insorgenza di bassi livelli di folato, dato che vivevano nell'Africa assolata (il melanoma ha probabilmente un'importanza secondaria, visto che il cancro alla pelle generalmente è mortale solo dopo l'età riproduttiva e quindi non costituisce una forte spinta evoluzionistica). Quando gli esseri umani migrarono in regioni più a nord, con esposizione minore ai raggi solari, la carenza di vitamina D divenne un problema significativo e la pelle chiara tornò a fare la sua comparsa.
 
Gli inuit e gli yupik sono casi particolari: sebbene vivano in un ambiente estremamente poco esposto al sole, hanno conservato tonalità relativamente scure. Questo può essere spiegato dall'alimentazione a base di pesce, ricca di vitamina D. Un'altra eccezione è l'albinismo, caratterizzato dall'assenza di melanina causata da una mutazione genetica, ad eredità autosomica recessiva, e che si manifesta con pelle e capelli acromatici (essenzialmente privi di colore, ma tendenti al giallo paglierino); la pelle, in questo caso, assume un colore rosato, determinato dai capillari che la irrorano.
 
Il colore della pelle è stato spesso usato nel tentativo improprio di definire la razza; spesso le supposizioni sono state di natura controversa e hanno generato casi di razzismo.
 
Ricerche sulla variabilità del colore
Il colore della pelle umana varia dal marrone scuro al quasi incolore, che appare un rosato chiaro per via dei vasi sanguigni nella pelle. Nel tentativo di scoprire i meccanismi che hanno generato una variazione così ampia del colore, Nina Jablonski e George Chaplin scoprirono una forte correlazione tra le colorazioni della pelle umana in popolazioni indigene e la radiazione ultravioletta media dove tali indigeni abitano.
 
Chaplin riportò il "candore" (W) della colorazione della pelle di indigeni che erano rimasti nella stessa area geografica per gli ultimi 500 anni, confrontandolo con la quantità annua di raggi ultravioletti (AUV) per oltre 200 persone indigene; trovò che il "candore" W della pelle è legato all'esposizione dall'equazione approssimata
 
{\displaystyle W=70-{\frac {AUV}{10}}} {\displaystyle W=70-{\frac {AUV}{10}}}
Jablonski and Chaplin (2000), p. 67,
I coefficienti della formula sono stati arrotondati alla prima cifra decimale
laddove il "candore" W del colore della pelle è misurato come la percentuale di luce riflessa dalla parte interna del segmento superiore del braccio, sulla quale l'abbronzatura della pelle dovrebbe essere minima; un uomo con la pelle più chiara rifletterebbe più luce e avrebbe un valore di W più alto. A giudicare dall'approssimazione lineare fatta sui dati empirici, il teorico uomo dalla pelle "più bianca" rifletterebbe solo il 70% della luce incidente, pur appartenendo a un'ipotetica popolazione umana che vivesse in una zona con esposizione nulla ai raggi ultravioletti (AUV=0). Jablonski e Chaplin valutarono la media annuale delle radiazioni ultraviolette a cui veniva esposta la pelle, utilizzando misure fatte dai satelliti che prendevano in considerazione la variazione dello spessore dello strato d'ozono che assorbe gli UV, la variazione giornaliera di opacità della copertura nuvolosa e le variazioni giornaliere dell'angolo con cui i raggi solari contenti radiazioni UV colpivano la Terra attraversando diversi spessori dell'atmosfera terrestre, a differenti latitudini, per ognuno dei luoghi d'origine dei differenti popoli indigeni dal 1979 al 1992.
 
Jablonski e Chaplin proposero una spiegazione per la variazione di colore della pelle umana non abbronzata con l'esposizione annuale ai raggi ultravioletti; essa si basa sulla competizione tra due forze che agiscono sul colore della pelle umana:
 
la melanina, che produce i toni più scuri della pelle umana, serve come filtro per la luce a protezione degli strati interni della pelle, evitando scottature e interferenze nei processi di sintesi dei precursori del DNA umano;
l'esigenza per gli esseri umani di far penetrare almeno una piccola porzione di luce ultravioletta sottopelle per produrre vitamina D, utile per fissare il calcio nelle ossa.
Jablonski e Chaplin notarono che quando popolazioni indigene compivano migrazioni, portavano con loro un pool genico sufficiente a consentire variazioni significative del colore in periodi di circa mille anni. Così, la pelle dei loro attuali discendenti si è schiarita o scurita per adattarsi alla formula, con l'eccezione già citata dei popoli della Groenlandia, che hanno una dieta ricca in pesce, e quindi di vitamina D e hanno perciò potuto vivere in zone a bassa esposizione solare senza che il colore della pelle subisse cambiamenti.
 
Nel considerare il colore della pelle umana attraverso il lungo periodo dell'evoluzione umana, Jablonski e Chaplin notarono che non c'era nessuna evidenza empirica a suggerire che gli antenati dell'essere umano, sei milioni di anni fa, avessero un colore di pelle differente da quello degli attuali scimpanzé — che hanno pelle di colore chiaro e pelo scuro. Ma così come gli uomini evolvettero per perdere il loro pelo corporeo, così un'evoluzione parallela permise alle popolazioni umane di cambiare il colore della pelle di base verso il nero o il bianco in un periodo inferiore a un migliaio d'anni per compensare le esigenze di
 
aumentare l'eumelanina per proteggersi dai raggi ultravioletti troppo intensi
ridurre l'eumelanina per sintetizzare sufficiente vitamina D.
Con questa spiegazione, nel tempo in cui gli umani vissero solo in Africa, ebbero la pelle scura e vissero per lunghi periodi di tempo in zone con esposizione solare intensa. Nel momento in cui alcuni umani migrarono a nord, con l'andar del tempo svilupparono pelle bianca, sebbene mantenessero la possibilità di sviluppare pelle scura all'interno del pool genico non appena fossero migrati nuovamente in aree con insolazione intensa, come accade a sud dell'Equatore.
 
Origine della pelle bianca negli esseri umani
Molti geni sono stati indicati come spiegazioni della variazione del colore della pelle negli esseri umani, tra cui ASIP, MATP, TYR, e OCA2. È stato dimostrato che un gene di recente scoperta, SLC24A5, contribuisce in maniera significativa allo stabilire le differenze tra europei e africani, fino ad una media di 30 unità di melanina.
 
Variazioni significative nel colore della pelle umana sono state correlate a mutazioni di un altro gene, MC1R (Harding et al 2000:1351). Il nome "MC1R" deriva dall'inglese melanocortin 1 receptor, ovvero recettore 1 della melanocortina:
 
"melano" significa nero;
"melanocortina" si riferisce all'ormone stimolante, prodotto dalla ghiandola pituitaria, che ordina alle cellule di produrre melanina;
"1" specifica l'appartenenza alla prima famiglia dei geni per la melanocortina;
"recettore" indica che la proteina derivante dalla sequenza di questo gene serve come segnale di rilascio della melanina attraverso la membrana cellulare. Il segnale ormonale proveniente dalla ghiandola pituitaria, quindi, ha la proteina ottenuta con la sequenza amminoacidica di MC1R come recettore, stimolando la produzione di melanina.
Il gene MC1R è composto da un segmento di 954 nucleotidi. Analogamente a tutto il resto del DNA, ogni nucleotide può contenere una delle quattro basi azotate: adenina (A), guanina (G), timina (T), o citosina ©. 261 di questi nucleotidi possono cambiare senza effetti di rilievo sulla sequenza amminoacidica nella proteina recettore, per via della sinonimia di molte delle triplette nucleotidiche, che portano alla produzione di amminoacidi uguali seppur con combinazioni di nucleotidi lievemente differenti secondo il meccanismo della "mutazione silente". Harding analizzò le sequenze amminoacidiche nelle proteine recettore di 106 individui africani e 524 non-africani per comprendere il motivo della colorazione nera della pelle di tutti gli africani. Harding non trovò differenze tra gli africani per quanto riguardava le sequenze amminoacidiche nelle loro proteine recettore. In compenso, negli individui non-africani, c'erano 18 siti amminoacidici in cui le proteine recettore differivano, e tutte le alterazioni davano origine a pelli più chiare di quelle africane. Inoltre, le variazioni nei 261 siti "silenti" dell'MC1R erano molto simili tra africani e non-africani, quindi i tassi di mutazione erano gli stessi. Il perché non ci fossero né differenze né divergenze nelle sequenze amminoacidiche delle proteine recettore tra gli africani, mentre ce n'erano almeno 18 tra irlandesi, inglesi e svedesi era un interrogativo pressante.
 
Harding concluse che l'intensità solare in Africa avesse creato un vincolo evoluzionistico che riduceva fortemente la sopravvivenza di progenie con una differenza qualsiasi nei 693 siti del gene MC1R che risultasse in una singola variazione nella sequenza amminoacidica della proteina recettore - perché ogni variazione dal recettore africano avrebbe prodotto pelle notevolmente più bianca, che non offriva affatto protezione dal sole africano. Al contrario (in Svezia, per esempio), il sole era così debole che una qualsiasi mutazione non avrebbe compromesso la probabilità di sopravvivenza della progenie. Inoltre, negli individui irlandesi, inglesi e svedesi, le variazioni dovute a mutazioni tra i 693 siti genici che causavano cambiamenti nella sequenza amminoacidica erano le stesse che subivano i 261 siti genici dove "mutazioni silenti" continuavano a produrre la stessa sequenza amminoacidica. Quindi, Harding concluse che il sole intenso dell'Africa uccideva la progenie di coloro che avevano mutazioni in MC1R tali da avere pelle più chiara. Comunque, il tasso di mutazioni necessario affinché vi fosse pelle più chiara nella progenie degli africani migrati verso nord, era comparabile con quello di uomini bianchi con antenati sempre vissuti in Svezia. Da qui, Harding concluse che il "biancore" della pelle umana era un risultato diretto di mutazioni casuali nel gene MC1R non letali alle latitudini di Irlanda, Inghilterra e Svezia. Anche le mutazioni che producevano individui con capelli rossi e scarsa capacità di abbronzarsi erano non letali alle latitudini più settentrionali.
 
Rogers, Iltis, e Wooding (2004) esaminarono i dati di Harding sulla variazione delle sequenze nucleotidiche di MC1R per individui con differenti progenitori per determinare la più probabile progressione del colore della pelle umana negli antenati durante gli ultimi 5 milioni di anni. Confrontando le sequenze nucleotidiche di MC1R di scimpanzé e umani in varie aree della Terra, Rogers concluse che i progenitori comuni di tutti gli uomini avevano la pelle chiara sotto il pelo scuro, simile alla combinazione di colori degli scimpanzé odierni. Quindi, 5 milioni di anni fa, il pelo scuro degli antenati degli esseri umani li proteggeva dall'intenso sole africano; non c'era quindi nessun vincolo evoluzionistico che uccidesse la progenie di coloro che avessero avuto sequenze nucleotidiche di MC1R che rendessero la loro pelle bianca. Comunque, oltre 1,2 milioni di anni fa, a giudicare dal numero e dalla diffusione di mutazioni tra umani e scimpanzé nelle sequenze nucleotidiche, gli antenati umani in Africa cominciarono a perdere pelo e furono sottoposti al vincolo di cui sopra. Da allora, tutte le persone che hanno discendenti oggi, avevano esattamente la proteina recettore degli odierni africani; la loro pelle era nera, e tutti coloro che avevano tonalità più chiare venivano uccisi dall'esposizione solare.[8] Ciò ovviamente non valse per coloro che emigrarono verso nord ed evitarono il vincolo rappresentato dall'intensità solare. Raccogliendo dati statistici sulle variazioni di DNA tra tutte le persone che hanno un campione disponibile e sono a tutt'oggi viventi, Rogers concluse che:
 
da 1,2 milioni di anni fa, per un milione di anni, tutti gli antenati delle persone ora viventi erano nere come gli attuali africani;
per quel periodo di un milione di anni, gli antenati degli uomini vissero nudi senza vestiario;
i discendenti di una qualsiasi persona che migra dall'Africa verso nord diventeranno progressivamente più bianchi a lungo termine poiché il vincolo evoluzionistico che coinvolge gli africani diminuirà più si va verso nord.
Quest'ultima affermazione, comunque, non tiene conto del periodo di tempo in cui questa mutazione dovrebbe avvenire. La dipendenza da questo periodo di tempo dovrà far sì che la teoria di Rogers ammetta anche che il periodo di tempo è sufficiente a definire adeguatamente la variabilità osservata, oppure a lasciare l'interpretazione arbitraria. Nessuno studio è stato ancora fatto per trovare questo tasso di mutazione.
 
 


#122 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 07 settembre 2016 - 05:29

Il cervello
 
Gray715.png
 
Il cervello-encefalo non risulta di interesse anatomico per gli antichi egizi, nonostante una già consolidata chirurgia della testa. Ciò può sembrare paradossale, ma era di fatto considerata un'attività servile. Sappiamo di certo che l'asportazione dell'encefalo durante il trattamento di un cadavere, avveniva mediante uncini attraverso il naso, cosa che non dava alcun riscontro morfologico.
 
Il Papiro Chirurgico di Edwin Smith, risalente al XVII secolo a.C., contiene i primi riferimenti scritti relativi al cervello. La parola cervello appare otto volte in questo papiro che descrive i sintomi, la diagnosi e la prognosi di due pazienti, feriti alla testa, che presentavano una frattura composta del cranio.
 
Nel mondo greco, Ippocrate e altri filosofi come Platone identificavano nel cervello la sede del pensiero (encefalocentrismo). Aristotele riteneva ancora che fosse il cuore la sede dell'intelligenza, e vedeva il cervello come un meccanismo di raffreddamento del sangue, riscaldato dal corpo. Aristotele riteneva quindi che gli esseri umani fossero più razionali delle bestie in quanto possedevano un cervello più grande in grado di raffreddare meglio il loro sangue caldo.
 
Durante l'impero romano, l'anatomista Galeno, dissezionò numerosi cervelli di vari animali. Egli ci dice, nei suoi Procedimenti anatomici (cap. IX) che l'encefalo viene suddiviso dalle meningi in "cervello" (encephalon) o "cervello anteriore" e in "cervello posteriore" o enkranion o epikranion, cioè in cervello e cervelletto.
 
Attraverso l'osservazione delle differenze di struttura e sostanza fra cervello e cervelletto, concluse che il primo, essendo più tenero, dovesse essere il contenitore delle sensazioni, mentre il secondo, essendo più denso, dovesse controllare i muscoli. Nonostante i presupposti fossero sbagliati, le conclusioni di Galeno erano vicine alla realtà. Galeno, inoltre, scoprì che il cervello è cavo a causa della presenza di ventricoli che sono riempiti di un liquido (liquido cerebrospinale). Questa caratteristica del cervello, lo portò a ritenere valida la teoria, fino ad allora dominante, secondo la quale il cervello funzionava tramite il movimento e il bilanciamento di quattro fluidi (detti umori).
 
Riprendendo ipotesi più volte esposte, Cartesio teorizzò la divisione tra mente e corpo (vedi dualismo mente-cervello).
 
Thomas Willis nel 1664 edita il suo Cerebri anatome, che contiene la più dettagliata e completa descrizione del cervello comparsa fino allora. Tratta del circolo arterioso che da lui prenderà il nome. Contribuisce anche alla terminologia medica, coniando la parola neurologia per indicare la disciplina e il termine corpo striato per i gangli della base.
 
Franz Joseph Gall (1758-1828) e Johann Spurzheim (1776-1832) per primi dimostrano che la sostanza bianca è costituita da fibre nervose e postulano l'esistenza di differenti centri per le diverse funzioni del cervello. Sfortunatamente questa ipotesi viene inizialmente screditata da teorie puramente speculative, anche da parte degli stessi Gall e Spurzheim (come il "centro dell'amicizia", quello "dell'ambizione" e via dicendo). Da questi primi studi quindi si sviluppò la frenologia.
 
Per determinare la funzione di una specifica parte del cervello si ricorreva al metodo di ablazione sperimentale: in pratica si lesionava una regione del cervello e se ne osservavano le conseguenze. Uno dei primi ad usare questo metodo fu il fisiologo francese Marie Jean-Pierre Flourens che nel 1823 dimostrò che il cervelletto era davvero implicato nella coordinazione del movimento, come già intuito da Galeno.
 
Fu Pierre Paul Broca che descrisse il centro motorio del linguaggio (1861), mentre Karl Wernicke descrive un'area similare le cui lesioni comportano afasia sensoriale (1874). John Hughlings Jackson osserva pazienti epilettici ed elabora la teoria dell'esistenza all'interno del sistema nervoso centrale di gerarchie funzionali.
 
Nel 1929, lo psichiatra austriaco Hans Berger registrò il primo potenziale elettrico di un cervello in vivo. Questa tecnica, conosciuta come elettroencefalogramma o EEG, permette di misurare la corrente che scorre nella corteccia cerebrale durante l'eccitazione sinaptica dei dendriti e viene oggi utilizzata nella diagnosi di determinate condizioni neurologiche come le crisi epilettiche e per scopi di ricerca.
 
L'homunculus motorio e quello sensitivus sono di Penfield e Rasmussen, del 1957.
 
Nel 1994 Semir Zeki dà inizio allo studio delle basi neurali della creatività e dell'apprezzamento estetico dell'arte. Nel 2001 fonda l'Istituto di Neuroestetica, con base a Berkeley, in California.
 
Evoluzione e anatomia comparata del cervello
Nei primi animali pluricellulari, i poriferi, non si riscontra alcuna struttura che coordini i diversi tessuti. Gli cnidari sono i primi a sviluppare un sistema nervoso, nel quale però non è identificabile alcuna struttura definibile come cervello, ma solo una rete nervosa formata da neuroni sensoriali (afferenti), interneuroni di connessione e neuroni motori (efferenti). Alcuni zoologi identificano questa struttura come un cervello delocalizzato. Tale sistema comunque è già in grado di ricevere stimoli sensoriali complessi ed elaborare riflessi coordinati.
 
La cefalizzazione e il cervello vero e proprio
 
Cervello di una locusta
L'avvento della simmetria bilaterale ha conferito agli eumetazoi una direzionalità, con una parte anteriore ed una posteriore, al contrario degli animali a simmetria radiata, nei quali non si distingue alcuna direzione preferenziale. La presenza di una parte anteriore fa sì che sia questa ad incontrare per prima un nuovo ambiente, il che ha indotto l'avvio del processo di cefalizzazione, consistente inizialmente nella concentrazione degli organi sensoriali e dei centri nervosi necessari all'elaborazione degli stimoli in una zona anteriore denominata capo.
 
Nei platelminti è possibile distinguere un rudimentale cervello, costituito da due insiemi di corpi cellulari concentrati nella zona cefalica. Negli anellidi sono presenti anche numerosi gangli.
 
Gli artropodi sono i primi esseri in cui si può osservare una specializzazione delle diverse aree del cervello, insieme alla quale si osserva la comparsa di comportamenti complessi, come per esempio l'organizzazione sociale. Il cervello degli artropodi è diviso in tre strutture differenti e possiede enormi lobi visivi dietro ogni occhio.
 
Nei molluschi si osserva un sistema nervoso di tipo gangliare. Dopo i vertebrati i molluschi sono gli animali con il cervello più complesso. Tra i molluschi i cefalopodi hanno il maggior sviluppo cerebrale, e in particolare il polpo ha un cervello molto grande ed organizzato la cui struttura si riflette in riflessi cognitivi e comportamentali estremamente complessi.
 
Negli echinodermi e nei tunicati non è individuabile una struttura precisa identificabile come cervello, che in queste specie, come negli eumetazoi più semplici, si considera delocalizzato[3].
 
Il cervello dei vertebrati
Questa voce è parte della serie
Sistema nervoso centrale
Midollo spinale
Encefalo
Tronco encefalico
Mesencefalo
Ponte
Bulbo (Mielencefalo)
Cervelletto
Cervello (Prosencefalo)
Telencefalo
Diencefalo
EmbryonicBrain-Italiano.png
Questo box: vedi • disc. • mod.
 
Cervello di uno squalo
Nei vertebrati si osservano alcune differenze fondamentali. È infatti possibile individuare due strutture diverse, il telencefalo e il diencefalo, che formano il cervello vero e proprio, detto anche prosencefalo, mentre le altre strutture contenute all'interno della scatola cranica (mesencefalo ponte e bulbo) formano il tronco encefalico[4]. Nei primi vertebrati acquatici (agnati e ittiopsidi), il telencefalo è solo una piccola protuberanza con funzioni sensoriali (olfattive) e il prosencefalo stesso è molto piccolo rispetto all'encefalo nel suo insieme, mentre il mesencefalo raggiunge dimensioni considerevoli. Questo fenomeno è correlato alla maggiore importanza che ha l'afferenza sensoriale della linea laterale, a sua volta correlata alla maggior mobilità di questi animali nell'ambiente tridimensionale.
 
Cervello di un topo. Notare l'aspetto più liscio rispetto al cervello dei mammiferi superiori, legato ad una minor estensione della corteccia.
Nei vertebrati terrestri è invece il prosencefalo che si ingrandisce fino a formare una struttura liscia che occupa la scatola cranica quasi per intero. L'encefalo viene separato dalla scatola cranica tramite membrane di tessuto connettivo chiamate meningi. Cellule specializzate dividono il cervello dal flusso sanguigno, formando la barriera emato-encefalica. L'ingrandimento e la maggior organizzazione cerebrale negli amnioti riflettono lo spostamento degli arti dalla posizione laterale a quella ventrale, con conseguente coordinazione dell'oscillazione e dello spostamento degli arti. Il controllo degli arti assume una notevole importanza a livello cerebrale negli arcosauri bipedi e negli uccelli, riflettendosi sulla struttura cerebrale.
 
La maggior parte delle funzioni cerebrali legate alla coordinazione del movimento nei vertebrati sono affidate ad una struttura posteriore al cervello chiamata cervelletto.
 
La struttura che più differenzia il cervello dei mammiferi da quello degli altri vertebrati è la corteccia cerebrale, uno strato laminare di tessuto cerebrale che costituisce la parte più esterna del telencefalo. Grazie a questa struttura vengono esplicate le funzioni cerebrali più complesse, quali la memoria e il linguaggio. La corteccia conferisce al cervello di alcuni mammiferi il classico aspetto rugoso, con profondi solchi e circonvoluzioni. Si osservano inoltre profonde modificazioni anatomiche, specialmente al livello del telencefalo e dei lobi frontali.
 
Il cervello umano
Cervello
Human brain.png
Disegno di un encefalo visto dall'alto, in cui si osserva il solo cervello che copre le due restanti parti.
 
Disegno della base del cervello, apprezzabile a causa della sezione, a livello dei peduncoli cerebrali, del tronco encefalico, rimosso assieme al cervelletto che gli è associato.
Sistema nervoso
Arteria Arteria cerebrale superiore, media, inferiore
Vena Seno sagittale superiore e seno sagittale inferiore
Sviluppo embriologico Prosencefalo
MeSH Prosencephalon
68016548
 
Sezione assiale (orizzontale) di una testa umana. Visibili cranio, meningi, corteccia cerebrale e materia bianca
Il cervello umano è posto all'apice, sia dal punto di vista della struttura che della funzione, del sistema nervoso centrale. In termini rigorosamente anatomici, il cervello è il risultato dello sviluppo embriologico del prosencefalo, termine che viene utilizzato come suo sinonimo, venendo a comprendere due parti note come diencefalo e telencefalo.
 
Colloquialmente con la parola cervello si intende l'intero contenuto nervoso della cavità cranica, che invece prende il nome di encefalo, di cui il cervello è la parte più voluminosa, ma che comprende anche cervelletto e tronco encefalico.
 
Il cervello è l'organo più importante del sistema nervoso centrale con un peso piuttosto variabile che non supera i 1500 grammi ed ha un volume compreso tra i 1100 e i 1300 cm³, tenendo presente la possibilità di significative variazioni tra individuo e individuo, anche legate a sesso, età e altri fattori.
 
Negli esseri umani la corteccia cerebrale cresce enormemente di dimensione, diventando la struttura predominante del cervello. Inoltre, rispetto ad altri mammiferi, la corteccia cerebrale negli umani assume un ruolo più importante a livello funzionale essendo sede delle "funzioni cerebrali superiori", quali il pensiero e la coscienza.
 
 
Raffigurazione schematica del cervello umano, con evidenziati i quattro lobi cerebrali. Visibili anche altre strutture dell'encefalo
Il telencefalo umano, che include la corteccia cerebrale, è estremamente sviluppato, e può essere suddiviso in quattro aree o lobi:
 
Lobo frontale
Lobo parietale
Lobo occipitale
Lobo temporale
cui sono da aggiungere la circonvoluzione limbica e l'insula di Reil.
 
Il diencefalo è più piccolo ed è avvolto superiormente e lateralmente dal telencefalo. Contiene:
 
Il talamo
L'epitalamo
Il metatalamo
L'ipotalamo
Il subtalamo
 
 


#123 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 13 settembre 2016 - 04:56

Inventore del microchip
 
Intel_4004.jpg
 
Federico Faggin (Vicenza, 1º dicembre 1941) è un fisico, inventore e imprenditore italiano. Fu capo progetto dell'Intel 4004, il primo microprocessore al mondo, e di tutti i primi microprocessori dell'Intel (8008, 4040 e 8080) e creò anche l'architettura del 4040 e dell'8080, il primo microprocessore ad alta prestazione. Fu anche lo sviluppatore della tecnologia MOS con porta di silicio (MOS silicon gate technology), un contributo fondamentale che permise la fabbricazione dei primi microprocessori e delle memorie EPROM e RAM dinamiche e sensori CCD, gli elementi essenziali per la digitizzazione dell'informazione. Nel 1974 Faggin fondò e diresse la ditta Zilog, la prima ditta dedicata esclusivamente ai microprocessori, presso cui dette vita al famoso microprocessore Z80 ancora in produzione fino ai nostri giorni. Nel 1986 Faggin fondò e diresse la Synaptics, ditta che sviluppò i primi Touchpad e Touchscreen.
 
Biografia
Federico Faggin nacque a Vicenza[1] il 1º dicembre 1941. Dopo avere conseguito nel 1960 il diploma di perito industriale, specializzato in Radiotecnica, all'Istituto Tecnico Industriale "Alessandro Rossi" di Vicenza, iniziò subito ad occuparsi di calcolatori presso la Olivetti di Borgolombardo, all'epoca tra le industrie all'avanguardia nel settore, contribuendo alla progettazione ed infine dirigendo il progetto di un piccolo computer elettronico digitale a transistori con 4 Ki × 12 bit di memoria magnetica.
 
Si laureò in fisica summa cum laude nel 1965 all'Università di Padova dove venne subito nominato assistente incaricato. Insegnò nel laboratorio di elettronica e continuò la ricerca sui flying spot scanner, l'argomento della sua tesi. Venne quindi assunto, nel 1967, dalla SGS-Fairchild (oggi STMicroelectronics) ad Agrate Brianza, dove sviluppò la prima tecnologia di processo per la fabbricazione di circuiti integrati MOS (Metal Oxide Semiconductor) e progettò i primi due circuiti integrati commerciali MOS.
 
La SGS-Fairchild inviò Faggin a fare un'esperienza di lavoro presso la sua consociata Fairchild Semiconductor, azienda leader del settore semiconduttori a Palo Alto in California. Qui egli si dedicò allo sviluppo dell'originale MOS Silicon Gate Technology, la prima tecnologia di processo del mondo per la fabbricazione di circuiti integrati con gate auto-allineante. Progettò e produsse anche il primo circuito integrato commerciale che usasse la Silicon Gate Technology, il Fairchild 3708, un multiplexer analogico a 8 canali con decoding logic. Sviluppò anche il processo di silicon gate a N-channel e lavorò a processi avanzati di CMOS e BiCMOS con silicon gate. La Silicon Gate Technology nel 1970 rese possibile la large scale integration (LSI) e la very large scale integration (VLSI), permettendo per la prima volta la fabbricazione di circuiti integrati MOS su larga scala, ad alta velocità e a basso costo. Questa tecnologia rese anche possibile, due anni dopo, la creazione di memorie a semiconduttori e del primo microprocessore. Oggi più del 90% di tutti i circuiti integrati prodotti nel mondo usa la silicon gate technology.
 
A questo punto Faggin decise di stabilirsi negli Stati Uniti.
 
 
L'Intel 4004
Nel 1970 passò alla Intel, che sarebbe poi divenuta un gigante dell'informatica. Qui Ted Hoff e Stanley Mazor avevano proposto una nuova architettura per la realizzazione di una nuova famiglia di calcolatrici della società giapponese Busicom. L'architettura della Busicom seguiva il modello dell'architettura della Programma 101 della Olivetti, il primo calcolatore da tavolo programmabile del mondo, presentata e introdotta sul mercato nel 1965, consistente in una CPU, una ROM e una memoria seriale (read-write), il tutto realizzato con componenti discreti. Ted Hoff semplificò l'architettura della Busicom, che usava memorie seriali e quindi un maggior numero di componenti, in un'architettura più generale che utilizzava le memorie RAM appena sviluppate dalla Intel, riducendo a 4 chip il design originale della Busicom che richiedeva 7 chip. Hoff pensava che la CPU potenzialmente potesse essere realizzato in un chip ma non era un chip designer e la sua proposta rimase ferma allo stadio di architettura a blocchi finché Faggin venne assunto per sviluppare e dirigere il progetto del primo microprocessore, il 4004 (inizialmente denominato MCS-4), contribuendo con idee fondamentali alla sua realizzazione.
 
La metodologia "random logic design" in silicon gate, creata da Faggin per sviluppare il 4004, fu poi usata per progettare le prime generazioni di microprocessori della Intel. Il 4004 fu il primo microprocessore al mondo che integrava in un singolo chip una potenza di calcolo superiore a quella dello storico ENIAC, il primo calcolatore elettronico al mondo. In seguito Faggin si occupò dello sviluppo di tutti i microprocessori dei primi cinque anni della storia della Intel. Usando la metodologia da lui creata per il progetto del 4004 venne realizzato l'8008, il primo microprocessore a 8 bit. All'inizio del 1972 propose la realizzazione dell'8080 di cui formulò l'architettura. Dovette attendere sei mesi prima che il progetto venisse approvato. L'8008 e l'8080 furono i progenitori della famiglia di processori 8086 che ancora oggi domina il mercato dei personal computer.
 
Nel 1973 Faggin divenne manager responsabile di tutta l'attività di circuiti MOS (ad eccezione delle memorie dinamiche RAM). Sotto la sua guida vennero sviluppati più di 25 circuiti integrati commerciali, inclusi il 2102A, la prima memoria statica RAM ad alta velocità a 5 volt e 1024 bit.
 
Alla fine del 1974 abbandonò l'Intel e fondò la ZiLOG, la prima società dedicata esclusivamente alla produzione di microprocessori quando ancora l'Intel era principalmente un produttore di memorie che considerava i microprocessori solo un prodotto utile a vendere più memorie.
 
Il primo e più famoso prodotto della Zilog fu il microprocessore Z80 e la sua famiglia di dispositivi periferici intelligenti. Introdotto nel 1976 lo Z80 divenne il microprocessore ad 8-bit di maggiore successo sul mercato. Molto popolare negli anni ottanta, fu usato tra l'altro come CPU dei primi videogiochi e di home computer come i Sinclair ZX80. Dopo il passaggio di computer e console a processori a 16 bit rimase in uso sotto forma di microcontroller nei sistemi embedded.
 
Nel 1980 abbandonò la ZiLOG per divergenze con il principale finanziatore, la Exxon, e fondò la Cygnet Technologies con la quale progettò e produsse il Communication CoSystem un innovativo apparecchio che permetteva di collegare personal computer e telefono per la trasmissione di voce e dati, rappresentando un notevole progresso nel campo emergente delle comunicazioni personali. La ditta viene acquistata da Everex, Inc. nel 1986.
 
Nel 1986 diventa uno dei fondatori della Synaptics, contribuendo alla diffusione di massa del touchpad; è stato Chief Executive Officer dal 1987 al 1999 ed è stato Chairman of the Board of Directors dal gennaio 1999 ad ottobre 2004.
 
Dal 2004 è amministratore delegato della Foveon, una compagnia che produce avanzati sensori di immagine per fotocamere digitali.
 
Il 19 ottobre 2010 Faggin ha ricevuto la Medaglia Nazionale per la Tecnologia e l'Innovazione (National medal of technology and innovation) direttamente dalle mani del presidente degli Stati Uniti d'America, Barack Obama, per l'invenzione del microprocessore.
 
Nel 2011 ha fondato la Federico e Elvia Faggin Foundation, una organizzazione no-profit dedicata allo studio scientifico della coscienza attraverso la sponsorizzazione di programmi di ricerca teorica e sperimentale presso università e istituti di ricerca statunitensi.[5] Nel 2015 la Fondazione Federico e Elvia Faggin ha stabilito una cattedra di Fisica dell'Informazione presso l'università di Santa Cruz (UCSC) in California per sostenere lo studio di sistemi complessi, biofisica, scienze cognitive e matematica nel tema unificatore della fisica dell'informazione.
 
Fonti
Sulla Silicon Gate Technology
Faggin, F., Klein, T., and Vadasz, L.: Insulated Gate Field Effect Transistor Integrated Circuits with Silicon Gates, La nuova tecnologia "Silicon Gate Technology" fu presentata dal suo inventore, Federico Faggin, al IEEE IEDM (International Electron Device Meeting) a Washington, D.C., il 23 ottobre 1968
Federico Faggin and Thomas Klein.: A Faster Generation of MOS Devices with Low Thresholds is Riding the Crest of the New Wave, Silicon-Gate IC's". Electronics magazine, 29 settembre 1969. La copertina mostra il Fairchild 3708, il primo circuito integrato del mondo realizzato con la silicon gate technology da Federico Faggin alla Fairchild nel 1968.
F. Faggin, T. Klein: Silicon Gate Technology". Solid State Electronics, 1970, Vol. 13, pp. 1125-1144
Sull'MCS-4, il primo microprocessore
F. Faggin and M. E. Hoff: Standard Parts and Custom Design Merge in a Four-chip Processor Kit. Electronics magazine, 24 aprile 1972
F. Faggin, M. Shima, M.E. Hoff, Jr., H. Feeney, S. Mazor: The MCS-4 - An LSI Microcomputer System, presentato alla IEEE 1972 Region Six Conference
Riconoscimenti[modifica | modifica wikitesto]
Negli anni sono stati attribuiti a Federico Faggin numerosi riconoscimenti fra i quali:
 
1988 - Premio Internazionale Marconi (Marconi Fellowship Award)
1988 - medaglia d'oro per la Scienza e la Tecnologia della Presidenza del Consiglio Italiana
1988 - onorificenza di Grande Ufficiale dell'ordine al Merito della Repubblica Italiana
1994 - laurea honoris causa in informatica da parte dell'Università degli Studi di Milano
1994 - W. Wallace McDowell Award della IEEE Computer Society W. Wallace McDowell Award Per lo sviluppo della tecnologia di processo Silicon Gate e per la realizzazione del primo microprocessore commerciale
1996 - medaglia d'oro della città di Vicenza
1996 - viene inserito nella National Inventors Hall of Fame
1996 - Premio Ronald H. Brown (American Innovator Award)
1997 - Premio Kyōto per la tecnologia (Kyoto Prize for Advanced Technology)
1997 - premio George R. Stibitz Computer & Communications Pioneer
1997 - Premio Masi per la Civiltà Veneta
2000 - Premio Robert N. Noyce dalla Semiconductor Industry Association
2002 - targa al merito, consegnata dal ministro delle comunicazioni Maurizio Gasparri
2002 - laurea honoris causa in ingegneria elettronica da parte dell'Università di Roma Tor Vergata
2006 - Lifetime Achievement Award dalla European Patent Association, Brussels
2007 - laurea honoris causa in ingegneria elettronica da parte dell'Università di Pavia
2008 - laurea magistrale honoris causa in ingegneria elettronica da parte dell'Università degli Studi di Palermo
2008 - diploma EUCIP Champion per il profilo IT Systems Architect da parte di AICA (Associazione Italiana per l'Informatica ed il Calcolo Automatico)
2009 - laurea specialistica honoris causa in informatica da parte dell'Università degli Studi di Verona
2009 - National Medal of Technology and Innovation consegnata nel 2010 dal Presidente degli Stati Uniti Barack Obama - Video della cerimonia alla Casa Bianca
2011 - Il premio "2011 George R. Stibitz Lifetime Achievement Award" dell'American Computer Museum (Bozeman-MT), conferito a Federico Faggin Per i contributi fondamentali allo sviluppo del mondo tecnologico moderno, inclusa la tecnologia MOS silicon gate che ha portato alla realizzazione del primo microprocessore al mondo nel 1971.
2012 - Il premio "Global IT Award" dal presidente della Repubblica Armena 
2012 - PhD onorario dall'Università (Politecnico) di Armenia
2013 - PhD onorario in scienze dall'Università di Chapman (CA) - Video del commencement address di Faggin a Chapman University
2014 - Premio "Enrico Fermi" 2014, conferito dalla Società Italiana di Fisica Per l'ideazione della tecnologia MOS con gate al silicio che lo ha condotto alla realizzazione nel 1971 del primo moderno microprocessore
Note[modifica | modifica wikitesto]
 
 


#124 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 21 settembre 2016 - 02:27

La coda che ricresce
 
carolina_anole.630x360.jpg
 
Individuati i geni responsabili della rigenerazione della coda di questi rettili: una scoperta che potrebbe servire a stimolare la ricrescita di muscoli, cartilagini e altri tessuti del corpo umano.
carolina_anole
  
Gli anolidi della Carolina (Anolis carolinensis) lucertole arboricole di color verde brillante, possono fregiarsi di una curiosa strategia difensiva: se minacciati da un predatore, perdono parte della coda, lasciando l'avversario alle prese con l'estremità mentre se la danno a gambe. Nel giro di un paio di mesi, la coda ricresce: una dote invidiabile, che la medicina rigenerativa studia da tempo. Non sarebbe un sogno poter far ricrescere le parti del corpo umano che vengono perse, o danneggiate?
 
QUALCOSA IN COMUNE. Ora uno studio pubblicato su PLoS ONE fa luce sul meccanismo che rende possibile il processo di rigenerazione: dipenderebbe in gran parte da geni che questi rettili condividono con i mammiferi, esseri umani inclusi.
 
I ricercatori dell'Arizona State University hanno individuato almeno 326 geni che si attivano in specifiche regioni della coda in fase di rigenerazione, tra cui geni implicati nello sviluppo embrionale e nella guarigione dalle ferite. 302 di questi "interruttori" genetici sono simili a geni posseduti anche dai mammiferi. «Le lucertole condividono in gran parte gli stessi strumenti genetici dell'uomo» spiega Kenro Kusumi, principale autore dello studio.
 
A sangue freddo: le più belle foto di rettili
 
RICRESCITA PECULIARE. Altri animali, come le salamandre o alcune specie di pesci, oltre a varie specie di lucertole, vantano abilità rigenerative. Ma il caso dell'anolide della California è diverso: la ricrescita del tessuto avviene su tutta la lunghezza della coda, e non solo all'estremità come negli altri animali. «Le lucertole sono gli animali più vicini all'uomo a poter rigenerare intere appendici» precisa Kusumi. Durante la rigenerazione della coda, vengono attivati i geni in un particolare percorso, la cosiddetta via di trasduzione del segnale Wnt, un meccanismo di regolazione dell'espressione genica coinvolto nei processi di differenziazione e proliferazione delle cellule staminali.
 
LE PROSPETTIVE FUTURE. «Seguendo la ricetta genetica della rigenerazione scoperta per le lucertole, e controllando gli stessi geni nelle cellule umane, potrebbe essere possibile, un giorno, rigenerare muscoli, cartilagine e persino midollo spinale» conclude Kusumi. Ma la strada della ricerca, in questo campo, è ancora lunga.
 
 


#125 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 28 settembre 2016 - 05:26

Eolico
 
220px-Molen_De_Hoop_Garderen.jpg
 
Per migliaia di anni, barche a vela e velieri hanno utilizzato l'energia eolica mentre gli architetti hanno usato la ventilazione naturale negli edifici fin dai tempi antichi. L'uso del vento per fornire energia meccanica è tuttavia iniziato un po' più avanti nella storia. La ruota a vento progettata dall'ingegnere greco Erone di Alessandria nel 1° secolo è il primo esempio noto di utilizzo dell'energia eolica per alimentare una macchina.[10][11]
 
I primi mulini a vento furono in uso in Iran almeno dal 9° secolo e forse già dal 7° secolo.[12] L'impiego di mulini a vento si diffuse subito dopo in tutto il Medio Oriente e nell'Asia centrale e più tardi anche in Cina e in India.[13] Si ha notizia che, a partire dal 1000, i mulini a vento furono utilizzati, sia in Cina che in Sicilia per pompare acqua di mare per estrarre il sale.[14] A partire dal 1180 furono ampiamente utilizzati in Europa nord-occidentale per macinare la farina,[15] mentre le pompe a vento furono utilizzate per drenare i terreni per favorire l'agricoltura e per l'edilizia.[16] I primi immigrati nel Nuovo Mondo portarono con loro queste tecnologie.[16]
 
Un tipico mulino a vento nei Paesi Bassi
L'energia eolica veniva sfruttata per trasportare acqua o per muovere macine e triturare i cereali, in particolare in Paesi Bassi era utilizzata per pompare l'acqua dei polder (che sono delle parti di terra sotto il livello del mare), migliorando notevolmente il drenaggio dopo la costruzione delle dighe. I mulini olandesi erano i più grandi del tempo, divennero e rimasero il simbolo della nazione. Questi mulini erano formati da telai in legno sui quali era fissata la tela che formava così delle vele spinte in rotazione dal vento; l'asse di rotazione era orizzontale, come per quasi tutti i mulini europei (i mulini cinesi avevano invece, in genere, asse di rotazione verticale).
 
Negli Stati Uniti, lo sviluppo delle pompe a vento fu il fattore principale che permise la coltivazione e l'allevamento in vaste aree altrimenti prive di acqua facilmente accessibile.[17] Queste pompe contribuirono inoltre all'espansione della rete ferroviaria mondiale, grazie ai sistemi di pompaggio dai pozzi necessari per fornire l'indispensabile acqua per le locomotive a vapore. La turbina eolica a più pale posizionata in cima a una torre in legno o in acciaio, fu per oltre un secolo una presenza fissa nei panorami dell'America rurale.[18]
 
Nel 1881, Lord Kelvin propose di usare l'energia eolica quando "il carbone fosse finito".[19] Nello stesso periodo fu proposto anche lo sfruttamento dell'energia solare.[20]
 
I primi sfruttamenti per generare potenza elettrica
 
La turbina eolica di Blyth
Nel luglio 1887 il professor James Blyth, un accademico scozzese, costruì una turbina eolica nel giardino della sua casa delle vacanze a Marykirk e utilizzò l'energia elettrica prodotta per ricaricare gli accumulatori che alimentavano le luci nel suo cottage.[21] Nel 1891 i suoi esperimenti portarono alla formalizzazione di un brevetto.[22] Durante l'inverno del 1887-1888 l'inventore statunitense Charles F. Brush produsse energia elettrica utilizzando un generatore alimentato dal vento che fornì la sua casa e il suo laboratorio fino al 1900. Nel 1890 lo scienziato e inventore danese Poul la Cour costruì turbine eoliche per produrre energia elettrica, che venne poi utilizzata per la produzione di idrogeno e ossigeno per elettrolisi.[22] La Cour fu il primo a capire che realizzare turbine veloci con meno pale era la soluzione più efficiente nella produzione di energia elettrica. Nel 1904 fondò la Society of Wind Electricians.[23]
 
Verso la metà degli anni 1920 alcune aziende come la Parris-Dunn e la Jacobs Wind-electric realizzarono turbine tra gli 1 e i 3 kilowatt[19] che trovarono una larga diffusione nelle grandi pianure dell'Ovest degli Stati Uniti. Tuttavia, a partire dagli anni 1940 la domanda sempre crescente di potenza elettrica e la diffusione di una rete di distribuzione più capillare, rese questi piccoli generatori obsoleti.
 
Nel 1931, George Darrieus, un ingegnere aeronautico francese, ottenne il brevetto per la turbina eolica Darrieus che utilizzava profili alari per generare la rotazione[25] e a Yalta, in Unione Sovietica, fu installato un prototipo da 100 kW di generatore eolico orizzontale. Nel 1956 Johannes Juul, un ex studente di La Cour, realizzò una turbina da 200 kW a tre pale a Gedser in Danimarca. Questo progetto influenzò il design di molte turbine successive.[23]
 
Il Brazos Wind Farm. un moderno parco eolico del Texas
Nel 1975 il Dipartimento dell'Energia degli Stati Uniti d'America ha finanziato un progetto per sviluppare turbine eoliche a grande scala. Il progetto si è concretizzato con la realizzazione di tredici turbine sperimentali da parte della NASA che hanno aperto la strada per gran parte della tecnologia utilizzata oggi.[23] Da allora, le turbine hanno aumentato notevolmente le loro dimensioni con la Enercon E-126 in grado di erogare fino a 7,5 megawatt (MW).[26]
 
Limitatamente all'uso dell'energia eolica come fonte di energia elettrica, tra il 2000 e il 2006 la capacità mondiale installata è quadruplicata. Nel 2005 la nuova potenza installata è stata di 11.000 megawatt, nel 2006 di 15.000 e nel 2007 di 20.000 megawatt. Nonostante la crisi economica, il 2008 è stato un anno record per l'energia eolica, con oltre 27.000 megawatt di nuova potenza installata in tutto il mondo. Da allora una grande crescita esponenziale ha portato ad avere già alla fine del 2008 una potenza cumulata totale di oltre 120 gigawatt, producendo elettricità pari ad oltre l'1,5% del fabbisogno mondiale di energia.[27]
 
L'energia eolica
 
Mappa che mostra la disponibilità di vento negli Stati Uniti; i colori indicano la classe di densità del vento
Il termine eolico deriva da Eolo (in greco antico Αἴολος), il dio dei venti nella mitologia greca.
 
L'energia eolica è l'energia cinetica prodotta dall'aria in movimento e solitamente prende il nome di vento. Il totale di energia eolica che fluisce attraverso una superficie immaginaria A durante il tempo t è:
 
{\displaystyle E={\frac {1}{2}}mv^{2}={\frac {1}{2}}(Avt\rho )v^{2}={\frac {1}{2}}At\rho v^{3},} E={\frac  {1}{2}}mv^{2}={\frac  {1}{2}}(Avt\rho )v^{2}={\frac  {1}{2}}At\rho v^{3},[28]
dove ρ è la densità dell'aria, v è la velocità del vento; Avt è il volume di aria che passa attraverso la sezione A, considerata perpendicolare alla direzione del vento; Avtρ è quindi la massa m che passa per l'unità di tempo. Notare che ½ ρv2 è l'energia cinetica dell'aria in movimento per unità di volume.
 
La potenza è l'energia per unità di tempo. Nel caso di per l'energia eolica incidente su A, per esempio l'area del rotore di una turbina eolica, è:
 
{\displaystyle P={\frac {E}{t}}={\frac {1}{2}}A\rho v^{3}.} P={\frac  {E}{t}}={\frac  {1}{2}}A\rho v^{3}.[28]
L'energia eolica in una corrente d'aria aperta è quindi proporzionale alla terza potenza della velocità del vento: la potenza disponibile aumenta quindi di otto volte se la velocità del vento raddoppia. Le turbine eoliche per la produzione di energia elettrica devono quindi essere particolarmente efficienti a una maggiore velocità del vento.
 
Il vento è il movimento dell'aria sulla superficie terrestre, tra zone di alta pressione e bassa pressione.[29] La superficie della Terra è riscaldata in modo non uniforme dal Sole, a seconda di fattori come l'angolo di incidenza dei suoi raggi sulla superficie, che differisce con la latitudine e l'ora del giorno, e del suolo: terreno chiaro o scuro, roccia, sabbia, fitta di vegetazione, acqua. Inoltre grandi masse d'acqua, come ad esempio gli oceani si riscaldano e si raffreddano più lentamente della terra. Le differenze di temperature quindi generano differenze di pressione. La presenza di due punti con differente pressione atmosferica origina una forza, detta forza del gradiente di pressione o forza di gradiente, che agisce premendo sulla massa d'aria per tentare di ristabilire l'equilibrio e dunque dando luogo al fenomeno del vento. Inoltre la rotazione della Terra trascina l'atmosfera intorno ad essa causando movimento di grosse masse d'aria (Forza di Coriolis). Questi effetti si combinano portando alla naturale variabilità dei venti.[29]
 
La quantità totale di energia economicamente estraibile dal vento è molto maggiore rispetto a quella attualmente fornibile da tutte le altre fonti.[30] Axel Kleidon del Max Planck Institute in Germania, ha effettuato il calcolo della quantità di energia eolica disponibile in toto, concludendo che potrebbero essere estratti dai 18 ai 68 TW.[31] Cristina Archer e Mark Z. Jacobson, in un calcolo differente da quello di Kelidon, hanno calcolato che ad un'altitudine di 100 metri sopra le terre e il mare, vi sono 1700 TW di energia eolica. Di questi "tra 72 e 170 TW potrebbe essere estratti in modo pratico ed economicamente competitivo".[31] In seguito le stime si sono ridotte a 80 TW.[32] Tuttavia una ricerca effettuata presso l'Università di Harvard stima 1 Watt/m2 in media e tra i 2 e i 10 MW/km2 la capacità per i parchi eolici di grandi dimensioni, il che suggerisce che queste stime del totale delle risorse eoliche mondiali siano troppo alte per un fattore di circa 4.[33]
 
Distribuzione della velocità del vento
 
Distribuzione della velocità del vento (rosso) e dell'energia (blu) per tutto il corso del 2002 presso l'impianto di Lee Ranch facility in Colorado. L'istogramma mostra i dati misurati, mentre la curva è modello di distribuzione di Rayleigh per la stessa velocità media del vento
La forza del vento è variabile e un valore medio per un determinato luogo non è in grado di indicare da solo la quantità di energia che potrebbe produrre una turbina eolica lì posizionata. Per valutare la frequenza delle velocità del vento ad una posizione particolare, una funzione di densità di probabilità è spesso usata per descrivere i dati osservati. Luoghi diversi avranno diverse distribuzioni di velocità del vento. Il modello di Weibull rispecchia da vicino l'effettiva distribuzione di ogni ora/dieci minuti la velocità del vento. Il fattore di Weibull è spesso vicino a 2 e quindi una distribuzione di Rayleigh può essere utilizzata come un modello meno accurato ma più semplice.[34]
 
Venti d'alta quota
La produzione di energia elettrica di solito proviene da venti molto vicino alla superficie terrestre. Tuttavia i venti in alta quota sono più forti e più stabili e possono avere una capacità globale di 380 TW.[32] Negli ultimi anni si sono visti significativi progressi nelle tecnologie destinate a produrre energia elettrica da queste correnti ventose.[35]
 
Parchi eolici
Exquisite-kfind.png Lo stesso argomento in dettaglio: Parco eolico.
 
Impianto eolico on-shore
Si definisce parco eolico un gruppo di turbine eoliche poste nelle vicinanze e utilizzate per la produzione di energia elettrica. Un grande parco eolico può essere composto da diverse centinaia di singoli generatori eolici distribuiti su una estesa superficie, ma la terra tra le turbine può essere utilizzata anche per scopi agricoli o altro. Un parco eolico può anche essere localizzato in mare aperto.
 
Quasi tutte le grandi turbine eoliche hanno lo stesso disegno: una turbina eolica ad asse orizzontale, con un rotore di bolina a tre lame, collegata a una navicella sulla cima di una torre tubolare. In un parco eolico le singole turbine sono interconnesse con una linea di media tensione (spesso 34,5 kV) e reti di comunicazione. In una sottostazione la corrente elettrica di media tensione viene poi elevata ad alta tensione con un trasformatore per poi essere immessa nella rete di distribuzione.
 
Eolico on-shore e near-shore
Si tratta dell'eolico più diffuso, anche per motivi storico-tecnologici. Le caratteristiche dell'eolico on-shore sono tipiche di impianti posizionati su località in genere distanti almeno 3 km dalla più vicina costa, tipicamente su colline, alture o comunque in zone aperte e ventose. Questi impianti coprono un range di potenze prodotte molto esteso (da 20 Kw a 20 MW) e possono essere connessi sia alla rete "pubblica" come quella dell'ENEL, sia su una rete isolata per alimentare utilizzatori locali. Una delle configurazioni più diffuse è la "grid-connected"
 
Nel caso del near-shore si tratta invece di impianti distanti meno di tre chilometri dalla costa, tipicamente sull'entroterra, oppure sul mare, ma con distanze che non superano i 10 km dalla costa. Il sottoinsieme che è installato sulla terraferma ha caratteristiche simili alla on-shore in termini di range di produzione (da 20 Kw a 20 MW) mentre l'insieme in ambiente marino tipicamente garantisce potenze prodotte nell'ordine dei MW in configurazione "grid-connected"
 
Una panoramica della Whitelee Wind Farm
Molti dei più grandi parchi eolici onshore operativi sono situati negli Stati Uniti. A partire dal 2012, l'Alta Wind Energy Center è il più grande parco eolico onshore nel mondo con una produzione di 1020 MW, seguito dai Shepherds Flat Wind Farm (845 MW) e la Roscoe Wind Farm (781,5 MW). A partire da settembre 2012, il Sheringham Shoal Offshore Wind Farm e il Thanet Wind Farm nel Regno Unito sono i più grandi parchi eolici off-shore del mondo con 317 MW e 300 MW rispettivamente, seguiti da Horns Rev II (209 MW), in Danimarca.
 
Eolico off-shore
 
Middelgrunden, impianto eolico da 40 MW nello stretto di Oresund al largo di Copenaghen
Con l'espressione "eolico off-shore" si intendono gli impianti installati ad alcune miglia dalla costa di mari o laghi, per meglio utilizzare la forte esposizione alle correnti di queste zone.
 
La Spagna ha effettuato uno studio di fattibilità della durata di un anno sull'intero territorio nazionale per determinare le aree maggiormente ventilate e con continuità e quindi i siti candidati all'installazione di centrali di taglia medio-grande.[36] La Spagna ha esteso le misurazioni mediante centraline fisse e mobili anche a tutta la costa, oltre che a zone collinari e di montagna, preferendo l'eolico off-shore. Dopo aver diffuso microimpianti nelle singole abitazioni e un decentramento energetico, ora si realizzano pochi impianti centralizzati per la produzione di alcuni gigawatt per parco eolico.
 
Ad Havsui, in Norvegia, sorgerà il più grande impianto eolico off-shore al mondo, che potrà fornire 1,5 gigawatt di potenza elettrica.[37]
 
Nel Regno Unito verrà realizzata un'estesa serie di generatori off-shore entro il 2020 in grado di produrre abbastanza corrente elettrica da alimentare le utenze domestiche. Il piano prevede impianti per 20 gigawatt che si aggiungeranno agli 8 gigawatt di impianti già deliberati.[38] Nel 2008 il Fondo di inversioni della corona britannica, che possiede le aree marittime della Gran Bretagna, fino a circa 20 km dalla costa, con il programma Clipper's Britannia Project, ha deciso di investire in grandi aerogeneratori off-shore di potenza superiore ai 5 megawatt.[39]
 
Il primo impianto eolico off-shore in Italia era previsto in Molise, in mare Adriatico a circa tre chilometri dalla costa tra Vasto e Termoli, per una capacità installata di 162 MW. Il progetto è stato bloccato nel 2007 a seguito del parere negativo della giunta regionale[40].
 
Le turbine offshore galleggianti potranno essere installate anche in siti marini molto profondi. Imitando la tecnologia delle piattaforme petrolifere, le turbine eoliche galleggianti vengono installate in mare aperto e sfruttano i venti costieri. Il progetto usa un sistema di ancoraggio a tre punti mediante cavi in acciaio ancorati al fondale, simile a quello utilizzato nelle piattaforme petrolifere.[41] La Hydro, società norvegese che opera nel settore energia, ha collocato un prototipo di questa turbina vicino Karmøy, isola a sud est della Norvegia ed eventualmente vicino ad una installazione petrolifera con l'obiettivo di rifornirla di energia rinnovabile.
 
Minieolico e microeolico
Exquisite-kfind.png Lo stesso argomento in dettaglio: Minieolico.
 
Un generatore minieolico
Si tratta di impianti di piccola taglia, adatti a un uso domestico o per integrare il consumo elettrico di piccole attività economiche tipicamente in modalità stand-alone, cioè sotto forma di singoli generatori, connesse poi alla rete elettrica con contributo alla cosiddetta generazione distribuita o ad impianti di accumulazione.
 
Di solito questi impianti sono costituiti da aerogeneratori del tipo ad asse orizzontale con diametro del rotore da 3 a 20 metri e altezza del mozzo da 10 a 20 metri. Solitamente per minieolico si intendono impianti con una potenza nominale fra 20 kW e 200 kW, mentre per microeolico si intendono impianti con potenze nominali inferiori ai 20 kW.
 
Per questi impianti di piccole dimensioni il prezzo di installazione risulta più elevato, attestandosi attorno ai 1500-3000 euro per kW installato, in quanto il mercato di questo tipo di impianti è ancora poco sviluppato; tra le cause le normative che, a differenza degli impianti fotovoltaici, in quasi tutta Europa non ne sostengono la diffusione. Questi impianti possono sfruttare le specifiche condizioni del sito in cui si realizza l'installazione. Sono impianti adattabili, che riescono a sfruttare sia venti deboli sia forti e che riescono a intercettare le raffiche improvvise tipiche dell'Appennino.
 
Per la valutazione dell'idoneità del luogo non si effettua solitamente una campagna di misure in sito (come avviene per installazioni medio-grandi), per l'elevata incidenza che tale costo potrebbe avere sull'investimento globale.
 
La valutazione, nel caso si ritenga sufficiente la disponibilità di vento (come velocità e continuità), deve considerare altri fattori quali: l'interferenza con altre strutture, l'inquinamento acustico, la lunghezza del percorso elettrico, eventuali vincoli ecologici (presenza di specie protette) o storico-archeologici.
 
Eolico d'alta quota
 
Twind Technology, un concept design per una turbina d'alta quota
Vi sono alcune proposte alternative, ma tuttora esclusivamente sperimentali, per la realizzazione di un parco eolico d'alta quota. Una turbina eolica d'alta quota è un concetto di design per una turbina eolica che è situata in aria senza una torre,[42] beneficiando così della velocità del vento più elevata e quasi costante ad alta quota, evitando la spesa di costruzione di torri,[42] o la necessità di contatti rotanti o meccanismi di imbardata. Le sfide per un tale progetto comprendono la garanzia di avere una sospensione sicura in grado di mantenere turbine a centinaia di metri da terra a forti venti e tempeste, trasferendo la potenza generata a terra. Inoltre potrebbero esserci delle interferenze con l'attività aviatoria.[43]
 
Turbina eolica
I generatori eolici a partire dal 1985 hanno migliorato drasticamente il rendimento, dimensioni e costi. Tali generatori sono riusciti a passare da una produzione di pochi kilowatt di potenza a punte di 3 megawatt per i più efficienti e una potenza installata tipica di mercato pari a circa 1,5 MW, con una velocità del vento minima di 3-4 m/s.
 
Tre tipi di turbina eolica, due ad asse verticale e una ad asse orizzontale
Lo sfruttamento del vento è attuato tramite macchine eoliche divisibili in due gruppi distinti in funzione del tipo di modulo base adoperato definito generatore eolico o aerogeneratore:
 
Generatori eolici ad asse orizzontale, in cui il rotore va orientato, attivamente o passivamente, parallelamente alla direzione di provenienza del vento;
Generatori eolici ad asse verticale, il cui orientamento è indipendente dalla direzione di provenienza del vento.
I generatori, sia ad asse verticale sia ad asse orizzontale, richiede una velocità minima del vento (cut-in) di 3–5 m/s ed eroga la potenza di progetto ad una velocità del vento di 12–14 m/s. Ad elevate velocità (20–25 m/s, velocità di cut-off) l'aerogeneratore viene bloccato dal sistema frenante per ragioni di sicurezza. Il bloccaggio può avvenire con freni che bloccano il rotore o con metodi che si basano sul fenomeno dello stallo e "nascondono le pale al vento".
 
Esistono anche generatori a pale mobili che seguono l'inclinazione del vento[le pale orientabili vengono usate per mantenere costante la velocità di rotazione al variare della velocità del vento, ovvero per mantenere l'angolo d'attacco più adeguato. Cosa si intende per la direzione del vento? Forse del vento apparente?], mantenendo costante la quantità di elettricità prodotta dall'aerogeneratore, e a doppia elica per raddoppiare la potenza elettrica prodotta. I generatori eolici possono essere silenziosi; il problema principale è la dimensione delle pale e la mancanza di generatori a micropale non visibili a occhio nudo che risolverebbero l'impatto negativo sul paesaggio.
 
I giri al minuto del rotore dell'aerogeneratore sono molto variabili, come lo è la velocità del vento; in genere si utilizzano delle scatole d'ingranaggi (planetari) per aumentare e rendere costante la velocità del rotore del generatore e per permettere un avvio più facile con venti deboli.
 
La frequenza immessa nella rete deve essere costante a 50 hertz in Europa e 60 Hz in America, perciò il rotore del generatore è collegato a un cambio meccanico che deve avere la giusta velocità di rotazione dell'alternatore oppure l'elettricità prodotta viene inviata a una serie di convertitori prima di immettere l'energia in rete[senza fonte].
 
La cinematica del generatore eolico è caratterizzata da bassi attriti, moderato surriscaldamento che necessita di un sistema di refrigeranti, olio oppure acqua che disperdono il calore grazie a radiatori, e un costo di manutenzione relativamente basso o pressoché nullo soprattutto per il magnetoeolico.
 
I principali produttori mondiali di aerogeneratori sono aziende americane, cinesi, danesi, tedesche, spagnole: Vestas, Enercon, Siemens, Gamesa Eólica, GE Wind Energy (ex Enron Wind), Liberty, Nordex, NedWind. Sono circa 26 le aziende che producono gli aerogeneratori.
 
Generatore ad asse orizzontale
 
Generatore ad asse orizzontale tripala composto da torre, navicella, rotore e pale
Un generatore eolico ad asse di rotazione orizzontale al suolo (HAWT, in inglese Horizontal Axis Wind Turbines) è formato da una torre in acciaio di altezze tra i 60 e i 100 metri sulla cui sommità si trova un involucro (gondola) che contiene un generatore elettrico azionato da un rotore a pale lunghe tra i 20 e i 60 metri. Esso genera una potenza molto variabile, che può andare da pochi kW fino a 5-6 MW, in funzione della ventosità del luogo e del tempo.
 
Come i generatori ad asse verticale anche quelli ad asse orizzontale richiedono una velocità minima di 3–5 m/s ed erogano la potenza di progetto ad una velocità del vento di 12–14 m/s. Ad elevate velocità (20/25 m/s) l'aerogeneratore viene invece bloccato dal sistema frenante per ragioni di sicurezza.
 
Il mulino a vento è un esempio storico di macchina ad asse orizzontale.
 
Gli aerogeneratori tradizionali hanno, quasi senza eccezioni, l'asse di rotazione orizzontale. Questa caratteristica è il limite principale alla realizzazione di macchine molto più grandi di quelle attualmente prodotte: i requisiti statici e dinamici che bisogna rispettare non consentono di ipotizzare rotori con diametri molto superiori a 100 metri e altezze di torre maggiori di 180 metri. Queste dimensioni riguardano macchine per esclusiva installazione off-shore. Le macchine on-shore più grandi hanno diametri di rotore di 70-100 metri e altezze di torre di 110 metri. In una macchina così costruita il diametro della fondazione in cemento armato è pari a circa 20 metri. La velocità del vento cresce con la distanza dal suolo; questa è la principale ragione per la quale i costruttori di aerogeneratori tradizionali spingono le torri a quote così elevate. La crescita dell'altezza, insieme al diametro del rotore che essa rende possibile, sono la causa delle complicazioni statiche dell'intera macchina, che impone fondazioni complesse e costose e strategie sofisticate di protezione in caso di improvvise raffiche di vento troppo forte.
 
Principali componenti
 
Schema dei componenti di una turbina ad asse orizzontale
 
Componenti di una turbina eolica ad asse orizzontale (cambio, albero rotore e freno) vengono posizionati sulla gondola
Rotore
I rotori sono ad asse orizzontale di tipo:
 
monopala, con contrappeso: sono le più economiche, ma essendo sbilanciate generano rilevanti sollecitazioni meccaniche e rumore; sono poco diffusi
bipala: hanno due pale poste a 180° tra loro ovvero nella stessa direzione e verso opposto. Hanno caratteristiche di costo e prestazioni intermedie rispetto a quelli degli altri due tipi; sono le più diffuse per installazioni minori
tripala: hanno tre pale poste a 120° una dall'altra: sono costose, ma essendo bilanciate, non causano sollecitazioni scomposte e sono affidabili e silenziose
L'albero del rotore che trasmette il moto è chiamato “albero lento” o principale. Le pale più utilizzate sono realizzate in fibra di vetro o lega di alluminio ed hanno un profilo simile ad un'ala di aereo.
 
Navicella o gondola
È posizionata sulla cima della torre e può girare di 180° sul proprio asse orientandosi nella direzione opportuna secondo quella del vento. Nella cabina sono ubicati i vari componenti di un aerogeneratore:
 
il moltiplicatore di giri. Per sistemi interfacciati a reti locali o nazionali, la velocità dell'asse del rotore non è sufficiente perché il generatore elettrico produca elettricità alla frequenza della rete elettrica (50 Hz in Europa), quindi un sistema di moltiplicazione trasferisce il movimento a un “albero veloce”, dotato di freno per lo stazionamento.
il generatore elettrico, azionato dall'albero veloce. Negli impianti di piccola taglia non collegati alla rete possono essere del tipo a corrente continua, o a corrente alternata, senza vincoli restrittivi di costanza della frequenza. Nel caso di sistemi interfacciati con reti, locali o nazionali, servono alternatori sincroni o asincroni a frequenza costante.
il sistema di controllo. Dispositivo di interfaccia del generatore con la rete e/o con eventuali sistemi di accumulo; controlla il funzionamento della macchina, e gestisce l'erogazione dell'energia elettrica e l'arresto del sistema oltre certe velocità del vento per motivi di sicurezza dovuti al calore generato dall'attrito del rotore sull'asse e/o a sollecitazioni meccaniche della struttura.
Gli aerogeneratori di piccola taglia, in condizioni di normale regime, si orientano automaticamente attraverso un semplice timone. Solo nei più sofisticati sono installate pale a passo variabile, in modo da poter adeguare la loro inclinazione in base alla velocità del vento per migliorarne la resa. Nelle macchine di piccola taglia il sistema di controllo è solitamente di tipo passivo, senza servomotori che agiscono sull'angolo di calettamento delle pale e sull'angolo tra la navicella e il vento:
 
Controllo di stallo: le pale sono costruite “svergolate”, in modo che a velocità elevate del vento lo stallo inizi a partire dalla punta delle pale e propagandosi verso il centro. L'area attiva delle pale cala, facendo così calare anche la potenza.
Controllo di imbardata passivo: il sistema è dimensionato in modo da abbandonare automaticamente l'assetto frontale, oltre una certa spinta del vento.
Torre
L'ultimo elemento dell'aerogeneratore è la torre per la sospensione del rotore e della navicella. La torre può raggiungere dimensioni notevoli in altezza fino anche a 180 metri; tipicamente tanto più alta è la torre tanto migliori sono le condizioni di ventosità in termini di intensità e costanza, tanto più grande può essere il rotore con aumento dell'energia prodotta, tanto più larga è la sezione, tanto più stabile e ben progettata deve essere la fondazione nel terreno, tanto maggiori sono i costi e peggiore è l'impatto paesaggistico. I materiali utilizzati sono frequentemente di tipo metallico che garantiscono la massima robustezza a stress interni meccanici dovuti alle sollecitazioni esterne durante il funzionamento dell'aerogeneratore.
 
Generatore ad asse verticale[modifica | modifica wikitesto]
 
Generatore ad asse verticale
Un generatore eolico ad asse di rotazione verticale al suolo (VAWT, in inglese Vertical Axis Wind Turbines) è un tipo di macchina eolica contraddistinta da una ridotta quantità di parti mobili nella sua struttura, il che le conferisce un'alta resistenza alle forti raffiche di vento e la possibilità di sfruttare qualsiasi direzione del vento senza doversi orientare di continuo. È una macchina molto versatile, adatta sia all'uso domestico che alla produzione centralizzata di energia elettrica nell'ordine del megawatt (una sola turbina soddisfa il fabbisogno elettrico mediamente di circa 1000 case).
 
Macchine eoliche ad asse verticale sono state concepite e realizzate fin dal 1920. La sostanziale minore efficienza rispetto a quelle con asse orizzontale (30%) ne ha di fatto confinato l'impiego nei laboratori. L'unica installazione industriale oggi esistente è quella di Altamont Pass in California, realizzata dalla FloWind nel 1997. L'installazione è in fase di smantellamento, a causa delle difficoltà economiche del costruttore, che è in bancarotta.
 
Si è cercato di ottimizzare molto queste macchine, rendendole molto competitive; gli ultimi prototipi, funzionando in molte più ore l'anno rispetto a quelle ad asse orizzontale, hanno un rendimento complessivo maggiore.
 
La turbina a vento di Savonius è un tipo di turbina a vento ad asse verticale utilizzata per la conversione di coppia dell'energia del vento su un albero rotante. Inventata dall'ingegnere finlandese Sigurd J. Savonius nel 1922 e brevettata nel 1929, è una delle turbine più semplici.
 
Eolico magnetico[modifica | modifica wikitesto]
Un promettente sviluppo dell'energia eolica è quella eolico-magnetica cioè prodotta con qualche tipo di aerogeneratore magnetoeolico con effetto di riduzione dell'attrito sperimentato dal rotore e dell'asse e del pignone principale del rotore con guadagno notevole di efficienza e minor costo di manutenzione.
 
Capacità di energia eolica e produzione
Exquisite-kfind.png Lo stesso argomento in dettaglio: Energia eolica in Italia e Lista dei maggiori parchi eolici.
 
Produzione di energia eolica nel mondo fino al 2012
Verso la fine del 2012 nel mondo vi erano più di duecentomila turbine eoliche in funzionamento, con una capacità nominale complessiva di 282.482 MW.[44] La sola Unione europea passò i circa 100.000 MW di capacità nominale nel settembre 2012,[45] mentre gli Stati Uniti la Cina hanno superato i 50.000 MW nel mese di agosto 2012.[46][47]
 
La capacità mondiale di generazione eolica è più che quadruplicata tra il 2000 e il 2006, raddoppiando circa ogni tre anni. Gli Stati Uniti hanno aperto la strada ai parchi eolici, ma nel 1997 la capacità installata della Germania aveva superato quella statunitense per poi essere tuttavia superata nel 2008. La Cina ha iniziato l'edificazione dei suoi impianti eolici verso la fine del 2000 per poi superare nel 2010 gli Stati Uniti nel 2010 e diventare leader mondiale.
 
Alla fine del 2012 la capacità mondiale nominale di generatori eolici era di 282 gigawatt (GW), in crescita di 44 GW rispetto all'anno precedente.[44] Secondo la World Wind Energy Association, un'organizzazione di settore, nel 2010 l'energia eolica aveva generato 430 TWh, pari a circa il 2,5% di tutta l'energia elettrica utilizzata a livello mondiale.[48] Nel 2008 essa copriva appena l'1.5% e nel 1997 solo lo 0,1% nel 1997. [49] Tra il 2005 e il 2010 la crescita media annua dei nuovi impianti è stata del 27,6%.La penetrazione dell'energia eolica nel mercato dovrebbe raggiungere il 3,35% entro il 2013 e l'8% entro il 2018.
 
Diversi paesi hanno già raggiunto livelli relativamente elevati, come il 28% della produzione di energia elettrica in Danimarca (2011),il 19% in Portogallo (2011), il 16% in Spagna (2011), il 14% in Irlanda (2010)e l'8% in Germania (2011).A partire dal 2011, 83 paesi di tutto il mondo usavano energia eolica su base commerciale.
 
Nel 2009 l'Europa possedeva il 48% della capacità mondiale di produzione di energia eolica totale. Nel 2010 la Spagna è diventata il principale produttore europeo, raggiungendo i 42.976 GWh. La Germania tiene il primo posto in Europa in termini di capacità installata, con un totale di 27.215 MW registrati al 31 dicembre 2010.
 
10 maggiori nazioni per
capacità nominale di energia eolica
(fine dell'anno 2012)[44]
Nazione Nuova capacità
nel 2012 (MW) Totale capacità eolica
(MW) % totale mondiale
Cina 12 960 75 324 26.7
Stati Uniti 13 124 60 007 21.2
Germania 2 145 31 308 11.1
Spagna 1 122 22 796 8.1
India 2 336 18 421 6.5
Regno Unito 1 897 8 845 3.0
Italia 1 273 8 144 2.9
Francia 757 7 564 2.7
Canada 935 6 200 2.2
Portogallo 145 4 525 1.6
(Resto del mondo) 6 737 39 853 14.1
Totale mondiale 44 799 MW 282 587 MW 100%
10 maggiori nazioni
per produzione di energia eolica
(totale del 2011)[58]
Nazione Produzione di energia eolica
(TWh) % totale mondiale
Stati Uniti 120.5 26.2
Cina 88.6 19.3
Germania 48.9 10.6
Spagna 42.4 9.2
India 24.9 5.4
Canada 19.7 4.3
Regno Unito 15.5 3.4
Francia 12.2 2.7
Italia 9.9 2.1
Danimarca 9.8 2.1
(resto del mondo) 67.7 14.7
Totale mondiale 459.9 TWh 100%
Come si può notare dalla tabella e facendo un paragone con l'energia elettrica consumata ad esempio in Italia (circa 300 TWh/anno[59]), la produzione di energia elettrica mondiale da fonte eolica è ancora molto bassa (per diverse ragioni di tipo prevalentemente tecnologico che di certo non possone essere spiegate in maniera esaurente in queste pagine) nonostante i fortissimi investimenti che molte nazioni stanno mettendo in atto.
 
Trend di crescita
 
Capacità installata nel mondo tra il 1997 e il 2020 [MW], sviluppo e predizione. Fonte dei dati: WWEA
 
WorPrevisione della capacità di potenza installata (Fonte: Global Wind Energy Council)
Nel 2010 più della metà di tutta la nuova potenza eolica è stata installata al di fuori dei mercati tradizionali europei e nord americani. Ciò è stato dovuto in particolare alla forte crescita di installazioni in Cina che hanno rappresentato quasi la metà dei nuovi impianti eolici (16,5 GW).
 
Le cifre fornite dal Global Wind Energy Council (GWEC) mostrano che nel 2007 si è registrato un incremento di potenza installata di 20 GW, portando il totale della capacità installata di energia eolica a 94 GW, contro i 74 GW del 2006. Nonostante i vincoli che affrontano le industrie di produzione delle turbine eoliche, il mercato annuale ha continuato a crescere ad un tasso stimato del 37%, dopo una crescita del 32% nel 2006. In termini di valore economico, il settore eolico è diventato uno dei principali attori dei mercati energetici, con una valore totale delle nuove apparecchiature installate nel 2007 di 36 miliardi di dollari.
 
Anche se l'industria eolica ha risentito della crisi finanziaria globale nel 2009 e del 2010, la crescita ha continuato fino al 2013. Negli ultimi cinque anni la crescita media di nuovi impianti è stata del 27,6% all'anno. La previsione per il 2013 attestava il tasso di crescita annuo medio al 15,7%. Più di 200 GW di nuova capacità eolica potrebbero entrare in produzione entro la fine del 2013. Il potere di penetrazione dell'eolico nel mercato dovrebbe raggiungere il 3,35% entro il 2013 e l'8% entro il 2018. La crescita della potenza eolica installata si è confermata negli ultimi anni raggiungendo, a giugno 2015, i 392 GW pari al 4% della produzione di energia elettrica mondiale. 
 
Fattore di capacità
 
Capacità installata di energia eolica nel mondo (Fonte: GWEC)
Dal momento che la velocità del vento non è costante, la produzione annua di energia di una centrale eolica non è mai uguale a quella della capacità nominale del generatore moltiplicato per il tempo di un anno. Il rapporto di effettiva produttività annuale rispetto a questo massimo teorico è chiamato "fattore di capacità". Fattori di capacità tipici sono nell'ordine del 15-50%, con valori al limite superiore in siti favorevoli e grazie ai miglioramenti tecnologici delle turbine più moderne.
 
Alcuni dati sono disponibili per alcune località e il fattore di capacità può essere così calcolato dalla produzione annuale.Ad esempio, a livello nazionale, il fattore di capacità della Germania, analizzato su tutto il 2012, era di poco inferiore al 17,5% (45.867 GW·h/anno/(29,9 GW×24×366) = 0,1746) mentre il fattore di capacità per i parchi eolici scozzesi arrivava, tra il 2008 e il 2010, alla media del 24%.
 
La valutazione del fattore di capacità è tuttavia influenzata da diversi parametri, tra cui la variabilità del vento nel sito, ma anche dalla dimensione del generatore. Un piccolo generatore sarebbe più economico e in grado di raggiungere un fattore di capacità superiore ma produrrebbe meno elettricità (e quindi meno profitto) nel caso di venti forti. Viceversa, un grande generatore costerebbe più ma nel caso di bassa velocità del vento genererebbe poca potenza, così che un fattore di capacità ottimale sarebbe di circa il 40-50%.
 
In uno studio del 2008 pubblicato dallo statunitense Department of Energy's Office of Energy Efficiency and Renewable Energy, il fattore di capacità raggiunto dalle turbine eoliche presenti nel paese si è dimostrato di essere in aumento, grazie soprattutto ai miglioramenti tecnologici. Il fattore di capacità raggiunto nel 2010 dalle nuove turbine eoliche ha raggiunto quasi il 40%.
 
Penetrazione
 
Energia eolica installata in Europa nel 2010
Per penetrazione dell'energia eolica ci si riferisce alla percentuale di energia prodotta dal vento, rispetto alla capacità totale di produzione disponibile. Non esiste un livello massimo generalmente accettato per quanto riguarda l'eolico. Il limite per una particolare zona dipenderà dalle centrali esistenti, dai meccanismi di tariffazione, dalla capacità di stoccaggio di energia, dalla gestione della domanda e da altri fattori. Una rete elettrica interconnessa comprenderà già la possibilità di generare elettricità di riserva e la capacità di ovviare ai vari guasti che potrebbero accadere alle apparecchiature. Questa capacità di riserva può anche servire per compensare la variabilità di generazione di energia prodotta da impianti eolici. Gli studi hanno indicato che il 20% del consumo di energia elettrica totale annuo può essere raggiunto con minime difficoltà.Questi studi sono stati effettuati per luoghi dove gli impianti eolici erano dislocati geograficamente, vi era una certa possibilità di stoccaggio dell'energia (ad esempio tramite stazioni di pompaggio) e interconnessioni elettriche su vasta scala che permettono all'occorrenza di importare elettricità. Superato il 20% vi sono pochi limiti tecnici, ma le implicazioni economiche diventano più significative. Vi sono continui studi sugli effetti della penetrazione a larga scala dell'eolico per determinarne la stabilità e l'economia del sistema.
 
Un modello di penetrazione dell'energia eolica può essere specificato per diversi periodi di tempo. Su base annua, a partire dal 2011, poche sistemi elettrici possedevano livelli di penetrazione superiori al 5%: Danimarca - 26%, Portogallo - 17%, Spagna - 15%, Irlanda - 14%, e Germania - 9%. Per gli Stati Uniti, nel 2011, il livello di penetrazione è stato stimato intorno al 2,9%. Per ottenere un ipotetico 100% annuale dall'energia eolica, sarebbe necessario un sistema di accumulo dell'energia molto esteso. Su base mensile, settimanale, giornaliera o oraria, il vento può essere in grado di il 100% o più dell'uso corrente, con il resto conservato o esportato. L'industria può usufruire dei periodi di scarso utilizzo dell'energia eolica, come di notte quando l'energia prodotta può essere superiore alla domanda. Tali settori industriali possono includere la produzione di silicio, di alluminio, di acciaio o di idrogeno. La produzione di quest'ultimo può permettere, grazie ad una sua successiva riconversione nelle celle a combustibile, uno stoccaggio dell'energia a lungo termine, facilitando il raggiungimento del 100% di produzione di energia da fonti rinnovabili.
 
La General Electric ha installato un prototipo di turbina eolica con una batteria integrata equivalente a 1 minuto di produzione. Nonostante la piccola capacità, si è resa sufficiente per garantire una potenza costante, indipendentemente dalla condizioni atmosferiche. Una maggior prevedibilità dei consumi e delle condizioni meteo, possono portare a rendere conveniente una penetrazione da parte dell'energia eolica fino al 30%-40%. Il costo della batteria può essere ripagato con la vendita di energia su richiesta e sulla riduzione del fabbisogno di ricorrere a impianti a gas di supporto.
 
Variabilità
 
Le fattorie del vento sono tipicamente installate in luoghi ventosi. Nell'immagine una centrale eolica in Spagna, nei pressi di un toro di Osborne
La produzione di energia elettrica tramite lo sfruttamento del vento, può essere altamente variabile su diverse scale temporali: oraria, giornaliera o stagionale. Variazioni annuali possono anche verificarsi, ma non sono così significative.
 
Poiché la generazione istantanea di energia elettrica e i consumi devono rimanere in equilibrio per mantenere la stabilità della rete, questa variabilità può presentare difficoltà considerevoli per integrare grandi quantità di energia eolica in un sistema strutturato. L'Intermittenza della produzione può comportare costi aggiuntivi per la regolamentazione e, ad alti livelli di penetrazione, potrebbe rendersi necessaria un aumento della complessità del sistema, il ricorso a soluzioni di stoccaggio e l'interconnessione con sistemi High Voltage Direct Current (HVDC).
 
L'energia eolica è molto variabile, ma durante i periodi di mancanza di vento essa può essere sostituita da altre fonti di alimentazione. Attualmente, le reti di trasmissione possono far fronte alle interruzioni nella produzione e alle variazioni giornaliere della domanda elettrica. Attualmente, i sistemi di distribuzione energetica con grande penetrazione dell'eolico, richiedono la presenza di centrali a gas naturale in grado di sopperire alla perdita totale di energia elettrica nel caso in cui le condizioni non siano favorevoli per la produzione dal vento. Quando vi è una bassa penetrazione degli impianti eolici, questi problemi risultano minori.
 
Incremento dei costi operativi di servizio, Euro per MWh, per 10% & 20% di condivisione del vento
Country 10% 20%
Germania 2.5 3.2
Danimarca 0.4 0.8
Finlandia 0.3 1.5
Norvegia 0.1 0.3
Svezia 0.3 0.7
Un'analisi effettuata in Danimarca ha osservato che la loro rete di energia eolica aveva fornito meno dell'1% della domanda media per 54 giorni nel corso del 2002.I sostenitori dell'eolico ritengono che questi periodi di bassa ventosità possono essere affrontati riavviando le centrali a combustibili fossili già presenti o ricorrendo alle interconnessioni HVDC.[88] Tuttavia la risposta delle centrali termoelettriche ad un bisogno di energia è piuttosto lento e perciò è necessario avere la disponibilità anche di impianti di generazione di energia idroelettrica.Secondo uno studio del 2007 della Stanford University pubblicato sul Journal of Applied Meteorology and Climatology, l'interconnessione di dieci o più impianti eolici può permettere di produrre il 33% dell'energia totale in maniera affidabile, a condizione che siano rispettati i criteri minimi come la velocità e l'altezza della turbina.
 
Al contrario nelle giornate particolarmente ventose, anche con livelli di penetrazione del 16%, la produzione di energia eolica si è dimostrata in grado di superare tutte le altre fonti di energia elettrica. In Spagna il 16 aprile 2012 la produzione di energia eolica ha raggiunto la più alta percentuale di produzione di energia elettrica mai raggiunta, con gli impianti eolici che hanno coperto il 60,46% della domanda energetica totale.
 
Un forum per l'energia condotto nel 2006 ha presentato i costi per la gestione dell'intermittenza, in funzione della quota di energia eolica totale per diversi paesi, ciò è mostrato nella tabella a destra. Tre studi emessi nel 2009 sulla variabilità del vento nel Regno Unito concordano sul fatto che la variabilità del vento deve essere presa in considerazione, ma tuttavia ciò non rende il sistema ingestibile. I costi aggiuntivi, che sono comunque modesti, possono essere quantificati.
 
L'energia solare tende ad essere complementare al vento. Le zone ad alta pressione tendono a portare cielo sereno e bassi venti di superficie, mentre le aree di bassa pressione tendono ad essere più ventose e più nuvolose. Su scale temporali stagionali, si registrano picchi di energia solare in estate, mentre in molte zone l'energia eolica è più bassa in estate e più alta nella stagione invernale. In questo modo le intermittenze tra energia eolica e solare tendono a compensarsi a vicenda. Nel 2007 l'Istituto per l'energia solare Tecnologia di approvvigionamento dell'Università di Kassel ha testato un impianto pilota combinato di energia solare, eolica, biogas e hydrostorage allo scopo di fornire energia elettrica in modo costante per tutto il giorno tutto l'anno, interamente da fonti rinnovabili.
 
Prevedibilità
Alcuni metodi di previsione vengono utilizzati per la produzione di energia eolica, ma la prevedibilità di un particolare parco eolico è comunque bassa in una breve scala temporale. Per ogni particolare generatore, vi è un 80% di probabilità che la sua produzione cambi per meno del 10% in un'ora e una probabilità del 40% che cambi più del 10% in 5 ore.
 
Così mentre la produzione di una singola turbina può variare notevolmente e rapidamente, più turbine collegate tra di loro su aree più grandi, la potenza media diventa meno variabile e più prevedibile.
 
La velocità del vento può essere prevista con precisione su grandi aree e quindi il vento può considerarsi una fonte di energia prevedibile per l'immissione in una rete elettrica. Tuttavia, a causa della variabilità e sebbene prevedibile, la disponibilità di energia eolica deve essere programmata.
 
Affidabilità
Raramente l'energia eolica soffre di guasti tecnici, dato che un malfunzionamento di un singolo aerogeneratore comporta un relativamente basso impatto sulla potenza erogata complessiva in grandi parchi eolici.Altri metodi di produzione di energia elettrica possono risentire, anche in maniera grave, di interruzioni imprevedibili.
 
Accumulo dell'energia
In generale l'energia eolica e l'energia idroelettrica si integrano molto bene. Quando il vento soffia con forza, le centrali idroelettriche possono temporaneamente pompare indietro la loro acqua e quando il vento cala, il rilascio a valle dell'acqua può rapidamente compensare la mancanza di energia, mantenendo stabile l'offerta.
 
Bacino superiore in una centrale di pompaggio del Galles. La centrale inferiore è dotata di quattro turbine che generano 360 MW di energia elettrica entro 60 secondi da quando si presenta la necessità. La dimensione della diga può essere giudicata dalla strada sottostante
Le centrali Idroelettriche di pompaggio o altre forme di immagazzinamento dell'energia possono stoccare l'energia sviluppata in periodi particolarmente ventosi e rilasciarla quando vi è la necessità.[100] L'immagazzinamento necessario dipende dal livello di penetrazione dell'energia eolica nel sistema: una bassa penetrazione richiede uno stoccaggio a breve termine, mentre un'alta penetrazione necessita di stoccaggio sia a breve che lungo termine, fino a un mese o più. L'energia immagazzinata aumenta il valore economico dell'energia eolica in quanto può essere utilizzata durante i periodi di picco della domanda e cioè quando il suo costo è più elevato. Questo guadagno può compensare i costi e le perdite dovute all'immagazzinamento. Il costo dello stoccaggio energetico può arrivare a incrementare del 25% il costo dell'energia eolica prodotta, ma ciò tenderebbe a diminuire nel caso di grandi produzioni energetiche. Ad esempio, nel Regno Unito, la Dinorwig Power Station da 1,7 GW è in grado di uniformare i picchi di domanda elettrica e garantire ai fornitori di energia elettrica di far funzionare i propri impianti al massimo del loro rendimento[senza fonte]. Anche se i sistemi di pompaggio presentano solo circa il 75% di efficienza e hanno alti costi di installazione, i loro bassi costi di gestione e la capacità di ridurre la richiesta di energia da fonti combustibili possono far abbassare i costi totali di generazione elettrica.
 
In particolare, in alcune regioni geografiche il picco di velocità del vento può non coincidere con i picchi di richiesta di energia elettrica. Per esempio in California e in Texas i caldi giorni estivi sono caratterizzati da una bassa velocità del vento e da una forte domanda elettrica per via dell'utilizzo dell'aria condizionata. Alcune sovvenzioni per l'acquisto di pompe di calore geotermiche, al fine di ridurre la domanda di energia elettrica nei mesi estivi, hanno reso l'aria condizionata fino al 70% più efficiente.Un'altra opzione è quella di interconnettere aree geografiche ampiamente disperse con sistemi di rete HVDC. Si stima che negli Stati Uniti aggiornamento del sistema di trasmissione in tal senso richiederebbe un investimento di almeno $ 60 miliardi.
 
La Germania ha una capacità installata di eolico e di solare che supera la domanda giornaliera[domanda di cosa?], e sta esportando la potenza di picco[non chiaro] nei paesi vicini. Una soluzione più pratica sarebbe l'installazione di un sistema di stoccaggio sufficiente per almeno 30 giorni in grado di fornire l'80% della domanda. Proprio come l'Unione europea che impone ai paesi membri di mantenere 90 giorni di riserve strategiche di petrolio, si può prevedere che i paesi vadano a installare sistemi di stoccaggio di energia elettrica.
 
Effetti sull'ambiente
 
Secondo il direttore di questo parco eolico, il bestiame ignora le turbine eoliche, e continua a pascolare come prima che ne avvenisse l'installazione
Rispetto all'impatto ambientale delle fonti energetiche tradizionali, l'impatto dell'energia eolica è relativamente minore in termini di inquinamento. L'energia eolica non consuma carburante e non emette inquinante atmosferico, a differenza di fonti di energia fossili. L'energia consumata per produrre e trasportare i materiali utilizzati per costruire un impianto eolico è uguale alla nuova energia prodotta dall'impianto nei primi mesi. Un parco eolico può occupare una vasta area di terreno, ma attività come l'agricoltura e l'allevamento sono compatibili vista il piccolo ingombro dei singoli generatori.
 
L'entità dell'impatto ecologico può essere o menosignificativo, a seconda delle circostanze specifiche. Anche se tutte le strutture artificiali possono uccidere gli uccelli, l'energia eolica ha un effetto elevato su alcune specie di uccelli in via di estinzione,come le precarie popolazioni di aquila reale degli Stati Uniti. Un gruppo particolarmente vulnerabile sono i rapaci.Tuttavia anche se ha un effetto trascurabile sulla maggior parte degli uccelli, in alcune località non vi sono stati dimostrati effetti estremamente negativi su alcuni uccelli di interesse conservazionistico.
 
Tuttavia una grande meta-analisi di 616 studi individuali sulla produzione di energia elettrica e dei suoi effetti sulla mortalità aviaria hanno concluso che gli effetti più visibili della tecnologia eolica non sono necessariamente i più evidenti, come:
 
« Le turbine eoliche sembrano costituire una minaccia significativa, in quanto tutte le loro esternalità negative sono concentrate in un unico luogo, mentre quelle provenienti dai cicli convenzionali e nucleari sono sparsi in tutto lo spazio e il tempo. La mortalità aviaria e l'energia eolica ha di conseguenza ricevuto molta più attenzione e ricerca rispetto ai decessi associati all'uso del carbone, petrolio, gas naturale e generatori di energia nucleare. Alcuni studi suggeriscono che addirittura l'energia eolica può essere la meno dannosa per gli uccelli. »
Un'oculata scelta del posizionamento delle turbine eoliche può mitigare il numero dei decessi della fauna selvatica.
 
Vi sono state anche segnalazioni di effetti negativi dovuti al rumore sulle persone che vivono molto vicino alle turbine eoliche. Studi peer-reviewed non hanno generalmente sostenuto queste preoccupazioni.
 
Efficienza
L'efficienza massima di un impianto eolico può essere calcolata utilizzando la Legge di Betz, che mostra come l'energia massima che un generatore eolico qualunque può produrre sia il 59,3% di quella posseduta dal vento che gli passa attraverso. Tale efficienza è il massimo raggiungibile e un aerogeneratore con un'efficienza compresa tra il 40% al 50% viene considerato ottimo.
 
Gli impianti eolici consentono grosse economie di scala che abbattono il costo del chilowattora elettrico con l'utilizzo di pale lunghe ed efficienti dalla produzione di diversi megawatt ciascuna. Una maggiore potenza elettrica in termini di megawatt significa grossi risparmi sui costi di produzione, ma anche pale più lunghe e visibili da grandi distanze, con un maggiore impatto ambientale sul paesaggio. Un colore verde, nel tentativo di mimetizzare gli aerogeneratori all'interno del paesaggio, attenua in minima parte il problema, date le altezze degli impianti. Per questo motivo, nonostante la suddetta maggiore economicità ed efficienza degli impianti di grossa scala, per lo più si decide per una soluzione di compromesso tra il ritorno economico, che spinge verso impianti più grandi, e l'impatto paesaggistico.
 
Economia
A circa a metà degli anni 2000 l'energia eolica ha raggiunto la grid parity rispetto alle altre fonti tradizionali, ovvero il punto in cui la sua produzione ha lo stesso prezzo dell'energia prodotta tramite fonti di energia tradizionali. Inoltre i costi in continua discesa fanno supporre che l'energia eolica diventerà la fonte di energia più economica tra quelle disponibili su larga scala.Tuttavia, una quantità significativa di risorse di energia eolica del Nord America rimane sopra la grid parity a causa delle lunghe distanze di trasmissione.
 
Costo stimato per MWh per l'eolico in Danimarca
 
Progetto per il National Renewable Energy Laboratory che dovrebbe abbassare del 25% il costo dell'energia eolica tra il 2012 e il 2030
Il costo di produzione dell'energia eolica è in costante ribasso, ma presenta comunque un discreto investimento iniziale. Una volta che l'impianto è stato costruito, il costo è stimato in meno di 1 cent per kW·h.Tale costo tende a ridursi ulteriormente grazie al miglioramento della tecnologia delle turbine. Ora gli impianti dispongono di pale più lunghe e più leggere e turbine più efficienti e migliori in termini di prestazione. Inoltre i costi di manutenzione degli impianti sono in continua decrescita.
 
Il costo medio stimato per unità, comprende il costo di costruzione delle turbine e degli impianti di trasmissione, il costo del reperimento dei fondi e della tutela del rischio, nonché la manutenzione dell'impianto che generalmente ha una vita utile superiore ai 20 anni. Le stime dei costi energetici sono fortemente dipendenti da questi dati e possono differire in modo sostanziale da impianto a impianto. Nel 2004 l'energia eolica costa un quinto rispetto a quanto costava nel 1980 e alcune previsioni vedono un trend al ribasso con la produzione di grandi turbine su larga scala.Nel 2012 i costi di investimento per i parchi eolici sono sostanzialmente inferiori rispetto a quelli del 2008-2010, ma sono ancora al di sopra dei livelli del 2002.
 
Una relazione della British Wind Energy Association ha fornito il costo medio per la generazione di energia eolica onshore a circa 3,2 pence (tra i 5 e i 6 dollari statunitensi) per kW·h (2005).Il costo per unità di energia prodotta è stata stimata nel 2006 essere paragonabile al costo della generazione elettrica per gli Stati Uniti mediante il carbone e il gas naturale. Il costo dell'eolico è stato stimato a 55,80 dollari per MW·h, il carbone a $ 53.10 per MW·h e il gas naturale a $ 52,50.[4] Risultati simili comparativi con il gas naturale sono stati ottenuti in uno studio governativo promosso nel Regno Unito ed effettuato nel 2011.Uno studio sull'energia eolica risalente al 2009 effettuato in Spagna dalla re Juan Carlos University ha concluso che per ogni MW installato di energia eolica ha portato alla perdita di 4,27 posti di lavoro. Il Dipartimento dell'Energia degli Stati Uniti ha espresso forti perplessità sullo studio, giudicandolo gravemente carente e con conclusioni non supportate dalle evidenze.Il ricorso all'energia eolica, anche se sovvenzionata, è in grado di ridurre i costi per i consumatori (5000000000 €/anno in Germania), riducendo il prezzo marginale e l'utilizzo di costose centrali tradizionali.
 
Parco eolico a Rivoli Veronese, Italia. In primo piano il Forte di Rivoli
Un rapporto del 2011 della American Wind Energy Association ha dichiarato: "I costi dell'energia eolica sono diminuiti nel corso degli ultimi due anni, nel range di 5-6 centesimi per chilowattora, circa 2 centesimi in meno rispetto alla produzione elettrica tramite carbone.... i produttori di apparecchiature possono anche consegnare i prodotti nello stesso anno in cui vengono ordinati invece di aspettare fino a tre anni per le tradizionali centrali... con i nuovi 5.600 MW di nuova capacità installata negli Stati Uniti, il trenta per cento di tutte le nuove generazione di energia nel 2005 è venuta dal vento. I fornitori di energia sono sempre più attratti dal vento come una vantaggiosa copertura contro gli imprevedibili movimenti di prezzo delle materie prime".
 
Il costo di installazione in Italia, facendo riferimento ad impianti con una potenza nominale superiore ai 600 kilowatt, varia secondo la complessità dell'orografia del terreno in cui l'impianto è installato, della classe di macchina installata, della difficoltà di connessione alla rete elettrica. Una centrale di 10 megawatt, allacciata alla rete in alta tensione, costerebbe tra i 15 e i 20 milioni di euro, mentre per una centrale allacciata alla rete di media tensione (3-4 megawatt) il costo si comprime tra 1,2 e 1,5 milioni di euro al megawatt. Gli unici capitoli di spesa totale riguardano l'installazione e la manutenzione, dato che non ci sono costi di approvvigionamento della fonte produttrice di energia.
 
Incentivi e benefici di comunità
 
I proprietari terrieri statunitensi, in genere ricevono dai 3.000 ai 5.000 dollari all'anno di reddito per la locazione di ogni turbina eolica
I proprietari terrieri negli Stati Uniti in genere ricevono dai 3.000 ai 5.000 dollari all'anno di reddito per la locazione di ogni turbina eolica, mentre gli agricoltori continuano a coltivare o pascolare il bestiame fino ai piedi delle turbine. Alcune delle oltre 6.000 turbine eoliche nel Altamont Pass Wind Farm, in California, Stati Uniti si sono sviluppate nel corso di un periodo di incentivi fiscali del 1980, questo parco eolico ha più turbine di qualsiasi altro negli Stati Uniti.
 
L'industria eolica statunitense genera decine di migliaia di posti di lavoro e miliardi di dollari di attività economica. Progetti di parchi eolici forniscono tasse locali o entrate che rafforzano l'economia delle comunità rurali, fornendo reddito degli agricoltori tramite l'affitto per il posizionamento di turbine eoliche sulla loro terra.L'energia eolica in molte giurisdizioni riceve un sostegno finanziario o altro per favorire il suo sviluppo. Molte giurisdizioni propongono vantaggi per l'installazione di parchi eolici, sia per aumentare l'attrattiva o per compensare le sovvenzioni che ricevono altre forme di produzione che hanno significative esternalità negative.


#126 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 05 ottobre 2016 - 05:08

Treno a levitazione magnetica
 
220px-Transrapid.jpg
 
Maglev Transrapid di Shanghai
 
Treno Maglev in Germania
 
Birmingham International Maglev
Un treno a levitazione magnetica o MagLev è un tipo di treno che viaggia senza toccare le rotaie grazie alla levitazione magnetica.
 
La repulsione e l'attrazione magnetica vengono utilizzate anche come mezzo di locomozione. Dato che il convoglio non tocca le rotaie, l'unica forza che si oppone al suo moto è l'attrito dell'aria. Il MagLev è quindi in grado di viaggiare a velocità elevatissime (oltre i 600 km/h[1]) con un consumo di energia limitato e un livello di rumore accettabile. Sebbene la velocità del MagLev gli consenta di fare concorrenza all'aereo anche nei lunghi percorsi, i costi per la realizzazione delle infrastrutture ne hanno limitato finora l'utilizzo a brevi tratte molto frequentate. A Shanghai un MagLev collega la città con l'aeroporto. La linea è lunga 33 chilometri e viene percorsa dal treno in 7 minuti e 20 secondi con una velocità massima di 501,5 km/h e una velocità media di 250 km/h.
 
Le tecnologie che si possono usare per realizzare un MagLev sono due:
 
Sospensione elettromagnetica (EMS): utilizza elettromagneti convenzionali montati sull'estremità di una coppia di strutture poste sotto il treno che avvolgono i fianchi e la parte inferiore della guidovia. I magneti, attirati verso i binari laminati in ferro, sorreggono il treno. Questo sistema però è instabile, perché bisogna controllare costantemente la distanza tra il treno e il binario, che deve essere sempre di 1 cm.
Sospensione elettrodinamica (EDS): il treno ottiene la levitazione sfruttando le polarità opposte dei magneti del veicolo e gli avvolgimenti siti sul binario, o viceversa. La forza repulsiva si sviluppa in conseguenza del movimento del veicolo e non è attiva a veicolo fermo.
Un esempio di treno basato su tale tecnologia è il JR-Maglev, che utilizza materiali superconduttori raffreddati fino a 20 K circa, montando a bordo refrigeratori e criostati. Un altro esempio è il sistema Inductrack che utilizza magneti permanenti anziché avvolgimenti superconduttori, questa tecnologia rende il veicolo totalmente passivo.
È allo studio (e sperimentalmente già realizzata) la tecnica di refrigerazione ad elio liquido, in grado di raggiungere una temperatura pari quasi allo zero assoluto (a soli 0,2 K dallo zero assoluto). Tale tecnica è più costosa rispetto a quella JR-Maglev.
 
Un'altra tecnica è quella che prevede l'indirizzamento di un flusso fortemente accelerato di protoni verso il magnete permanente (quello ancorato al carrello) tale da accrescerne in maniera esponenziale il campo magnetico. Tale tecnica presenta il vantaggio di poter impiegare magneti più piccoli e leggeri e quindi meno costosi, vi è però un aumento del consumo di energia elettrica.
 
Giappone e Germania sono paesi molto attivi nella ricerca sui maglev e hanno prodotto degli approcci al problema differenti. In un progetto il treno levita grazie alla forza repulsiva dello stesso polo magnetico e si muove grazie alla forza attrattiva che si sviluppa tra due poli opposti. Il treno è mosso da un motore lineare posto nel tracciato o nel treno (o in entrambi). Gli induttori magnetici di grandi dimensioni sono installati nel tracciato e questi generano il campo magnetico necessario a sostenere il treno e a farlo muovere. Alcuni commentatori hanno fatto notare che la realizzazione di infrastrutture ferroviarie basate su questa tecnologia sarebbe estremamente costosa.
 
Magneti fissi basati su elettromagneti o magneti permanenti sarebbero instabili per il teorema di Earnshaw. D'altra parte magneti diamagnetici e a superconduttori non possono mantenere stabile un maglev. Gli attuali sistemi maglev sono stabilizzati da elettromagneti gestiti elettronicamente. Questi grandi elettromagneti sono molto pesanti e richiedono elevate quantità di corrente elettrica.
 
Il peso di un grande elettromagnete è una componente importante di un progetto per un maglev. Un campo magnetico molto intenso è necessario per far levitare un pesante treno e la ricerca convenzionale sui maglev punta ad utilizzare superconduttori per realizzare elettromagneti efficienti.
 
Gli effetti di un intenso campo magnetico sul corpo umano sono in gran parte sconosciuti. Per la sicurezza dei passeggeri potrebbe essere necessario aggiungere degli schermi contro i campi magnetici. L'idea è semplice, ma la progettazione dal punto di vista ingegneristico è molto complessa.
 
Un nuovo sistema forse più economico dei sistemi convenzionali è chiamato inductrack. Questa tecnologia si basa sull'utilizzo di elettromagneti non alimentati (passivi) e di magneti permanenti. La teoria si basa sull'utilizzo delle correnti indotte dai magneti permanenti negli elettromagneti quando questi attraversano, in movimento, le linee di campo prodotte dai magneti permanenti. Questa tecnologia necessita di corrente solamente durante il movimento del mezzo e la quantità necessaria è direttamente proporzionale alla velocità del mezzo. Nel prototipo i magneti permanenti erano montati sul carrello orizzontalmente per l'altezza e verticalmente per la stabilità. I magneti e il carrello non sono alimentati se non per dare velocità al carrello. Inductrack venne sviluppato originariamente per creare un motore magnetico che immagazzini energia attraverso il movimento del carrello. Con delle leggere modifiche al progetto la linea originale che era un cerchio chiuso è stata estesa per diventare una retta. L'inductrack è stato sviluppato dal fisico Richard F. Post del Lawrence Livermore National Laboratory.
 
L'inductrack utilizza degli Array Halbach per stabilizzarsi. Gli Array Halbach sono un insieme di magneti permanenti che stabilizzano il movimento nelle linee di forza magnetiche senza bisogno di elettronica, questi elementi infatti incrementano il campo magnetico da un lato cancellandone la presenza dal lato opposto. Gli Array Halbach vennero sviluppati originariamente per stabilizzare il fascio degli acceleratori di particelle. Inoltre generano un campo magnetico solo dal lato rivolto verso la pista riducendo i potenziali effetti indesiderati subiti dai passeggeri.
 
Attualmente, molte agenzie spaziali, tra le quali la NASA stanno effettuando ricerche sui maglev per sviluppare un metodo economico di lanciatore spaziale. Le agenzie spaziali vorrebbero sviluppare dei maglev talmente veloci da superare la velocità di fuga terrestre. Utilizzare un maglev per accelerare un carrello permetterebbe di utilizzare piccoli razzi per raggiungere l'orbita. L'attrito dell'aria rende difficile realizzare un maglev che possa entrare in orbita senza utilizzo di razzi a meno di costruire la piattaforma di lancio su una montagna molto elevata come le montagne della catena dell'Himalaya.
 
Durante il 2010 un nuovo Maglev precisamente il JR-MAGLEV MXL02 che usa il sistema a sospensione elettrodinamica (EDS) ha ottenuto il record di 581.6 km/h su una corsa di test.
 
Il 21 aprile 2015 un MagLev ha raggiunto i 603 km/h durante alcuni test in Giappone nella prefettura di Yamamashi, stabilendo il nuovo primato mondiale di velocità.
 
Maglev esistenti
A Berlino Ovest la società M-Bahn costruì, negli anni ottanta, un maglev da 1,6 km che collegava tre stazioni U-Bahn. Il test con traffico passeggeri partì nell'agosto 1989 e il servizio regolare nel giugno 1991. Dato che il traffico dei passeggeri si modificò dopo la caduta del muro di Berlino la linea venne dismessa nel febbraio del 1992, smantellata e sostituita da una linea di metropolitana.
 
Il primo sistema commerciale automatico basato su maglev a bassa velocità fu quello sviluppato per collegare l'Aeroporto Internazionale di Birmingham con la stazione ferroviaria internazionale di Birmingham operativo tra il 1984 e il 1995. Il tracciato era lungo 600 metri e il treno era sospeso a 15 millimetri dalle rotaie. Ha funzionato per undici anni ma l'obsolescenza dell'elettronica ha reso il sistema non sicuro e quindi è stato sostituito da un sistema convenzionale.
 
Transrapid è una compagnia tedesca che ha sviluppato una linea di test a Emsland e ha costruito la prima linea commerciale ad alta velocità di maglev, la Shanghai Maglev Train a Shanghai in Cina nel 2002. Questa linea collega l'aeroporto internazionale di Shanghai, situato a Pudong, con la città. La linea è lunga 30 km e la massima velocità raggiunta è di 501 km/h.
 
Il Giappone ha testato nella prefettura di Yamanashi un treno maglev, il JR-Maglev, che ha raggiunto la velocità record di 603 km/h, la maggior velocità mai raggiunta da un convoglio terrestre. Il treno utilizza magneti superconduttori e sospensioni elettrodinamiche. Al contrario il Transrapid utilizza convenzionali elettromagneti e sospensioni elettromagnetiche di tipo attrattivo. Il "Superconducting Maglev Shinkansen" sviluppato dalla Central Japan Railway Co. ("JR Central") e Kawasaki Heavy Industries è attualmente il treno più veloce del mondo. Se la proposta del Chuo Shinkansen verrà approvata, Tokyo e Osaka verranno collegate dal maglev e il tracciato di test entrerà a far parte della linea.
 
Il primo sistema commerciale di maglev urbano è diventato operativo in Giappone nel marzo 2005. Questo sistema è formato di nove stazioni lungo un tracciato di 8,9 chilometri della linea Tobu-kyuryo conosciuta anche come Linimo. La linea ha un raggio operativo minimo di 75 metri e un'inclinazione di 6º. Il motore lineare a levitazione magnetica ha una velocità massima di 100 km/h. Quella linea serve alla popolazione locale per raggiungere l'Expo 2005. Il treno è stato sviluppato dalla Chubu HSST Development Corporation che ha collaborato anche al tracciato di test a Nagoya. Un maglev urbano simile a quello giapponese è stato presentato in Corea dall'azienda Rotem.
 
Negli Stati Uniti d'America la Federal Transit Administration ha avviato il Urban Maglev Technology Demonstration program. Il programma ha lo scopo di progettare maglev a bassa velocità per utilizzo cittadino ed inizialmente è stata valutata la tecnologia della HSST. La FTA ha finanziato la General Atomics e la California University of Pennsylvania per lo sviluppo di una nuova generazione di maglev, il MagneMotion M3 e il Maglev2000 of Florida, entrambi basati su superconduttori EDS. Un altro progetto per un maglev urbano è il LEVX sviluppato nello stato di Washington, il Magplane sviluppato nel Massachusetts, e il progetto simile al sistema della HSST sviluppato dalla American Maglev Technology of Florida e dalla Old Dominion University in Virginia.
 
Il 31 dicembre 2000 il primo superconduttore ad alte temperature per maglev è stato testato con successo nella Southwest Jiaotong University, di Chengdu, in Cina. Il sistema si basa su superconduttori ad alta temperatura che vengono fatti levitare su magneti permanenti. Il carico era di 530 chilogrammi e la distanza dai magneti era di 20 millimetri. Il sistema utilizzava azoto liquido, un refrigerante molto economico per i superconduttori.
 
Il primo brevetto per la levitazione magnetica dei treni con un motore lineare è il US patent 3,470,828, rilasciato nell'ottobre del 1969 a James R. Powell e Gordon T. Danby. La tecnologia utilizzata è stata inventata da Eric Laithwaite, e descritta nel "Proceedings of the Institution of Electrical Engineers", vol. 112, 1965, pp. 2361–2375, con il titolo di "Electromagnetic Levitation" (levitazione magnetica). Laithwaite brevettò il motore lineare nel 1948.
 
Proposte future
Mobilità cittadina
Unimodal ha proposto un sistema di trasporto personale basato su sospensioni Inductrack, il sistema proposto sarebbe in grado di raggiungere i 160 km/h in città.
 
Attraversamenti sottomarini
Una proposta particolare di maglev punta a realizzare dei tunnel interrati senza aria in modo da poter far viaggiare il treno senza doversi preoccupare dell'attrito dell'aria. Queste linee sarebbero in grado di utilizzare treni che viaggiano a velocità massime di 600–800 km/h e se costruite abbastanza in profondità potrebbero attraversare gli oceani. Ma senza un radicale miglioramento delle tecniche di perforazione queste idee sono irrealizzabili.
 
Progetti nazionali
Giappone
In Giappone è stato deciso nel maggio 2011 di realizzare una linea a levitazione magnetica che collegherà Tokyo con Nagoya nel 2027 e quindi con Osaka nel 2040. Attualmente esiste un tracciato sperimentale nella prefettura di Yamanashi usato per le sperimentazioni, che verrà integrato con la nuova linea una volta completata. Grazie alla nuova linea, del costo di 9 triliardi di yen, Tokyo e Nagoya saranno collegate in 40 minuti, e Osaka in 60 minuti.
 
Germania
In Germania, a Monaco di Baviera, è in progetto un sistema a levitazione magnetica tra la stazione principale (sede di interconnessione con diverse linee metropolitane e linee di trasporto ferroviario locale) e l'aeroporto. È prevista la riduzione del tempo medio di collegamento dagli attuali 40 minuti a 10 minuti circa. Nell'atrio dell'aeroporto è presente un modello visitabile in scala reale del treno.
 
Tale progetto potrebbe subire ritardi nella sua realizzazione a causa di un incidente avvenuto il 22 settembre 2006 durante un collaudo; il treno, che viaggiava a una velocità di circa 200 km/h ha investito un carrello per la manutenzione; il primo vagone, che trasportava una trentina di passeggeri, è andato completamente distrutto e 23 persone fra occupanti e personale della manutenzione sono rimaste uccise.
 
Cina
La Cina sta valutando la possibilità di utilizzare il maglev per collegare le principali città, anche se il costo potrebbe rendere il progetto non realizzabile. Comunque una linea Shanghai-Hangzhou è in fase di studio.
 
Corea del Sud
In Corea del Sud è in fase di costruzione una linea a levitazione magnetica di 6,1 km nei pressi dell'Aeroporto Internazionale di Incheon chiamata Incheon Maglev. Il treno corre a una velocità di 110 km/h e ha aperto il 30 settembre 2014.
 
Regno Unito
Una linea basata su maglev nel Regno Unito è stata proposta nel 2005 per collegare Londra e Glasgow. Questa linea sarebbe dotata anche di diverse opzioni lungo l'itinerario da realizzare. Sembra che il governo locale abbia preso seriamente in considerazione la proposta.
 
Svizzera
In Svizzera è stato proposto lo Swissmetro, una linea ferroviaria sotterranea a levitazione magnetica. Secondo questo progetto il treno corre in un tunnel in cui è fatto il vuoto, in modo da migliorare gli effetti aerodinamici. La velocità massima prevista è di 500 km/h. È previsto un asse Est-Ovest da Ginevra a San Gallo e un asse Nord-Sud da Basilea a Bellinzona. Malgrado le sovvenzioni della Confederazione le possibilità di vedere realizzato il progetto nel sottosuolo elvetico sono molto basse, tanto che i responsabili del progetto hanno già cominciato delle trattative con la Cina.
 
Italia
Nell'aprile 2008 a Brescia il giornalista Andrew Spannaus della Executive Intelligence Review, propose di cogliere l'occasione della futura Esposizione Universale di Milano (EXPO 2015), per iniziare una rivoluzione infrastrutturale in Lombardia, con la previsione di estenderla al resto d'Italia. Egli propose di costruire una linea di trasporto a levitazione magnetica per collegare l'aeroporto di Malpensa con le città di Milano, Bergamo e Brescia.
 
Nel marzo 2011 fu presentato da parte di Nicola Oliva, membro del Consiglio Comunale di Prato, a Enrico Rossi, presidente della Regione Toscana, la proposta di un collegamento a levitazione magnetica che collegherebbe in pochi minuti Firenze allo scalo aeroportuale di Pisa. L'obiettivo di tale progetto è di realizzare una linea a levitazione magnetica che, iniziando da Prato, passi poi per la stazione di Santa Maria Novella di Firenze e dunque per l'aeroporto di Firenze, per giungere così fino all'aeroporto civile di Pisa. Il Maglev consentirebbe perciò di collegare Firenze e Pisa in tempi assai più rapidi dagli attuali, passando dall'ora e quindici minuti di oggi ai venti minuti circa con il treno a levitazione magnetica, in questo modo permettendo allo scalo aeroportuale pisano di espandere significativamente il proprio bacino di utenza e quindi di continuare a servire, in qualità di principale aeroporto civile, la Toscana grazie a questo progetto. La progettazione completa prevede, in una seconda fase e in una visione organica, il prolungamento della tratta a levitazione magnetica verso la costa tirrenica con in testa Livorno e con la conseguente costruzione di una piattaforma logistica integrata mare-ferro-aerea di importanza strategica per l'economia regionale toscana.
 
Record di velocità dei treni magnetici
 
Treno giapponese MLX01
1971 - Germania Ovest - Prinzipfahrzeug - 90 km/h
1971 - Giappone - TR-02 - 164 km/h
1972 - Giappone - ML100 - 60 km/h - (con equipaggio)
1973 - Giappone - TR04 - 250 km/h - (con equipaggio)
1974 - Giappone - EET-01 - 230 km/h - (senza equipaggio)
1975 - Germania Ovest - Komet - 401.3 km/h (propulso da un razzo a vapore) - (senza equipaggio)
1978 - Giappone - HSST01 - 307.8 km/h (propulso da razzi di supporto costruiti dalla Nissan)- (senza equipaggio)
1978 - Giappone - HSST02 - 110 km/h - (con equipaggio)
1979 - Giappone - ML500 - 517 km/h - (senza equipaggio) Primo treno a superare i 500 km/h
1987 - Germania Ovest - TR06 - 406 km/h - (con equipaggio)
1987 - Giappone - MLU001 - 400.8 km/h - (con equipaggio)
1988 - Giappone- TR-06 - 412.6 km/h - (con equipaggio)
1989 - Giappone - TR-07 - 436 km/h - (con equipaggio) 
1993 - Germania - TR-07 - 450 km/h - (con equipaggio)
1994 - Giappone - MLU002N - 431 km/h - (senza equipaggio)
1997 - Giappone - MLX01 - 531 km/h - (con equipaggio)
1997 - Giappone - MLX01 - 550 km/h - (senza equipaggio)
1999 - Giappone - MLX01 - 548 km/h - (senza equipaggio)
1999 - Giappone - MLX01 - 552 km/h - (con equipaggio/Composizione di 5 vetture). Guinness authorization.
2003 - Germania - TR-08 - 501 km/h - (con equipaggio)
2003 - Giappone - MLX01 - 581 km/h (con equipaggio/Composizione di 3 vetture)
2015 - Giappone - L0 - 603 km/h (con equipaggio/Composizione di 7 vetture)
 
 


#127 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 12 ottobre 2016 - 05:41

Il gelato
 
Coppa_gelato_con_frutta_scolpita.jpg
 
In origine, il gelato non era certamente quello che noi conosciamo. Nell'antichità, probabilmente, si refrigeravano frutta, latte e miele per farne cibo nutriente. Esiste uno studio europeo[senza fonte] sui cibi conservati tra i ghiacci da parte di popolazioni Neanderthaliane, le quali nascondevano tra le nevi, allo scopo di preservare la loro durata, bacche e pezzi di carne di cervide, nonché frutti secchi. In seguito popoli più evoluti conobbero, attraverso l'allevamento, il latte ghiacciato, alimento tutt'altro che raro nei periodi invernali.
 
Il periodo islamico della Sicilia
La coltivazione della canna da zucchero viene importata in Sicilia e in Spagna dagli Arabi nel IX secolo. Lo zucchero è l'ingrediente principale per la preparazione del sorbetto: gli arabi erano soliti preparare infusi a base di acqua, zucchero, erbe e spezie. I sorbetti venivano raffreddati attraverso il processo endotermico provocato dall'aggiunta di sali nel ghiaccio: questo era il modo di congelare i sorbetti, ponendoli in recipienti circondati da ghiaccio e sale. Questa tradizione fu importata anche in Sicilia dove alcuni ritrovamenti testimoniano l'esistenza di ghiacciaie sull'appennino siciliano: fosse naturali o costruzioni dell'uomo servivano a conservare la neve durante il periodo invernale per poi essere venduta in blocchi durante le stagioni primaverile ed estiva.
 
Lo scrittore arabo Ibn Ankal scrive:[senza fonte] «Lungo la spiaggia, nei dintorni di Palermo, cresce vigorosamente la canna di Persia e copre interamente il suolo; da essa il sugo si estrae per pressione.»
 
Inoltre in Sicilia abbondavano il sale marino e la neve (sull'Etna, sui monti Iblei, sulle Madonie). Nell'isola di Sardegna nascevano prodotti come la carapigna, "ottenuto dalla miscela di acqua, zucchero e limone, che ha origine con l'industria del ghiaccio intorno al 1600 in epoca spagnola (monopolio di Stato per oltre 200 anni).
 
L'introduzione in Francia e la nascita della moderna gelateria
 
Francesco Procopio dei Coltelli
L'origine italiana del gelato viene riconosciuta in gran parte del mondo (non è inusuale, nelle gelaterie estere, vedere indicazioni come "vero gelato italiano"), ma fu la sua introduzione in Francia a renderlo famoso in tutta Europa.
 
Notizie certe riguardo al gelato come "impresa" si hanno su Francesco Procopio dei Coltelli, un cuoco siciliano, che nel 1686 riuscì a preparare la miscela che tutti noi conosciamo oggi.
 
Arrivò, dopo tanti insuccessi e successivi perfezionamenti, fino a Parigi. Scoprendo l'uso dello zucchero al posto del miele, e il sale mischiato con il ghiaccio (eutettico) per farlo durare di più, fece un salto di qualità e venne accolto dai parigini come geniale inventore:[la fonte citata dice altro] aprì nel 1686 a Parigi un locale, il Café Procope, dove veniva servita una grande varietà di gelati. In seguito, dato l'enorme successo ottenuto, si spostò in una nuova e più grande sede (oggi in rue de l'Ancienne Comédie), di fronte alla "Comédie Française" (il teatro, fondato nel 1680, si sarebbe poi spostato nella sede attuale nel 1799).
 
Quel "Café" offriva: "acque gelate" (granite), gelati di frutta, "fiori d'anice", "fiori di cannella", "frangipane", "gelato al succo di limone", "gelato al succo d'arancio", "sorbetto di fragola", in una "patente reale" (una concessione) con cui Luigi XIV aveva dato a Procopio l'esclusiva di quei dolci. La fama di "più celebre Caffè letterario d'Europa" deriva dal fatto che i suoi clienti non erano soltanto gli attori, le attrici e gli altri componenti della Comédie Française, ma anche e soprattutto intellettuali, filosofi, letterati, Voltaire, George Sand, Balzac, Victor Hugo, Diderot, D'Alembert, De Musset, il Dottor Guillotin che diede la ghigliottina alla Francia, il tenente Napoleone che una sera lasciò in pegno il suo Bicorno per non avere avuto il denaro necessario a pagare le consumazioni offerte ai suoi amici.
 
Il "Café Procope" esiste ancora, anche se non più esercente la brillante attività che lo rese famoso in tutta Europa. La diffusione su scala "industriale" del gelato nel mondo partì dunque dalla Sicilia, e più precisamente da Catania. Nel 1773 lo scozzese Patrick Brydone scriveva:"L'Etna fornisce neve e ghiaccio non solo a tutta la Sicilia, ma anche a Malta e a gran parte dell'Italia, creando così un commercio molto considerevole".
 
Il Novecento, il Cono e la produzione di massa
Risale circa al 1884 una delle maggiormente note rivendite commerciali di gelato italiane, realizzato tramite raffreddamento di gelato, zucchero e grossi mastelli di "salamoia", che cominciò la propria attività a Torino. Era l'inizio della gelateria Pepino che ancora oggi produce gelati nel capoluogo piemontese. Tale rivendita fu certamente la prima nel nord Italia a portare il gelato a un livello popolare e l'unica a potersi fregiare dei Brevetti di Fornitore di Casa Reale.
 
Tra le varie scuole che si sono distinte nel tempo nella fabbricazione ed esportazione all'estero della cultura italiana del gelato merita citazione quella veneta, in particolare quella della Val di Zoldo, del Cadore della provincia di Belluno, che ha saputo farsi apprezzare in tutto il mondo. In particolare un gelataio cadorino Italo Marchioni nel 1903 inventò il cono gelato[senza fonte], ovvero un contenitore fatto di cialda con la parte aperta verso l'alto da riempire con il gelato (a palline o con una spatola), contribuendo con questa innovazione ad incrementare la popolarità e la diffusione del gelato italiano.
 
Dal punto di vista produttivo e della lavorazione, esistono due varietà ben distinte di gelato: il gelato artigianale e il gelato industriale
 
 


#128 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 19 ottobre 2016 - 04:22

L’invenzione dell’alfabeto
                                                                                                                                                                  alfabeto.gif                        
 
Per lungo tempo si e’ dato valore alla tesi secondo la quale i Fenici avrebbero inventato l’alfabeto e l’avrebbero trasmesso ai Greci come loro innovativa e libera invenzione. Alla luce di nuovi studi e di ulteriori ricerche in relazione alle fonti, si puo’ ora ammettere che la questione dell’alfabeto e’ assai piu’ complessa.
 
La storia dell’alfabeto, come riporta Giovanni Garbini nel suo testo, ha radici molto lontane: la questione dell’alfabeto che lui ci propone e’, al di la di teorie passate, quella comunemente accettata oggi (salvo ulteriori scoperte).
 
L’origine dell’alfabeto e’ stata una questione spinosa non solo per quanto riguarda studi moderni, ma anche per quelli effettuati in antichita’.
Tendenzialmente in antichita’si tendeva a dare importanza alle testimonianze di autori come Plinio, Erodoto, Diodoro Siculo o Tacito.
 
Erodoto ci parla di come secondo lui la gloria di aver inventato l’alfabeto appartenga ai Fenici, come dice anche Plinio (che mette tra le possibilita’ anche una possibile invenzione dell’alfabeto anche da parte dei Mesopotamici.)
Secondo Tacito l’alfabeto Fenicio fu inventato dagli egiziani, mentre una possibilita’ diversa tra tutte queste la fornisce Diodoro Siculo. Egli infatti riporta l’opinione dei Cretesi sulla questione, i quali affermano che “i Fenici trasmettono ai Greci un alfabeto che era stato da loro semplicemente modificato”.
Secondo alcune fonti infatti chi avrebbe realmente inventato l’alfabeto fu il popolo siriaco.
 
Chi furono realmente i Siri?
Secondo una tradizione i Siri sarebbero genericamente stati gli abitanti della Palestina, Fenici compresi (e in questo caso si avvalora la tesi dei fenici come inventori dell’alfabeto). Secondo un altro punto di vista, invece, i Siri sarebbero stati gli abitanti della Palestina distinti pero’ dai fenici che avrebbero abitato il Libano (in questo caso dunque la tesi di Diodoro nella quale si enuncia l’estraneita’ dei fenici nell’evoluzione dell’alfabeto che lo avrebbero solo modificato prima di trasmetterlo ai Greci sembrerebbe piu’ valida).
 
Numerosi studi sono stati fatti fino ai nostri giorni per stabilire quale teoria potesse essere convalidata tra queste.
 
I primi studiosi moderni di semitica inizialmente si schierarono con Halevy (che sosteneva che l’alfabeto fenicio in realta’ fosse di derivazione egizia, per la precisione dal ieratico), oppure preferirono schierarsi con alcuni assiriologi che sostenevano che l’alfabeto fenicio in realta’ fosse l’elaborazione di un tipo di scrittura mesopotamico (innegabile la somiglianza di alcuni segni.. ma davvero non puo’ essere una teoria sostenibile.)
 
Ben presto, qualche anno fa, vennero elaborate nuove teorie, spesso in concomitanza con nuove esplorazioni e nuove scoperte.
Evans, il noto studioso che scavo’ per lo piu’ a Creta, sostenne che i Cretesi furono i veri inventori dell’alfabeto (sosteneva infatti l’alfabeto lo inventarono i Cretesi e che fu introdotto nella regione siro-palestinese dai Filistei. Teoria poco sostenibile poiche’ nel XII secolo-epoca di arrivo dei Filistei sulla costa asiatica- l’alfabeto doveva gia’ esistere).
Alcuni egittologi come Sethe e Gardiner invece sostennero che il fenicio fu l’elaborazione della scrittura protosinaitica (scrittura con esempi sporadici rinvenuti nel Sinai, nel 1905. Data l’impossibilita’ di decifrare questa scrittura completamente, anche questa teoria resta infondata).
Dunand propone un’ulteriore interpretazione: secondo lui la scrittura fenicia deriverebbe dalla scrittura pseudo-geroglifica di Biblo. Egli sostiene infatti che gia’ nei sigilli eneolitici di Biblo ci siano germi di quella che dovra’ poi essere una scrittura vera e propria. La sua teoria resta insostenibile per il fatto che nessuna prova porta a pensare che i sigilli eneolitici avessero in se le basi di una scrittura; in secondo luogo non possiamo fare supposizioni su una scrittura che non e’ stata ancora largamente decifrata e in terzo luogo non sappiamo nulla delle tappe intermedie che avrebbero portato dalla scrittura pseudo-geroglifica di Biblo all’alfabeto fenicio vero e proprio. La documentazione che Dunand porta non e’ verificabile o risulta secondo altri studi errata.
 
Ancor piu’ di recente, si tende ad abbandonare l’idea di un fenicio che discende direttamente da una lingua base, ma si crede che esso abbia subito uno sviluppo graduale. Questa teoria e’ sostenuta da alcuni studiosi americani ed e’ detta teoria del “missing link”, o anello mancante. Secondo questi studiosi infatti, esisterebbero delle fasi intermedie tra la scrittura protosinaitica e quella fenicia vera e propria. Queste fasi sarebbero rappresentate da una serie di scritture di II millennio rinvenute recentemente per lo piu’ in Palestina, e chiamate “protofenicie” (protocananaiche), ancora non decifrate. La scoperta  di un’ iscrizione di queste in Israele datata al XII secolo pero’, epoca in cui il fenicio doveva gia’ esserci e epoca in cui queste scritture protocananaiche continuavano ad esistere e ad essere usate indipendentemente, ha messo in dubbio anche questa ipotesi.
 
Come si e’ visto, numerose sono state le ipotesi riguardo alle origini della lingua fenicia (in antichita’ e in eta’ moderna) e ancora molte cose sono oscure alla filologia semitica. Oggi tuttavia si tende ad avvalorare la versione di Giovanni Garbini alla luce dei nuovi studi semitici.
Il Garbini da una panoramica di quella che doveva essere la storia dell’alfabeto attraverso le sue linee principali. Sebbene la questione sia dibattuta ancora tra vari studiosi che propendono per una datazione o una versione piuttosto che un’altra, possiamo riassumere quanto scoperto fin’ora esponendo i fatti che il Garbini riporta.
 
Per comprendere cosa accade nella zona semitica dobbiamo fare riferimento a cio’ che accade attorno ad essa. Per prima cosa nel III millennio a.C., sappiamo che attorno ad essa gravitavano tre principali zone con i loro tre tipi scrittori: la mesopotamia (con il cuneiforme), l’egitto (col geroglifico o lo ieratico), Creta (con la lineare A).
 
La Mesopotamia aveva adottato un sistema scrittorio sillabico (i sumeri utilizzavano vocali a differenza degli egizi) con per segno fitti reticoli a cuneo.
L’Egitto a quel tempo aveva ideato due tipi di metodi scrittori. Uno, il geroglifico, (centinaia di segni pittografici di cui solo alcuni avevano valore fonetico consonantico -monoconsonantico, biconsonantico e triconsonantico) che era una scrittura tipicamente monumentale e architettonica; l’altra, lo ieratico, era una scrittura corsiva, usata dagli scribi in ambito sacerdotale.
A Creta, in ultimo, era utilizzata una scrittura fonetica sillabica, la Lineare A, a cui ogni segno corrispondeva una sillaba (questa scrittura non  resta del tutto completamente decifrata). In questo periodo dunque, nella zona semitica troviamo documenti sia in cuneiforme sia in geroglifico, considerando che questa zona era sotto diretto dominio di Egitto (da una parte) e Mesopotamia (dall’altra).
 
Tra il III e il II millennio, con gli influssi provenienti da queste zone, accade che nella zona semitica si tenti di trovare il modo di inventare un sistema grafico che potesse essere differente da quello dei grandi vicini.  Nasce cosi’ a Biblo (una citta’ della Libia), un nuovo sistema grafico di ispirazione (per gli studi effettuati) cretese ed egiziano. Una sorta di scrittura simile alla lineare A, sillabica. Interessante e’ che questa scrittura sia utilizzata in questa zona fino al XIII sec. a.C, quando si afferma l’alfabeto fenicio, non senza evoluzioni.
 
Sempre in questo stesso periodo, si pensa che sia stata inventato un’ulteriore tipo di scrittura in Palestina (di dominio Egiziano) e quindi ispirata al geroglifico, con l’intento di semplificarlo ulteriormente.
Questa scrittura forse ha delle connessioni con quella che compare nel XV secolo a.C. nel Sinai (e che solo qui trova testimonianza), in iscrizioni trovate a Serabit El-Khadim, in una miniera di turchese sfruttata dagli egiziani.  Questa scrittura e’ detta protosinaitica (riprende dalla scrittura egiziana geroglifica 25 segni, i monoconsonantici, e sempre mantenendo il rapporto tra significante significato, al significato egiziano del geroglifico sostituiscono il significato in semitico prendendo come valore la prima consonante del nome in rapporto al pittogramma). Questa scrittura secondo alcuni studi sembra avere collegamenti con un fenicio molto arcaico.
 
Nel XIV secolo vediamo nascere ad Ugarit (citta’ della Siria,che si affacciava sul Mediterraneo), forse su una base del protosinaitico di cui abbiamo appena parlato, un sistema grafico che riprende i 25 segni di quel nuovo metodo di scrivere egiziano documentato in Sinai, trasformando pero’ i pittogrammi in segni cuneiformi semplificati (rompendo per la prima volta il rapporto tra significato e significante che esisteva per quanto riguarda l’innovazione protosinaitica). Anche in questo alfabeto ci sono influssi di un fenicio arcaico, che doveva avere una trentina di segni circa (sappiamo di questo influsso a causa della presenza della “samek” fenicia nell’alfabeto ugaritico).
 
L’alfabeto ugaritico per come lo conosciamo si diffonde poi per tutta la zona semitica, compresa Palestina, evolvendosi e semplificandosi fino a giungere in Palestina sottoforma di alfabeto di 22 segni nel XIII secolo a.C.
 
Non abbiamo a questo punto nessun dato per quanto riguarda la zona fenicia vera e propria. Solo una serie di iscrizioni scollegate tra loro (punte di freccia soprattutto) di cui perfino la datazione e’ incerta. Da una parte la mancanza di scavi ben documentati nella zona fenicia non aiuta di certo, come non aiuta il fatto che alle stesse iscrizioni frammentarie trovate in fenicia generalmente gli studiosi tendono a dare datazione piu’ tarda rispetto al XIII secolo, epoca in cui nasce appunto un alfabeto semplificato a 22 segni in Palestina.
 
Oltre ad iscrizioni frammentarie trovate nella zona fenicia, abbiamo pero’ un importante ritrovamento che presenta la prima vera e propria iscrizione nel fenicio che ci sara’ poi trasmesso, ossia quello piu’ recente: e’ il caso dell’iscrizione sul sarcofago di Ahiram datato al XIII secolo a.C.
Questa datazione ha dato non poche difficolta’ agli studiosi, poiche’ c’e’ chi sostiene che il sarcofago sia di XIII secolo come anche la scritta (e in questo caso, in rapporto all’alfabeto Palestinese di 22 segni dello stesso periodo, i Fenici si sarebbero limitati a cambiare la forma dei segni, dando valore alla tesi antica secondo la quale i Fenici non sarebbero stati gli inventori dell’alfabeto ma sarebbero stati invece i cosiddetti Siri).. mentre c’e’ chi dice che il sarcofago effettivamente puo’ essere di XIII secolo, ma la scritta piu’ tarda, ossia di X secolo a.C.: questo significa che le grafie frammentarie riscontrate in fenicia a cui non si sa dare una collocazione non siano in realta’ che vari tentativi evolutivi a partire dall’alfabeto Palestinese di 22 segni che porta alla formazione di un fenicio definitivo che compare sul sarcofago di Ahiram, Re di Biblo.
 
La questione e’ tuttora dibattuta tanto che Garbini fa un’ulteriore osservazione sulla questione. Sappiamo che alfabeto protosinaitico e alfabeto ugaritico hanno dei rimandi ad un fenicio molto arcaico, che noi ovviamente non conosciamo.
Se pero’prendiamo in considerazione il primo alfabeto palestinese sorto parallelamente alle iscrizioni pseudogeroglifiche di Biblo (e ammettiamo che esso non e’ altro che questo arcaicissimo fenicio), e abbassiamo la datazione delle iscrizioni protosinaitiche al XIV secolo parallelamente a quelle di Biblo, possiamo dire che in qualunque modo, indipendentemente dalla datazione del sarcofago di Ahiram, la matrice di quelle scritture come l’ugaritico e il protosemitico resta fenicia ( e che questa base dunque influenza sia la creazione del protosinaitico sia parallelamente quella della scrittura ugaritica).
 
Alla luce di questi studi, Cananeo o Fenicio che dir si voglia, quando questa scrittura entro’ in contatto con la Grecia e quando quindi fu portata in Italia?
 
Tra i sostenitori della datazione della scrittura sul sarcofago di Ahiram al X sec. a.C. (quella piu’ accreditata e che viene presa per buona, nonostante diverse polemiche), c’e’ chi sostiene che l’alfabeto fenicio entro’ in Grecia nel XI sec. a.C. (questo significhebbe che la scrittura entrata in Grecia in realta’ e’ “Cananea” e non “puramente fenicia”). L’ipotesi appena enunciata pero’ non ha largo seguito da parte degli studiosi, che preferiscono indicare come data dell’introduzione dell’alfabeto in Grecia il IX sec.a.C.(in questo modo si garantirebbe comunque una matrice puramente fenicia dell’alfabeto in questione).
Ultimamente un ulteriore ritrovamento di un ostrakon palestinese proveniente dalla zona filistea, databile tra l’XI e il X sec. a.C., che presenta un alfabeto cananeo con forti influssi sembrerebbe greci, ci spinge a rivedere la questione: forse quei fenici che portarono l’alfabeto in Grecia erano in realta’ filistei di lingua fenicia (quindi siamo di nuovo nel dubbio se si tratto’ di Fenici o Siri).
 
L’alfabeto fenicio nella sua forma definitiva abbiamo detto che e’ proprio quello ritrovato nell’iscrizione di Ahiram. Esso subi’, nel corso del tempo, un’ulteriore modifica a livello grafico: il primo fenicio vero e proprio che conosciamo presentava segni di stessa grandezza e stessa altezza. Successivamente vi fu un’innovazione che porto’ l’allungamento delle aste verticali (IX secolo, periodo in cui fu tra l’altro probabilmente introdotto in Grecia).
Considerando che questo fenomeno e’ stato riscontrato per lo piu’ in Palestina settentrionale e a Cipro, zone sotto il dominio di Tiro (citta’ libanese), si pensa che fu proprio da li’ che parti’ questa innovazione grafica nell’alfabeto fenicio.
 
In breve tempo questa scrittura fenicia dalle astine allungate subi’ altre modifiche: fu leggermente tracciata in modo obliquo, gli occhielli delle lettere furono ridotti. Questa sara’ la scrittura fenicia che prevarra’ a Tiro e in tutta la zona fenicia, e che sara’ diffusa in Grecia e da li’ in Italia.
 
Per le colonie fenicie abbiamo una situazione leggermente differente: qui non si riscontra  come scrittura quella fenicia sopra citata, ma dalla documentazione risulta esserci una scrittura fenicia corsiva (evoluzione della punica normale) chiamata “neopunica”(v. ostraka di Saqqarah e ad Elefantina in Egitto).
L’unica eccezione per il mondo coloniale resta per ora la Sardegna, in cui si riscontra una scrittura piu’ simile ad un’evoluzione del Punico normale che non del neopunico.
 
Le origini consonantiche della lingua fenicia:
 
La prima scrittura consonantica propriamente detta  e’ quella che vediamo nascere ad Ugarit, senza dubbio. Ugarit come abbiamo visto basava il suo alfabeto su principio consonantico e su un sistema grafico pero’ cuneiforme.
 
La natura del sistema consonantico deve essere, concordemente con quanto pensano gli studiosi, ricercata in Egitto. Per questo motivo si e’ a lungo creduto che l’Ugaritico abbia appreso il principio consonantico dalla scrittura leggermente precendente, quella protosinaitica, ispirata all’Egiziano.
La presenza pero’ del segno “samek” nell’alfabeto ugaritico e di simboli simili a quello che poteva essere un alfabeto fenicio arcaico fa pensare che forse doveva esistere un fenicio arcaico dal quale l’ugaritico poteva essersi ispirato per il principio consonantico (e non dunque ad un protosinaitico).
 
Di questo non abbiamo certezza poiche’ le uniche testimonianze di scritture pseudo-fenicie ritrovate in Palestina sono tutt’ora di difficile collocazione temporale o indecifrabili.
 
A lungo si e’ pensato che l’Ugaritico abbia dato spunto per la creazione di un alfabeto fenicio, ma forse se ammettiamo l’esistenza di una lingua fenicia arcaica (gia’ consonantica) parallela all’esistenza dell’ugaritico le cose possono cambiare.
Si ritorna dunque alla teoria del Garbini in base alla quale probabilmente un fenicio arcaico doveva esistere poco prima dell’invenzione del protosinaitico (che Garbini accosta a livello di data a quello Ugaritico) e dell’Ugaritico stesso.. e che doveva essere preso come spunto da questi tentativi di creazione alfabetica.
 
Per quanto riguarda l’origine dei segni dell’alfabeto fenicio, forse dobbiamo ammettere una provenienza cuneiforme (se si pensa che il fenicio piu’ recente sia stato elaborato dall’Ugaritico cuneiforme semplificandone i segni nel corso del tempo). Oppure si puo’ pensare anche ad un influsso geroglifico  se poniamo che lo spunto per la creazione di segni fenici lo ha dato anche la scrittura di Biblo, che fu la prima che tento’ di semplificare i segni geroglifici unendoli ad un influsso cretese. Il fatto che comunque il fenicio prenda spunto da questi, come forma di segni, indica comunque che il fenicio (arcaico) non si era ancora affermato comunque saldamente come sistema di scrittura.
 
L’origine delle scritture sud-semitiche (nord-arabico e sud-arabico):
 
Altro problema spinoso per la filologia semitica non e’ solo l’origine del fenicio ma i rapporti che intercorrono tra sud-semitico (insieme di nordarabico e sudarabico, rapporti tra essi) e nord-semitico. E’innegabile secondo gli studi che ci doveva essere relazione tra scritture sud-semitiche e nord-semitiche come tra scritture sud-arabiche e nord-arabiche..ma ancora non si riesce con esattezza a comprendere quale tipo di rapporto intercorresse tra di esse.
 
Tempo fa si penso’ che le lingue sud-semitiche derivassero dalla lingua fenicia, a causa della somiglianza di alcuni segni tra le due scritture. L’ordine pero’ di successione dei segni e la sporadicita’ di lettere simili ha ben presto messo in dubbio questa possibilita’.
Successivamente dunque si inizio’ a pensare che le scritture sud-semitiche potessero avere rapporti con la scrittura protosinaitica, ma cio’ non sarebbe possibile a causa del divario cronologico che separa le prime iscrizioni proto-arabe (che risalgono all’VIII-IX secolo a.C.) e il protosemitico (XV secolo a.C.).
 
Nuove teorie portano oggi a pensare che l’origine delle scritture sud-arabiche vada ricercato a nord, nella zona Siriana o Mesopotamica, che sappiamo avere scambi commerciali con le popolazioni nomadi del II millennio a.C. che attraversavano le regioni yemenite per portare prodotti a nord e in Africa Orientale. Una conferma in questo senso l’abbiamo dalle iscrizioni ritrovate a Kamid el-Loz, di interpretazione incerta. Esse, datate al XIV secolo a.C., rappresenterebbero l’antecedente immediato della scrittura sud-semitica. In questo modo avremmo trovato un collegamento tra le scritture nord-semitiche e sud-semitiche.
 
 Ma quali rapporti intercorrono invece tra le scritture nord-arabiche e sud-arabiche? Secondo recenti studi si tende a pensare che le lingue nordarabiche non siano state il modello da cui nacquero le scritture sudarabiche, bensi’ si tende a pensare che le lingue nordarabiche rappresentassero delle tappe evolutive che avrebbero portato poi alla formazione delle lingue sudarabiche.
Si pensa infatti che dalle lingue nordarabiche si siano sviluppati due filoni identificabili in thamudeno e antico thamudeno. Dal primo ramo si sarebbero sviluppate lingue Etiopi e lingue safaitiche in Siria, dall’antico thamudeno invece sarebbero derivate le lingue sud-arabiche.
 
Caratteri generali della scrittura consonantica: rapporto tra segno e suono
 
Il nome dato ai segni:
Il rapporto che lega segno a suono e’ stato un aspetto della scrittura consonantica fenicia che ha interessato gli studiosi e che ancora oggi non e’ stato del tutto risolto.
Da quanto si pensa in materia di studio, sembra che i segni fenici abbiano affinita’ con segni egiziani, ugaritici, pseudo-greoglifici e persino micenei. Non si ha certezza di nulla, considerando che alcuni segni dell’alfabeto fenicio sembrano portare come suono parte della descrizione del segno corrispondente rappresentato (la prima lettera del nome del segno o una sillaba del nome del segno… ossia il principio dell’acrosticismo, mantenendo rapporto significante/significato), mentre altri sembrano non avere alcun rapporto tra segno e suono (per non parlare di quelli di difficile interpretazione).
Sarebbe sciocco ammettere dunque che per l’alfabeto venisse usato il  principio dell’acrosticismo per non applicarlo totalmente mai.
Non si sa dunque con certezza se il nome dato ai segni sia legato al significato e all’oggetto che i segni stessi rappresentavano o se i nomi vennero dati arbitrariamente dopo (c’e’ chi sostiene che il nome ai segni venne dato in antichita’, addirittura nel II millennio, ma cio’ non e’ concordemente approvato).
Forse i nomi dei segni vennero dati agli stessi forse come libera invenzione per facilitarne l’apprendimento mnemonico, tesi verso cui propendono alcuni studiosi.
 
I nomi greci dell’alfabeto secondo alcune ricerche (analizzando appunto la radice degli stessi), propenderebbero per una derivazione semitica.
 
Per quanto riguarda non il nome ma l’ordine dei segni nell’alfabeto fenicio, probabilmente essi si rifacevano ad una specie di calendario, dove aleph, tet, ayn e taw rappresenterebbero, in ordine, l’equinozio di autunno, il solstizio d’inverno, l’equinozio di primavera e il solstizio d’estate. I 22 segni dell’alfabeto fenicio sarebbero indicativi di un periodo di 29/30 giorni in cui l’ultima settimana (settimana lunare infausta) non viene conteggiata. La prima lettera, alef, sarebbe indicativa della stazione del Toro, stazione dalla quale parte il conteggio delle fasi lunari fino alla settimana infausta dopo la quale ciclicamente si ricomincia il conteggio.
Il fatto che l’alfabeto potesse essere una sorta di calendario (lunare poiche’ gli Arabi, popolo nomade, controllava le stazioni lunari e non controllava il ciclo del sole) ci e’ confermato con molta probabilita’ da alcuni vasi e sigilli siro-palestinesi del I millennio a.C.: essi infatti riportano serie alfabetiche a volte precedute dalla preposizione l-, che sta a significare “per”. Poiche’ sappiamo che sonooggetti legati al mondo religioso, e’ evidente il carattere religioso che assume l’alfabeto in questo caso.
La prima lettera dell’alfabeto fenicio, l’bgdh, starebbe infatti a significare “per sempre”, formula augurale per i vivi e i defunti.
La ciclicita’ del tempo e’ vista in connessione della ciclicita’ della vita: nell’Apocalisse Dio infatti dice “io sono l’Alfa e l’Omega, l’inizio e la fine”. Ossia vengono usate la prima e l’ultima lettera dell’alfabeto greco per indicare il tempo ciclico.
Forse il rapporto tra segno e suono andrebbe ricercato proprio in rapporto ad un calendario arcaico.
 
La natura consonantica dell’alfabeto fenicio:
La scrittura fenicia e’ spesso stata definita (come molte delle scritture sorte a partire dal II millennio a.C. nel vicino oriente) una scrittura “consonantica”, poiche’ ad ogni segno tracciato corrispondeva una consonante.
Si ritiene impossibile che non venissero usate vocali, seppure non corrispondevano ad un simbolo preciso. Si pensa cosi’ che la scrittura consonantica fosse in realta’ scrittura “sillabica compendiaria”, ossia che ad ogni consonante corrispondevano piu’ letture a seconda della vocale che si poteva accostare (avremo cosi’ varie possibilita’ di interpretazione di un segno: per esempio alla consonante b poteva corrispondere la possibilita’ b+a, b+i, b+u o soltanto b. Per il largo utilizzo che si faceva soprattutto della vocale a si crede che il segno b potesse essere interpretato spesso come ba, ma non si e’ sicuri di cio’. Un esempio di questo sistema lo fornisce l’Etiopico.. che da ad ogni consonante 7 possibilita’ di lettura differenti a seconda della vocale utilizzata- IV secolo d.C.)
Un passo importante lo fanno gli Aramei introducendo le cosiddette “matres lectionis” (segni consonantici usati per esprimere vocali). I segni piu’ usati erano tre:
 
y corrispondeva a i
w corrispondeva a u
h corrispondeva a a/e
 
Inizialmente questi tre segni venivano usati soltanto a fine parola, mentre solo successivamente vennero adoperati con criterio all’interno delle parole ( ma questo avveniva solo con y e w, dato che per comodita’ la vocale a era spesso sottointesa con la lettura della consonante.)
 
Per avere un segno per le consonanti e uno per le vocali bisognera’ attendere l’introduzione dell’alfabeto in Grecia.
Il primo alfabeto vero e proprio, infatti, fu quello Greco, che diede un segno anche alle vocali (VIII secolo a.C.).I segni vocalici dunque diventano autonomi quanto quelli consonantici.
 
 
 


#129 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 26 ottobre 2016 - 04:35

Le origini della musica
 
1024px-Music_lesson_Staatliche_Antikensa
 
Trovato in Slovenia, il flauto di Divje Babe è a oggi considerato da alcuni il più antico strumento musicale conosciuto, risalente a oltre 40.000 anni fa.
 
un Mridangam, tamburo dell'India
Il problema della determinazione dell'epoca che ha visto nascere la musica è ovviamente connesso con la definizione di musica che si sceglie di adottare. Mentre, infatti, per un sistema teorico di organizzazione dei suoni, collegato a precisi riferimenti estetici, dobbiamo attendere l'antica Grecia, per la prima comparsa di singoli ingredienti, come la produzione volontaria, anche tramite strumenti, di suoni da parte dell'uomo, dobbiamo risalire al paleolitico.
 
Alcune testimonianze in questo senso possono essere dedotte da numerosi ritrovamenti in osso e in pietra interpretati come strumenti musicali. Tali sono, ad esempio, gli zufoli magdaleniani di Roc de Mercamps, o i litofoni neolitici scoperti nelle vicinanze di Dalat (Vietnam).
 
In mancanza di testimonianze dirette o mediate, qualche ipotesi sulla forma che assumeva la musica primitiva può anche essere dedotta dall'osservazione di popoli il cui stadio di sviluppo è ancora simile a quello delle culture preistoriche ad esempio gli indios brasiliani, gli australiani aborigeni, alcune popolazioni africane.
 
Si può presumere che le primissime forme di musica siano nate soprattutto dal ritmo: magari per imitare battendo le mani o i piedi il cuore che batte, il ritmo cadenzato dei piedi in corsa, o del galoppo; o magari alterando, per gioco e per noia, le fonazioni spontanee durante un lavoro faticoso e monotono, come per esempio il pestare il grano raccolto per farne farina, o il chinarsi per raccogliere piante e semi. Per questi motivi, e per la relativa facilità di costruzione, è molto probabile che i primi strumenti musicali siano stati strumenti a percussione, e presumibilmente qualche variante di tamburo.
 
Tra gli strumenti più antichi ritrovati vi è infatti il tamburo a fessura, un cilindro cavo, con una fessura longitudinale lungo la superficie esterna, che veniva suonato percuotendolo con le bacchette sulla fessura stessa. Le versioni più antiche e primitive ritrovate consistono in un tronco cavo, privo di fessura ma appoggiato trasversalmente sopra una buca nel terreno, che forse veniva suonato percuotendolo con i piedi.
 
Musica nell'antico Egitto
Exquisite-kfind.png Lo stesso argomento in dettaglio: Musica dell'Antico Egitto.
Tra le prime civiltà di cui si hanno testimonianze musicali c'è quella egizia, dove la musica aveva un ruolo molto importante: la leggenda vuole che sia stato il dio Thot a donarla agli uomini.
 
Tra gli strumenti utilizzati dagli Egizi, si trovano i crotali, il sistro, legato ad Hathor, la tromba, utilizzata in guerra e sacra ad Osiride, i tamburi, il liuto ed il flauto, sacro ad Amon. Altro strumento musicale assai presente e caratteristico della civiltà egizia è l'arpa arcuata, con un'ampia cassa armonica.
 
Nell'antico Egitto, la musica aveva sia funzioni religiose (veniva infatti utilizzata nelle cerimonie sacre), sia di divertimento e svago.
 
Strumenti più sofisticati dovettero attendere più a lungo. I primi ad apparire dopo le percussioni furono gli strumenti a fiato (flauto, corno) e a corde (lira e cetra), di cui esistono testimonianze greche, egizie e mesopotamiche anteriori al XI secolo a.C. Queste civiltà conoscevano già i principali intervalli fra i suoni (quinte, quarte, ottave), che erano usate come base per alcuni sistemi di scale. Da uno studio di Sachs sull'accordatura delle arpe è emerso che gli Egizi utilizzavano una scala pentafonica discendente e che conoscevano la scala eptafonica.
 
Musica nel vicino Oriente
Exquisite-kfind.png Lo stesso argomento in dettaglio: Musica della Mesopotamia.
Gli scavi del cimitero reale di Ur, città sumerica, dove furono rinvenute alcune lire e arpe, e l'iconografia musicale con cui è riccamente decorata l'architettura della prima Mesopotamia storica lasciano intendere che la musica era probabilmente molto importante nelle forme rituali tipiche della civiltà sumera. Esemplari di bassorilievo del Louvre, provenienti da Lagash, mostrano ad esempio strumenti cordofoni simili all'arpa.
 
Nei Testi Sacri dell'Ebraismo si accenna per la prima volta alla musica (in un riferimento che sembra alludere a un'epoca attorno al 3200/3300 a.C.), quando si parla di Iubal o Jubal, figlio di Lamec e di Ada, del quale viene detto che:
 
« ... fu il padre di tutti quelli che suonano la cetra (o chitarra, ebraico kinnor) e il flauto (ebraico ugab). »   (Genesi 4,21)
Fra i testi urriti trovati ad Ugarit ci sono i più antichi esempi di scrittura musicale, risalenti al 1400 a.C. circa.[4] In questi frammenti sono stati trovati i nomi di quattro compositori, Tapšiẖuni, Puẖiya(na), Urẖiya, e Ammiya.
 
Musica nell'antica Grecia
Exquisite-kfind.png Lo stesso argomento in dettaglio: Musica nell'antica Grecia.
 
Donna romana che suona la cetra.
Nell'antica Grecia la musica occupava un ruolo di grande rilievo nella vita sociale e religiosa. Per i greci la musica era un'arte che comprendeva, oltre alla musica stessa, anche la poesia, la danza, la medicina e le pratiche magiche. L'importanza della musica nel mondo greco è testimoniata da numerosi miti che la riguardano. Uno è quello di Orfeo, l'inventore della musica, che riuscì a convincere gli dei dell'Ade a restituire alla luce la scomparsa sposa Euridice.
 
Durante il periodo arcaico (dalle origini al VI secolo a.C.) la musica era praticata solamente da professionisti: gli aedi e i rapsodi. Questi declamavano i miti accompagnandosi con uno strumento musicale e tramandavano la musica oralmente. In seguito nel periodo classico (dal VI secolo a.C. al IV secolo a.C.) la musica entrò a far parte del sistema educativo e così venne divulgata. A questo periodo risalgono pochissime fonti di scrittura musicale che erano soltanto di aiuto ai professionisti, perciò la musica veniva ancora tramandata oralmente. Sempre nel periodo classico si sviluppò la tragedia. I soggetti della tragedia erano presi dai miti letterari e consistevano in dialoghi tra due o tre personaggi alternati da canti corali. Gli attori erano tutti uomini, indossavano maschere e recitavano con l'accompagnamento della musica. La struttura architettonica del teatro era costituita da una gradinata a semicerchio per il pubblico, di fronte c'era il palco dove si esibivano gli attori e tra gradinata e palco c'era l'orchestra dove si trovava il coro.
 
I greci usavano diversi strumenti. I più comuni erano la lira o cetra e l'aulos. La lira era uno strumento a corde che venivano pizzicate da un plettro ed era sacra al dio Apollo. L'aulos era uno strumento a fiato ad ancia, sacro al dio Dioniso. Erano in uso anche strumenti a percussione tra cui i tamburi e i cimbali, meglio noti come piatti.
 
I greci accostarono la musica alla matematica e al movimento degli astri. Pitagora, accostando la musica al movimento dei pianeti, capì che anch'essa era governata da precise leggi matematiche. Portò la sua intuizione sul monocordo e scoprì che se una corda produceva un suono di una certa altezza, per ottenere un suono all'ottava superiore bisognava far vibrare metà della corda; per ottenere la quinta bastava far vibrare i due terzi della corda, e via di seguito.
 
Alla base del sistema musicale greco c'era il tetracordo formato da quattro suoni discendenti compresi in un intervallo di quarta giusta. I due suoni estremi erano fissi, invece i due intermedi erano mobili. I tetracordi si distinguevano in diatonico, cromatico e enarmonico. L'unione di due tetracordi formava un modo che poteva essere dorico, frigio o lidio. A seconda del tipo di unione i modi potevano essere a loro volta congiunti o disgiunti. Se ad un modo dorico disgiunto si aggiungeva un tetracordo congiunto all'acuto, un altro tetracordo congiunto al grave e sotto quest'ultimo una nota si otteneva il sistema tèleion, ovvero perfetto, dell'estensione di due ottave. Il ritmo musicale si basava su quello poetico. Nella poesia greca la metrica scaturiva dalla durata delle sillabe: brevi o lunghe, lo stesso valeva in musica. La breve equivale all'odierna croma e la lunga all'odierna semiminima. Il ritmo si aveva dall'unione di due o più note o sillabe, ordinate in schemi ritmici chiamati piedi. In poesia la combinazione di vari piedi formava il verso e la combinazione di più versi formava la strofa.
 
Alla musica i greci attribuirono una funzione educativa perché la ritenevano in grado di arricchire l'animo delle persone. Secondo Platone la musica doveva servire per arricchire l'animo umano come la ginnastica serviva per irrobustire il fisico. Questo discorso si amplia con la dottrina dell'ethos per la quale ogni modo ha un suo ethos specifico e può incidere positivamente o negativamente sull'animo delle persone. Per Platone i modi di specie dorica o frigia incidono positivamente, invece quelli di specie lidia possono turbare l'equilibrio razionale. Aristotele accettò la classificazione in ethos ma ritenne che tutti i modi potevano andare a beneficio dell'animo. Fino a questo momento la teoria musicale era conosciuta esclusivamente dal punto di vista matematico. In seguito Aristosseno di Taranto comprese l'importanza dell'udito nella percezione dei suoni.
 
Musica nell'antica Cina
Exquisite-kfind.png Lo stesso argomento in dettaglio: Musica cinese.
La musica cinese era già decisamente evoluta durante la dinastia Zhou (1122 a.C.-256 a.C.), con un ruolo importante nei cerimoniali; alla musica veniva attribuita una profonda valenza educativa e filosofica. Documenti attestanti la scrittura della musica in Cina sembrano risalire al VI - VII secolo a.C.
 
La musica nella Roma antica sotto l'influsso del modello greco
Exquisite-kfind.png Lo stesso argomento in dettaglio: Musica nella civiltà romana.
 
Apollo sauroctonus, copia romana, Louvre
Nel periodo ellenistico si assiste ad una sostanziale crisi di quelli che sono stati i fondamenti della Musikè greca, accompagnata dalla crisi del genere tragico. Ci si imbatte in vere e proprie performance di attori che mettono in scena, dal loro bagaglio, pezzi di repertorio.
 
Il primo è segnato dalla modesta presenza, a Roma, della musica di origini etrusche o italiche, abbinata anche a spettacoli indigeni quali l'atellana e il fescennino. Risale a questa prima fase la diffusione di strumenti di metallo di impiego militare: la buccina di forma circolare, il lituus, a canneggio diritto con il padiglione ripiegato all'indietro, la tuba di bronzo a canna diritta. Il dopo fu caratterizzato dal fatto che i romani conquistarono la Grecia e portarono, in grande quantità, musicisti, intellettuali, artisti e filosofi greci a Roma. L'intero sistema culturale romano sarà condizionato da quello greco, anche dal punto di vista musicale, con delle differenze essenziali. Dal punto di vista drammatico ci saranno tragedie e commedie modellate su quelle greche, ma con la differenza che verranno chiamate diversamente: coturnae quelle greche, perché gli attori greci stavano in coturni (calzari), monodici e corali di carattere rituale erano considerati essenziali nelle solennità pubbliche quali i rioni, nelle feste religiose, nei giochi; palliate quelle romane perché i romani indossavano un abito, il pallio.
 
La musica romana ereditò dal mondo greco il sistema musicale, gli usi, le forme e la teoria. Rispetto alla semplice raffinatezza della musica greca, eseguita con pochi strumenti per accompagnare il canto, la musica dei romani fu indubbiamente più vivace e coloristica, mescolata con elementi di origine italica, ed eseguita con grandi complessi in cui doveva essere massiccia la presenza degli strumenti a fiato: la tibia, la buccina, il lituus, la tuba. Si faceva anche uso dell'organo idraulico e di numerosi (e rumorosi) strumenti a percussione. Si può pertanto desumere che la musica a Roma fosse assai popolare e che accompagnasse sempre molti spettacoli tra cui la pantomima e gli spettacoli dei gladiatori. Mentre per i greci la musica era una componente fondamentale dell'educazione, i romani ne avevano un'opinione molto inferiore, associandola a feste e divertimenti piuttosto che alla formazione del vir.
 
Il canto del cristianesimo in Occidente e la musica sacra
Exquisite-kfind.png Lo stesso argomento in dettaglio: Canto cristiano.
La diffusione del Cristianesimo, e quindi del canto cristiano, ha avuto un ruolo decisivo nella storia della musica occidentale. La musica corale ha origine dal canto cristiano dei primi secoli. Nelle sacre scritture si legge che il canto era una pratica comune anche nei riti della religione ebraica: lo stesso Cristo, insieme ai suoi discepoli viene ritratto come "cantore":
 
« E dopo aver cantato l'inno, uscirono verso il monte degli Ulivi. »
(Marco, 14, 22-26)
Si può fare un parallelo tra la funzione della musica nei riti delle prime comunità cristiane e la funzione dell'arte decorativa, sintetica e stilizzata, degli inizi della vita ufficiale del cristianesimo (dopo il 313 d.C.). In entrambi i casi gli argomenti di fede sono l'argomento di espressioni artistiche non verbali che potevano essere facilmente ricordate anche da una congregazione non letterata e di umili origini.
 
Questo modo di "cantare le idee" continuerà nei secoli a contribuire alla partecipazione del fedele all'azione sacra, anche dopo che la lingua latina aveva da tempo cessato di essere comprensibile. Col tempo alla funzione ieratica (associata al salmodiare del celebrante), didascalica e partecipativa della musica si aggiunse anche una funzione decorativa tesa a solennizzare gli eventi religiosi attraverso le caratteristiche e il volume sonoro, al quale è possibile ascrivere parte del successo di uno strumento quale l'organo, la cui sonorità profonda induce nell'ascoltatore una sensazione di presagio (l'effetto degli ultrasuoni prodotti dall'organo è documentato anche da alcuni studi scientifici).
 
La monodia liturgica cristiana
Poiché la notazione musicale non emergerà che nel corso del XII secolo, il canto cristiano dei primi secoli ci è completamente ignoto, e ciò che se ne sa deriva in gran parte da supposizioni. La sua presumibile derivazione dal rito ebraico fa presumere che la liturgia dei primi secoli fosse basata sull'intonazione di forme melodiche tradizionali costruite attraverso variazioni molto piccole (di ampiezza inferiore ad un semitono e perciò dette microtoni) e in cui il ritmo era derivato dal ritmo verbale della liturgia (questo procedimento è anche detto cantillazione). Inoltre si può supporre che la condizione di clandestinità in cui la religione cristiana era praticata favorisse il sorgere di molte varianti del rito e quindi dell'accompagnamento musicale di riferimento.
 
La situazione cambiò nel 380, quando l'editto di Tessalonica impose la religione Cristiana come unica religione dell'impero. A partire dal V secolo, il cristianesimo iniziò a darsi una struttura che imponeva l'unificazione della liturgia e, quindi, anche della musica che ne faceva parte integrante.
 
Si può ipotizzare che la forma iniziale della musica liturgica fosse monodica (cioè affidata ad un solista, dalla parola greca che significa una voce sola) e basata su variazioni d'intonazione attorno ad una nota fondamentale (detta corda di recita), variazione che era dettata dalla prosodia (o enfasi) delle parole del testo sacro, nello stile musicale detto sillabico. A questo stile, che dominava la maggior parte della messa, si sovrappose col tempo un secondo stile, riservato inizialmente ai momenti di maggiore enfasi quali l'offertorio, in cui un solista intonava il testo facendo variare liberamente l'intonazione all'interno di una stessa sillaba in uno stile detto melismatico.
 
La trasmissione della musica avveniva a questo punto per tradizione orale, e attraverso scuole di canto, la cui presenza presso i maggiori centri di culto è attestata fino dal IV secolo. Oltre alla scuola di provenienza, è probabile che anche l'improvvisazione e l'abilità del singolo cantore determinassero in larga parte la musica d'uso liturgico.
 
Il canto gregoriano
Exquisite-kfind.png Lo stesso argomento in dettaglio: Canto gregoriano.
Agli inizi del VI secolo, esistevano in Occidente diverse aree liturgiche europee, ognuna con un proprio rito consolidato (tra i principali, ricordiamo il rito vetero-romano, il rito ambrosiano a Milano, il rito visigotico-mozarabico in Spagna, il rito celtico nelle isole britanniche, il rito gallicano in Francia, il rito aquileiese nell'Italia orientale, il rito beneventano nell'Italia meridionale). La tradizione vuole che alla fine di questo secolo, sotto il papato di Gregorio I (590-604) si sia avuta la spinta decisiva all'unificazione dei riti e della musica ad essi soggiacente.
 
In realtà si ha motivo di credere che l'unificazione avvenisse quasi due secoli più tardi, ad opera di Carlo Magno e sotto l'impulso dell'unificazione politica che portò alla nascita del Sacro Romano Impero. L'attribuzione a papa Gregorio I sarebbe stata introdotta per superare le resistenze al cambiamento dei diversi ambienti ecclesiastici, costretti a rinunciare alle proprie tradizioni.
 
Il prodotto dell'unificazione di due dei riti principali quello vetero-romano e quello gallicano fu codificato nel cosiddetto antifonario gregoriano, che conteneva tutti i canti ammessi nella liturgia unificata. Questa unificazione classificò i brani di musica sacra in uso secondo un sistema di modi, ispirati - almeno nei nomi - ai modi della tradizione greca (dorico, ipodorico, frigio, ipofrigio, lidio, ipolidio, misolidio, ipomisolidio).
 
La scrittura neumatica
Exquisite-kfind.png Lo stesso argomento in dettaglio: Notazione sangallese, Notazione metense e Notazione quadrata.
 
Neuma plurisonico
La riforma gregoriana sostituì lo studio dei testi alla trasmissione orale delle scuole di canto delle origini, sacrificando, oltre alle particolarità regionali (alcune delle quali, specialmente quelle di derivazione mozarabica, particolarmente ricche) e all'intonazione microtonale (che esisteva ancora nel rito vetero-romano) anche il ruolo dell'improvvisazione. Allo stesso tempo si creò la necessità di "annotare" i testi scritti in modo da aiutare i cantori ad eseguire le musiche sempre nello stesso modo, con una linea melodica che indicava la sua direzione, ascensionale o discensionale. Quest'esigenza fece nascere segni particolari (i neumi, pare nati dai gesti del direttore del coro) che, annotati tra le righe dei codici, rappresentavano l'andamento della melodia, come già detto (ma lasciando liberi intonazione e ritmo).
 
La scrittura neumatica divenne così la prima forma di "notazione" - da cui poi la "nota" musicale moderna.
 
 


#130 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 02 novembre 2016 - 01:02

Come si rigenera la pelle?
 
If-you-have-darker-black-skin-(2).jpg
 
La pelle ha una stupefacente capacità di rigenerazione. La pelle consiste in due strati principali, il derma, lo strato più profondo, e l’epidermide, lo strato superficiale. Le cellule della pelle vengono generate continuamente e crescono nello strato dell’epidermide della pelle. La pelle rigenera la sua superficie ogni due o tre settimane sullo strato dell’epidermide.
 
Rigenerazione della pelle
 
Con l’invecchiamento il cambiamento cellulare inizia a rallentare, sebbene non si fermi completamente. La luce diretta del sole è una delle cause che rallentano la rigenerazione della pelle. Questo perché la quantità di collagene, che dona elasticità alla pelle, è presente in quantità minore. La mancanza di colalgene ha come risultato una pelle più sottile, il che fa sì che le cellue della pelle siano disorganizzate e malformate. Ecco perché è importante limitare l’esposizione al sole. Il sole secca la pelle, rallentando il processo di rigenerazione. Anche l’idratazione è un fattore chiave. Con l’invecchiamento, la nostra pelle perde elasticità e se non viene idratata, perde la sua consistenza e iniziano a comparire rughe molto presto. Se mantenete l’epidermide idratata e morbida, la vostra pelle avrà un aspetto più giovane per molti anni.
 
L’inquinamento rende difficile la rigenerazione della pelle
 
Un’altra causa di rallentamento della rigenerazione della pelle è l’inquinamento e altri pericoli ambientali. Con l’invecchiamento, l’assottigliamento dell’epidermide permette alle tossine dannose di raggiungere il derma. Questo danneggia la pelle dall’interno e dall’esterno. Per favorire un’adeguata rigenerazione della pelle, è altamente raccomandato evitare aree molto inquinate.
 
Quando la rigenerazione della pelle non è possibile
 
E’ importante notare che se l’epidermide e il derma sono rimossi o distrutti in una specifica area, la pelle non può riuscire a crescere. Questo può avvenire in seguito a gravi ustioni o interventi chirurgici. I medici possono prendere la pelle da un’altra sezione del corpo per coprire la perdita, ma la pelle nuova non cresce.
 
 


#131 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 10 novembre 2016 - 01:54

Thè la storia
 
800px-Cup_of_Earl_Gray.jpg
 
I primi riferimenti testuali certi sul consumo del tè in Cina risalgono al III secolo. Tra i maggiori promotori del tè vi furono i monaci buddhisti, che lo adottarono come bevanda rituale e tonico. Durante l'epoca Tang il tè si diffuse in tutto il paese, grazie anche al contributo del Canone del tè scritto da Lu Yu nel 760. Durante la dinastia Song l'arte cinese del tè raggiunse la massima sofisticazione. In questo periodo si diffuse anche in Giappone, dove nel XVI secolo venne codificata una particolare forma di preparazione ritualizzata (il cosiddetta "Cha no yu"). In Cina, nel corso della dinastia Ming, si affermò il consumo del tè in foglie e si iniziò a produrre - oltre ai tè verdi - anche tè ossidati e parzialmente ossidati.
 
Il primo riferimento al tè in un testo europeo è contenuto nei resoconti del veneziano Giovan Battista Ramusio. Presumibilmente furono i Portoghesi a introdurre la bevanda in Europa, ma la prima importazione della quale si ha traccia fu da parte della Compagnia Olandese delle Indie Orientali. In Europa il tè divenne dapprima popolare in Francia e nei Paesi Bassi. Inizialmente vi furono posizioni diverse da parte dei medici sulla nuova bevanda orientale: alcuni lo ritennero dannoso alla salute, altri (come il medico olandese Cornelis Bontekoe) ne promossero il consumo come rimedio per tutti i mali.
 
Il primo locale a servire il tè in Inghilterra fu la caffetteria di Thomas Garway nel 1657. La Compagnia inglese delle Indie orientali iniziò ad importarlo a partire dal 1669 e nel corso del secolo successivo il tè divenne la voce più importante nei traffici inglesi con l'Oriente. Il consumo del tè in Gran Bretagna crebbe moltissimo e si impose come costume nazionale.
 
Nelle consolidate tradizioni britanniche la bevanda viene consumata varie volte al giorno. Tra i momenti più importanti vi sono la colazione e il tè pomeridiano (il cosiddetto "tè delle cinque") generalmente accompagnato da semplici dolci e tartine (Low tea) oppure consistente in un vero e proprio pasto che sostituisce la cena (High tea). A partire dal 1834 gli inglesi introdussero la coltivazione e produzione di tè anche nei loro territori coloniali in India.
 
Le più famose ed antiche marche che importano e producono le miscele (blend) sono la Twinings e la Fortnum and Mason's, entrambe con sede a Londra. Altre marche famose inglesi sono la Lipton, la Whittard e la Harrods (i grandi magazzini londinesi).
 
Un altro famoso brand è la compagnia russa Orimi Trade Group che è da tempo la più grande azienda russa di bevande calde e la più grande produttrice russa di tè e caffè. I brand di produzione di tè della Orimi Trade Group sono il Greenfield tea e Tess tea.
 
Produzione e varietà
Il maggiore produttore di tè è la Cina (Lung Ching, Gunpowder, Lu Mu Dan, Shui-Hsien, Ch'i-Men Mao Feng), seguita dall'India (Assam, Darjeeling, Nilgiri). Anche il Giappone ha un ruolo importante nella produzione di alcune qualità (Bancha, Matcha, Sencha e Gyokuro). In Europa il tè viene coltivato nelle isole Azzorre.
 
 
Teiera giapponese
Le sue foglioline, accartocciate e disseccate per esser messe in commercio, sono il prodotto della Camellia Sinensis, un arbusto ramoso e sempre verde che non si eleva in altezza più di due metri. La raccolta della foglia ha luogo tre volte l'anno: la prima nell'aprile, la seconda al principio dell'estate e la terza verso la metà dell'autunno.
 
In Italia, l'unica coltivazione di tè è un impianto sperimentale di circa 1 000 m² situato presso la località Sant'Andrea di Compito del comune di Capannori nella provincia di Lucca.
 
Classificazioni
I tè possono essere classificati sulla base di diversi fattori, come ad esempio la zona di produzione, la cultivar di Camelia sinensis utilizzata, il mercato di destinazione, la pezzatura della foglia, ecc. Tuttavia il fattore più rilevante nella diversificazione del prodotto finito è rappresentato dai metodi di lavorazione che le foglie subiscono dopo la raccolta. La differenza principale è data dal grado di ossidazione delle foglie (comunemente chiamata "fermentazione") in base al quale si distinguono: i tè verdi (non ossidati), i tè neri (completamente ossidati) e i tè "semifermentati" (oolong) che presentano un grado di ossidazione intermedio tra questi due estremi.
 
In Cina, dove si produce il maggior numero di varietà di tè, oggi si impiega un sistema di classificazione che distingue sei tipi fondamentali di tè, ottenute con sei diversi processi di lavorazione, denominate in base al colore del prodotto secco o dell'infuso:
 
Nome cinese Traduzione letterale Nomenclatura italiana corrente
Lücha 绿茶 Tè verde Tè verde
Huangcha 黄茶 Tè giallo Tè giallo
Heicha 黑茶 Tè "nero" Tè Pu'er o tè postfermentato
Baicha 白茶 Tè bianco Tè bianco
Qingcha 青茶 Tè "verdazzurro", "blu" Tè oolong o tè semifermentato
Hongcha 红茶 Tè "rosso" Tè nero
A tale proposito è bene fare attenzione alla differenza tra la nomenclatura cinese e quella italiana nell'uso del termine "tè neri".
 
I tè appartenenti alle sei categorie sopra indicate possono poi essere ulteriormente manipolati, trattati ed elaborati per dare vita a diversi tipi di "tè rilavorati", come ad esempio i tè aromatizzati e profumati ai fiori, i tè pressati e i tè decaffeinati (deteinati).
 
Lavorazioni
Una volta raccolte, le foglie di tè vengono trasportate, stipate in grandi gerle, generalmente vicino alle piantagioni, dove sono sottoposte a una serie di trattamenti che le trasformano nel prodotto finito pronto per essere commercializzato o rilavorato.
 
Nella lavorazione del tè verde poco dopo la raccolta le foglie vengono sottoposte a un trattamento termico che inibisce gli enzimi responsabili dell'ossidazione e permette al tè di mantenere il proprio colore verde. Questo processo viene chiamato stabilizzazione (in inglese fixation) e può essere fatto tramite torrefazione come nel caso dei tè verdi cinesi, oppure per esposizione delle foglie al vapore, come nel caso dei tè verdi giapponesi. Poi le foglie vengono arrotolate ed essiccate.
 
Nel tè nero, invece le foglie vengono lasciate ad appassire in modo da far perdere l'acqua in esse contenuta, renderle morbide e poterle in seguito rullare. Le foglie vengono disposte in appositi magazzini, su tralicci. A seconda delle condizioni atmosferiche, questo appassimento si ottiene grazie alla ventilazione naturale che varia dalle 18 alle 24 ore. Si passa poi alla rullatura delle foglie per circa un'ora, che ha lo scopo di rompere le membrane cellulari e far affiorare i succhi in superficie. Passano poi alla fase di ossidazione dove le foglie vengono distese, in ambienti con forte umidità e temperature attorno ai 30 °C, e ivi lasciate per diverse ore. Sono quindi avviate alla essiccazione.
 
Il procedimento per i tè oolong (wulong) consiste in una lavorazione intermedia fra quella del tè nero e quella del tè verde: effettuato l'appassimento, si procede a una parziale ossidazione, che viene interrotta con il processo termico di stabilizzazione. Una volta ammorbidite dal calore le foglie vengono sottoposte a rullatura ed essiccamento. In base al grado di ossidazione e a prolungamento della fase si essiccazione le foglie dei tè oolong possono avere colori che vanno dal verde scuro fino al marrone nerastro.
 
Nella lavorazione del tè bianco le foglie subiscono una lunga fase di appassimento che è causa anche di un leggero processo di ossidazione, cui segue un'essiccazione finale a bassa temperatura. Il nome bianco deriva dal colore delle gemme apicali delle varietà di Camellia sinensis, tipicamente usate per produrre questi tè, ricoperte da una lanugine bianca particolarmente folta.
 
Il tè giallo viene sottoposto a un processo termico di stabilizzazione come il tè verde, ma viene lasciato "ingiallire" per effetto dell'umidità e del calore residui prima di procedere con l'essiccazione. Viene prodotto solamente in alcune aree della Cina.
 
Il tè postfermentato è un tè che viene sottoposto a un processo di fermentazione-ossidazione in particolari condizioni di temperatura e umidità, da cui il prefisso "post-", per poi essere stato sottoposto al processo termico di stabilizzazione. Prodotto in Cina, principalmente nella province di Yunnan (il più famoso è il tè Pu'er), Hunan e Anhui.
 
Varietà
 
La Cha no yu, la cerimonia giapponese del tè.
Assam: tè nero indiano che, messo in infusione, produce una bevanda forte, dal sapore deciso e dall'aroma speziato. Ottimo con l'aggiunta di latte.
Bancha (番茶, letteralmente tè ordinario): è un tè verde giapponese ricavato dall'ultimo raccolto del tè, che ha luogo in ottobre. Il bancha è il tè verde comune per i giapponesi; esso è raccolto dalla stessa pianta di qualità sencha, però è colto più tardi, cosa che gli conferisce una qualità inferiore sul mercato. È considerata la più leggera qualità di tè verde. Il suo sapore è unico, ha un marcato odore di paglia. Con tale denominazione spesso si indica lo Hojicha, lo stesso tipo di tè sottoposto a una seconda forte tostatura.
Ch'i-Men o Keemun (祁门 Pinyin Qímén): tè nero cinese coltivato nella provincia dell'Anhui. La regione dove si trovano le piantagioni gode di clima subtropicale monsonico, con piogge abbondanti e temperature che si aggirano intorno ai 15 °C, ideale per le piante del tè. Il raccolto avviene fra maggio e giugno e dopo l'ossidazione le foglie subiscono un primo processo di essiccazione, poi una selezione severa delle migliori gemme e quindi una seconda fase di essiccazione, dopo la quale si presentano di colore nero, sottili e arricciate. L'infuso è di colore ambrato intenso, tendente al rosso, con aroma della fragranza della rosa. Il suo nome significa " capello sottile del Ch'i-Men ".
Darjeeling: tè nero indiano molto pregiato, tanto da guadagnare il soprannome di " champagne dei tè". Viene coltivato in zone piovose e ventose. Presenta un tipico aroma di uve moscato e sapore deciso con retrogusto muschiato.
Earl Grey: tè nero aromatizzato al bergamotto, è una delle varietà di tè più diffuse al mondo; prende il nome da Charles Grey, primo ministro britannico dal 1830 al 1834.
Gunpowder: rappresenta la varietà di tè verde cinese più bevuta nel mondo. Caratteristica principale di questo tè è la forma di piccole palline che viene data alle foglie durante la lavorazione e che ricordano, appunto, la polvere da sparo: sono tostate in cilindri rotativi riscaldati per fermarne l'ossidazione e fare in modo che le foglie si arrotolino e si essicchino mantenendo questa forma. Si tratta di un tè prodotto in modo massiccio e destinato quasi totalmente all'esportazione. L'infuso ha un sapore fresco e pungente. Oggi in molti paesi viene spesso consigliato nelle diete per le sue proprietà drenanti e stimolanti.
Gyokuro (玉露): tè verde giapponese, considerato uno dei migliori del mondo. A partire da tre settimane prima della raccolta, le piante vengono tenute all'ombra sotto grandi teli sostenuti da pali di bambù. Questo procedimento conferisce all'infuso il caratteristico colore verde brillante e il sapore leggermente dolce.
Lapsang Souchong: tè nero cinese affumicato prodotto nella provincia del Fujian.
Lu Mu Dan (綠牡丹 o 绿牡丹 Pinyin Lǜ mǔdan): tè verde cinese originario della provincia del Anhui e il suo nome significa "peonia verde". Le foglie di questo tè prima dell'essiccazione vengono legate a mazzetto in modo da conferire loro la forma di un fiore.
Lung Ching (龍井 o 龙井 Pinyin Lóngjǐng): tra i più conosciuti tè verdi del mondo, viene coltivato nella provincia dello Zhejiang, in Cina. Presenta foglie appiattite. Subisce una particolare essiccazione a calore moderato, effettuata manualmente in padelle semisferiche di ferro. Il raccolto inizia in primavera, prima del periodo delle piogge, scegliendo le foglie più giovani e tenere, che dànno all'infuso un colore chiaro con sapore fresco e delicato. Il suo nome significa " pozzo del drago ".
Matcha: tè verde originario della Cina, le cui foglie vengono prima cotte al vapore, asciugate e ridotte in polvere finissima. Usato principalmente per la cerimonia del tè.
Orange Pekoe: tè nero in foglia composto solo dalle ultime due foglie e dalla gemma apicale della pianta.
Sencha (煎茶): tè verde giapponese, la cui raccolta avviene solo nel mese di maggio e giugno. Dopo diversi procedimenti di lavorazione, le foglie subiscono diverse manipolazioni, fino ad assumere l'aspetto di aghi di pino. L'infuso di colore verde chiaro, ha un sapore fresco e amarognolo. È il tè verde più diffuso in Giappone.
Shui-Hsien (水仙 Pinyin Shuǐxiān): varietà di tè oolong prodotto con l'omonima varietà di Camellia sinensis. In genere l'infuso si presenta di colore arancio chiaro, con note fruttate più o meno marcate.
Preparazione
Da tradurre
Questa voce o sezione sull'argomento cucina è stata parzialmente tradotta dalla lingua inglese.
Puoi contribuire terminando la traduzione o usando altre fonti. Non usare programmi di traduzione automatica. Usa {{Tradotto da}} quando hai terminato. Se nella pagina di modifica trovi del testo nascosto, controlla che sia aggiornato servendoti dei collegamenti «in altre lingue» in fondo alla colonna di sinistra. Segui i suggerimenti del progetto di riferimento.
Infusione del tè
Il metodo tradizionale di preparare una tazza di tè è di mettere foglie sfuse di tè, direttamente o in un infusore per tè, in una teiera o in una tazza e versare acqua calda o bollita di recente sopra le foglie. Dopo pochi minuti si tolgono le foglie, o rimuovendo l'infusore o filtrando il tè con un colino mentre lo si serve. La forza del tè dovrebbe essere variata cambiando la quantità di foglie di tè utilizzata, non cambiando il tempo di infusione.
 
La maggior parte dei tè verdi dovrebbe essere lasciato infondere per circa due o tre minuti, mentre alcuni tipi di tè richiedono fino a dieci minuti, e altri appena 30 secondi.
 
 


#132 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 16 novembre 2016 - 04:44

EVOLUZIONE DELLA “STRADA”
NELLA STORIA
 
salaria_09.jpg
 
 
a cura degli alunni delle Classi: IA e IC
I. C. “ A. PACINOTTI” – Marigliano
Scuola d‘Istruzione Secondaria di 1
° Grado
a.s. 2012/2013
docenti coordinatori:
Lucia Panetta (Italiano)
Michelangelo Simonelli (Tecnologia e Informatica)
INIZIAMO ……..DALLE ORIGINI !
LE STRADE NELLA MESOPOTAMIA
• circa 10.000 anni a.c.- I primi ponti fanno la loro comparsa in
Egitto e Mesopotamia.
• circa 5.500 anni a.c. - In Mesopotamia compare la ruota.
• circa 3.500 anni a.c. - In Mesopotamia compaiono i carri con
ruote.
• circa 2.500 anni a.c. - In Mesopotamia viene impiegato l’asfalto
per la “Strada degli dei”.
• circa 2.180 anni a.c. - In Mesopotamia viene scavata la prima
galleria.
• circa 600 anni a.c. - In Mesopotamia Nabucodonosor II fa
costruire la strada reale (km2500).
 
LE STRADE IN EGITTO
• circa 10.000 anni a.c. - I primi ponti fanno
la loro comparsa in Egitto e Mesopotamia.
LE STRADE NELL’ EPOCA
ROMANA
• circa 310 anni a.C. - I romani iniziano la costruzione della Via
Appia.
• circa 220 anni a.C. - I romani utilizzano il primo “calcestruzzo”
per edifici e strade.
• circa 200 anni a.C. - I cartaginesi costruiscono le prime strade
montane con tornanti.
• circa 20 anni a.C. - Augusto fa erigere il “Miliarum Aureum”
con le distanze da Roma città dell’impero.
• circa 50 anni d.C. - Roma è la più grande città del mondo con
1.000.000 di abitanti.
• circa 105 anni d.C. - I romani costruiscono il ponte di Alicante in
granito, lungo m 182, largo m 45.
• circa 476 anni d.C. - Cade l’impero romano, inizia la decadenza
della rete viaria d’Europa.
•L’urbanistica Romana, trovò
attuazione nella fondazione di nuovi
centri urbani sia nella penisola sia
nelle province.
•La fondazione di nuove colonie fu
infatti frequente sia in epoca
repubblicana che in epoca imperiale
e fu uno degli elementi duraturo ed
essenziale dell'espansionismo
romano.
•Per tali fondazioni o rifondazioni di
insediamenti esistenti venne messo a
punto uno schema generale basato
sulla conformazione
dell'accampamento militare (castrum).
Lo schema della castramentatio
• Tale schema, forse derivato da quello greco, era
basato su due assi perpendicolari: il cardomassimo
(molto spesso in asse nord-sud) e il decumano
massimo (est-ovest): al loro incrocio, al centro
simbolico e funzionale sorgeva il foro si svolgevano le
riunioni politiche, veniva amministrata la giustizia, si
esercitava il commercio e si svolgevano le cerimonie
religiose.
• La forma della città era generalmente quadrangolare e
l'applicazione dello schema era piuttosto flessibile,
adattato alla conformazione dei luoghi, dando origine
a schemi quasi mai completamente simmetrici in cui
l'incrocio degli assi principali non sempre era il centro
geometrico della città.
COME SI COSTRUIVANO LE
STRADE IN EPOCA ROMANA
• Per costruire la strada si riempiva la fossa
con strati di materiali diversi.
• Il riempimento variava a seconda della
località, del terreno e dei materiali a
disposizione, ma il progetto degli architetti
era sempre lo stesso.
• Il riempimento consisteva di pietre,
mattoni, sassi, brecciolina e materiale di
escavazione.
• Talvolta il primo strato in basso era di
sabbia, se la si trovava in zona. Come
secondo strato si utilizzava del pietrame
diviso in tre categorie di sassi a seconda
della loro grandezza: prima venivano
posizionati quelli più piccoli per arrivare
poi a quelli più grandi
• La via Popilia o via Annia è
un’importante strada romana
costruita nel 312 a.C.; essa
doveva congiungere Roma
con la punta della penisola
italiana.
• E’ chiamata Popilia da
Publio Popilio Lenate, il
console che la fece costruire.
• C’è un’altra ipotesi,ossia
quella che la strada fosse
stata iniziata da Popilio e
conclusa da Annio.
•Il Lapis Pollae (Cippo di
Polla) è un epigrafe incisa su
una lastre di marmo; questi è
il reperto più importante sulla
via Popilia.
 
 
 
I VEICOLI ROMANI
 
• La Tabula Peutingeriana è una lunga striscia di
pergamena (ca. cm 700 x 34) che su un'immagine
cartografica fatalmente deformata del mondo antico
raffigura non solo la rete stradale dell'impero romano,
ma anche gli itinerari che attraversano le regioni esterne
all'impero fino ai limiti orientali della terra abitata.
• Alcuni saggi illustrano le caratteristiche generali del
documento, il posto della Tabula nella storia della
cartografia greco-romana, la sua tradizione medievale e
rinascimentale e infine il suo valore documentario per la
viabilità e la topografia dell'Italia antica.
• La riproduzione della più antica carta stradale del
mondo pervenuta a noi: fu disegnata intorno al IV secolo
dai Romani, che vi tracciarono i vasti confini dell'Impero,
anche per seguirne l'espansione militare.
• Nel Cinquecento fu riprodotta su un rotolo di
pergamena, attualmente conservato alla Biblioteca
Nazionale di Vienna.
LE STRADE NEL MEDIOEVO
• circa 800 anni d.c. - Carlomagno prescrive il restauro della
• viabilità (soprattutto alpina).
• circa 900 anni d.c. - La via Francigena si afferma come strada di
• pellegrinaggio e collegamento.
• circa 1200 anni d.c. - La strada del Gottardo diventa la via di
• comunicazione fra nord e sud Europa.
• circa 1200 anni d.c. - Compare la livella, fondamentale strumento
• per edificare.
• circa 1250 anni d.c. - Viene inventato il martinetto, indispensabile
• per sollevare grandi pesi.
 
LA STRADA ELEMENTO
TERRITORIALE
• Nel Medioevo la strada è l’elemento
territoriale che meglio rappresenta il
dinamismo economico, organizzativo e
culturale di qualsiasi gruppo umano ed
ogni qualvolta si è presentata la
necessità di raccordare due località,
lontane o prossime, si è sempre
trovata la soluzione per superare
ostacoli anche assai ardui
• Quando si parla di necessità si intende
non soltanto quella materiale generata,
ad esempio, dalle attività commerciali,
ma anche le esigenze non meno urgenti
connesse con la vita spirituale e
religiosa, che hanno prodotto il fenomeno
dei pellegrinaggi, così frequente nel
mondo antico e in quello medioevale.
• Occorre tuttavia osservare che ciò che
noi oggi intendiamo per viabilità non
sempre corrisponde a quanto troviamo in
età diverse dalla nostra. 
Forse soltanto l’impero romano fu in grado
di realizzare un complesso di strade così
interconnesso da costituire un sistema e
nello stesso tempo un’opera di grande
portata ingegneristica e topografica,
paragonabile al nostro concetto di rete di
comunicazioni.
 
Rispetto alle complesse e ben
curate costruzioni viarie
romane, le strade medievali si
contraddistinguevano per
un’estrema povertà strutturale. 
 
•Le strade apparivano
come delle mulattiere,
percorribili a piedi o tutt’al
più a dorso di un cavallo
(privilegio dei personaggi
più insigni) o di un mulo.
•Con il Medioevo era
infatti caduto quasi in
disuso il trasporto tramite
veicoli a ruote e d’altra
parte le ridotte dimensioni
delle strade non
avrebbero permesso in
molti tratti il passaggio di
carri.
LA “STRADA” NELL’ EPOCA
RINASCIMENTALE
circa 1500 anni d.C. - Papa Giulio II dispone la
costruzione della monumentale via Giulia.
circa 1650 anni d.C. - Vengono realizzati, a
Parigi, gli Champ Elysées, fra le prime strade
alberate.
circa 1670 anni d.C. - Primo impiego della
polvere da sparo per costruire gallerie.
IL PIANO STRADALE
• Il piano stradale, risalente al XIV-XVI
secolo d.C. è costituito da ciottoli, sassi
fluviali, frammenti laterizi e cocciopesto.
Conservatosi per un tratto lungo circa 5
m., largo approssimativamente 1,10 m. e
con allineamento nord-est/sud-ovest. 
Il piano stradale
trovato di fronte
al loggiato del
Palazzo del
Comune in via
Roma a Meldola
(Forlì-Cesena)
• I resti rilevati sono sufficienti a definire
propriamente le caratteristiche costruttive
caratterizzate principalmente da sassi
fluviali posti di piatto sull’intero piano
stradale, dove si distinguono ancora
tracce di orme carraie, eccetto che
all’estremità meridionale dove è stato
documentato un “setto” costituito da sassi
conficcati nel terreno, molto probabilmente
finalizzato alla stabilità della
pavimentazione.
• E’ possibile riscontrare in un passo di un
antico documento -datato al 1596- una
descrizione aderente alle caratteristiche
dell’evidenza archeologica riportata alla
luce, che ha inoltre restituito materiale
ceramico successivo alla seconda metà
del XV secolo d.C.
 
 
 
LE STRADE NELL’EPOCA
MODERNA
• circa 1820 anni d.C. - M. J. Brunel mette a punto “lo scudo” per
costruire gallerie.
• circa 1820 anni d.C. - Compare la pavimentazione stradale in
asfalto e catrame.
• circa 1830 anni d.C. - Compare la pavimentazione stradale in
macadam.
• circa 1838 anni d.C. - Viene aperta al traffico la strada dello
Spluga, tuttora percorribile.
• circa 1840 anni d.C. - Compaiono i primi rulli stradali trainati da
cavalli.
• circa 1857 anni d.C. - Iniziano i lavori per il traforo del Frejus.
• circa 1860 anni d.C. - Compare il rullo compressore a vapore.
• circa 1863 anni d.C. - Viene inaugurata a Londra la prima
metropolitana.
• circa 1908 anni d.C. - Compare a Cleveland (U.S.A) il primo
semaforo.
• circa 1994 anni d.C. - Viene ultimato il tunnel sotto la Manica 
COME SI COSTRUISCE UNA
STRADA MODERNA
Molti pensano che la stabilità di una via sia
da attribuirsi allo strato dell’asfalto. Certo ha
la sua importanza nell’insieme globale della
realizzazione, ma la parte più rilevante dello
studio dell’opera è la valutazione del tipo di
terreno sul quale la strada stessa verrà
tracciata .
Sostanzialmente i tipi di terreno si dividono
in 4 grandi categorie: argilloso, limoso,
sabbioso e ghiaioso.
 
Assorbe
acqua,
quindi è…
instabile
impermeabile,
drenante,
non trattiene
l’acqua,
quindi……
più stabile.
Assorbe
acqua,
quindi è…
instabile 
impermeabile,
drenante, non
trattiene
l’acqua,
quindi……
più stabile.
• Una volta accertata la tipologia del
terreno, si può procedere con lo scavo
che varia dai 20 cm di profondità, per un
terreno molto ghiaioso, ad un massimo di
70 cm dal livello di superficie finale per un
terreno di tipo argilloso. Una volta
effettuato lo scavo, per il terreno
argilloso si procede come segue:
• stesura sul fondo della striscia di tessuto
non tessuto impermeabile che funge da
barriera tra il fondo stesso e il
riempimento;
 
• si fa un primo strato di sabbiella di circa 20 cm
di altezza e si rulla, si comprime bene; poi si
stende uno strato di stabilizzato per circa
30 cm di altezza e si comprime a sua volta,
infine si stendono 15 cm di asfalto grossolano,
e 5 cm di asfalto fine per dare impermeabilità.
• Per un fondo ghiaioso, lo scavo è
minimo, non necessita neppure dell’uso
del foglio di tessuto non tessuto, in quanto
è già impermeabile naturalmente, quindi
basta scendere di 15/20 cm di
escavazione per poi riempire direttamente
con 5/10 cm di stabilizzato ben rullato e
ricoprire con 10 cm di asfalto suddiviso a
sua volta in 8 cm di grossolano, e 2 cm di
quello fine. 
 
 
“PALM JUMEIRAH”
ESEMPIO DI STRADA MODERNA 
• Attraverso il corso dello sviluppo storico della società,
l’umanità ha creato, negli ultimi anni, una serie di
meraviglie.
• Questa è una delle opere più bella del mondo realizzata
dall’uomo in tempi moderni.
• Il meraviglioso arcipelago è stato creato dalle autorità
dello stato di Dubai. Si tratta di una parte delle tre isole
che sono notoriamente conosciute come la striscia delle
isole Palma. Questa è la più piccola fra le tre ma la più
bella di tutte ed è un pezzo eccellente di architettura e
immaginazione umana.
• La ragione è che le opere stradali realizzate, incastonate
nella vegetazione e arredate con materiali locali naturali,
la fanno assomigliare ad una “palma”.
 
Oggi, un Paese moderno e civile non
può prescindere da un sistema
stradale efficiente e sicuro!
Quante volte ci capita di vedere strade
con buche, incroci mal segnalati, alberi
pericolosi situati ai bordi delle strade,
segnaletica orizzontale pressochè
inesistente ecc.; a tutti questi elementi,
considerati comunemente causa di
incidenti stradali, bisogna aggiungere
fenomeni atmosferici come la pioggia, 
Tutti questi fattori vengono
comunemente considerati gli
elementi cruciali nella dinamica
dell’incidente stradale.
Le disposizioni del codice della
strada impongono all’utente di
adeguare il proprio
comportamento di guida alle
specifiche condizioni della
strada per avere cognizione di
causa riguardo al problema
degli “incidenti stradali” che oggi
si verificano con un’altissima 
Allo stesso modo il “gestore” della
rete viaria è tenuto a mettere in atto
con tempestività tutti gli accorgimenti
offerti dalle moderne tecniche di
servizio per la manutenzione delle
strade.
Crediamo che quello che manca
oggi in Italia sia una vera e propria
“cultura della sicurezza stradale”
 
 


#133 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 23 novembre 2016 - 03:55

Segnali stradali
 
Segnali-stradali-Imc-e1440585242903.jpg
 
Dato che i segnali stradali sono utili per la circolazione dei veicoli, potremmo pensare che siano apparsi solo in periodi recenti .
 
Invece non è così : i primi segnali stradali sono apparsi nell’antichità, forse ancora prima della costruzione delle strade, ma, ovviamente, erano molto diversi da quelli attuali; entrambi però hanno lo stesso scopo: indicano qualche cosa di utile.
 
Esempi di segnali antichi possono essere le erme dell’antica Grecia, sulle quali venivano scolpite informazioni utili alle persone in viaggio ed al loro spirito;
 
esse erano pilastri di pietra, posti spesso agli incroci delle strade, sormontate dalla testa di un dio, di solito Hermes, Mercurio, da cui il nome.
 
Le antenate dei cippi e degli indicatori
 
stradali erano le pietre miliari, pietre
 
usate dai Romani.
 
Nell’antica Roma esistevano diversi
 
tipi di segnali stradali : la città
 
disponeva infatti di colonne che
 
indicavano il nome di varie vie, i
 
sensi unici e i parcheggi riservati.
 
Pare che già più di 2000 anni fa ( ai
 
tempi di Giulio Cesare) i veicoli non
 
potessero circolare nel centro in
 
alcune ore del giorno perché già
 
era congestionato dal traffico.
 
A Pompei e ad Ostia sono ancora
 
visibili le"vecchie" strisce pedonali.
 
Durante il Medio Evo, nonostante le
 
strade fossero trascurate a causa delle invasioni barbariche, la segnaletica era relativamente efficiente : infatti vi erano segnali che indicavano la posizione dei centri più importanti della città.
 
Erano poche le segnalazioni usate durante il Medio Evo e spesso si limitavano ad indicare il nome di una località e la direzione da seguire per raggiungerla.
 
Le popolazioni scandinave invece, più di 1000 anni or sono, utilizzavano cartelli di tipo figurativo per colpire l’attenzione dei passanti; molti segnali attuali si rifanno allo stesso concetto.
 
 
 
Guida turistica
 
In un libretto, pubblicato in Inghilterra nel 1635, si può leggere che, per recarsi in certe località, bisogna fare attenzione alle indicazioni poste agli incroci stradali.
 
Con l’entrata in funzione dei primi servizi regolari di posta, si manifestò la necessità di indicare ai postiglioni, ed agli altri viandanti, la direzione da tenere nei tragitti, che venivano serviti dalle diligenze.
 
Nel 1700, in Inghilterra, erano frequenti e numerose le indicazioni fissate su pali ad altezza di cavaliere che fornivano, oltre al nome della località, anche le ore necessarie per raggiungerla.
 
I primi segnali moderni apparvero nell’ambito ciclistico a partire dal 1884, con la nascita delle biciclette e delle associazioni ciclistiche a scopo turistico.
 
Più precisamente nacquero nel 1894 in Italia con il Touring Club ciclistico Italiano, che intervenne direttamente nel posizionare opportuni cartelli indicatori.
 
Ad esempio, quaranta tabelle in ghisa furono affisse sulle case che si trovavano sulle strade. (Una di queste, montate dal T.C.I negli anni 20, si trova ancora oggi sul muro di una casa all’inizio della Val di Fiemme e indica la direzione da seguire per Moena).
 
Queste tabelle, con il passare del tempo, apparvero sempre più numerose fino al 1900, anno in cui, anche l’Italia, adeguò i propri segnali a quelli adottati in tutte le altre nazioni.
 


#134 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 30 novembre 2016 - 07:16

Costellazione
 
220px-Orion_constellation_map.png
 
Nota disambigua.svg Disambiguazione – "Costellazioni" rimanda qui. Se stai cercando altri significati, vedi Costellazioni (disambigua).
 
Mappa della costellazione di Orione
Una costellazione è ognuna delle 88 parti in cui la sfera celeste è convenzionalmente suddivisa allo scopo di mappare le stelle. I raggruppamenti così formati sono delle entità esclusivamente prospettiche, a cui la moderna astronomia non riconosce alcun reale significato, infatti:
 
nello spazio tridimensionale le stelle che formano una stessa costellazione possono essere separate anche da distanze enormi, così come diverse possono essere le dimensioni e la luminosità,
viceversa, due o più stelle che sulla sfera celeste appaiono magari lontanissime tra di loro, nello spazio tridimensionale possono essere al contrario separate da distanze minori di quelle che le separano dalle altre stelle della propria costellazione,
durante un ipotetico viaggio interstellare non riusciremmo più ad identificare alcuna costellazione, e ogni sosta vicino a qualunque stella ce ne farebbe identificare semmai di nuove, visibili solo da tale nuova prospettiva.
nel corso del tempo sono state definite costellazioni differenti, alcune sono state aggiunte, altre sono state unite tra di loro.
L'uomo eccelle nel trovare schemi regolari (pareidolia) e attraverso la storia ha raggruppato le stelle che appaiono vicine in costellazioni.
 
Una costellazione "ufficiosa", ossia un allineamento di stelle che formano semplici figure geometriche, si chiama asterismo.
 
Costellazioni riconosciute dall'IAU
Exquisite-kfind.png Lo stesso argomento in dettaglio: Lista delle costellazioni.
 
La Costellazione del Toro disegnata da Johannes Hevelius.
L'Unione Astronomica Internazionale (IAU) divide il cielo in 88 costellazioni ufficiali con confini precisi, di modo che ogni punto della sfera celeste appartenga ad una ed una sola costellazione. Le costellazioni visibili dalle latitudini settentrionali sono basate principalmente su quelle della tradizione dell'Antica Grecia, e i loro nomi richiamano figure mitologiche come Pegaso o Ercole; quelle visibili dall'emisfero australe sono state invece battezzate in età illuministica ed i loro nomi sono spesso legati ad invenzioni del tempo, come l'Orologio o il Microscopio.
 
Le dodici costellazioni che intersecano l'eclittica compongono lo zodiaco. In aggiunta a queste 12, già in età antica Tolomeo ne elencò altre 36 (che ora sono 38, a causa della suddivisione della Nave Argo in tre nuove costellazioni). In tempi più recenti, a questa lista sono state fatte delle aggiunte, in primo luogo per riempire i buchi fra i tracciati tolemaici (i greci consideravano il cielo come comprendente costellazioni e spazi vuoti tra di esse), e in secondo luogo per riempire l'emisfero meridionale, quando gli esploratori europei, nei loro viaggi, riuscirono a vederlo.
 
Nel 1543 fu poi Alessandro Piccolomini, molti anni prima di Johann Bayer, a contrassegnare le stelle in base alla loro luminosità con delle lettere (alfabeto latino). Il libro del Piccolomini dal titolo De le stelle fisse, è da molti considerato il primo atlante celeste moderno. Le 47 mappe contenute nell'opera presentano tutte le costellazioni tolemaiche (ad eccezione di quella del Puledro) e mostrano le stelle senza le corrispondenti figure mitologiche; per la prima volta in un libro a stampa venivano quindi riportate le mappe astronomiche complete con le costellazioni tolemaiche. Il De le stelle fisse (1543) e un altro libro sempre del Piccolomini dal titolo Della sfera del mondo (1540) vennero pubblicati in un unico e rarissimo volume, per la prima volta nel 1548.
 
Uranometria, titolo abbreviato di un catalogo stellare prodotto da Johann Bayer, è stato il primo atlante a coprire l'intera sfera celeste.
 
I nomi delle stelle
Exquisite-kfind.png Lo stesso argomento in dettaglio: Nomenclatura stellare.
Le stelle più luminose di una costellazione prendono il nome usando una lettera greca più il genitivo della costellazione in cui si trovano; questa nomenclatura, chiamata Nomenclatura di Bayer, viene utilizzata per tutte le costellazioni. Un esempio è α Centauri. La Nomenclatura di Flamsteed segue invece una numerazione progressiva delle stelle di una costellazione procedendo da ovest verso est, cui si aggiunge il genitivo della costellazione di appartenenza; questa nomenclatura, assente per le stelle di costellazioni poste a sud dei 30° di declinazione sud, produce risultati come 61 Cygni. Un'altra numerazione che utilizza il genitivo della costellazione è la nomenclatura delle stelle variabili, che procede assegnando lettere, come per RR Lyrae. Le stelle meno luminose seguono altre numerazioni progressive, senza seguire però la divisione in costellazioni.
 
Costellazioni di nubi oscure
 
L'"Emù celeste", una costellazione definita dalle nubi oscure che attraversano la Via Lattea australe fra Scorpione e Croce del Sud. La testa coincide con la Nebulosa Sacco di Carbone.
Nell'emisfero celeste australe è possibile distinguere un gran numero di nebulose oscure che attraversano la scia luminosa della Via Lattea; alcune culture vissute nell'emisfero australe hanno individuato fra queste macchie oscure alcune figure, identificabili come "costellazioni di nubi oscure". Fra queste culture vi è quella Inca, che identificò sagome di animali fra le nubi oscure, associando la loro apparizione con l'arrivo della stagione delle piogge.[1] Anche gli aborigeni australiani erano soliti individuare fra queste nubi figure di animali, fra le quali la più famosa è l'"Emù celeste", la cui testa coincide con la Nebulosa Sacco di Carbone.
 
 


#135 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 07 dicembre 2016 - 07:37

Inchiostro
 
inchiostri-big.jpg
 
L’inchiostro ha origini antichissime e da millenni è il supporto fondamentale ed insostituibile della scrittura e del pensiero. Era nominato dai romani “Atramentum” e poi dai latini “Encaustum” e “Melanion”. Conoscendolo meglio capiremo che la sua formulazione non è così semplice come si potrebbe pensare. Già allora si doveva tener conto di molti fattori condizionanti. Le miscele, se mal preparate potevano cancellarsi, spandere, essere sensibili alla luce, all’umidità, provocare muffe, cambiare colore e infine provocare anche gravi e irrimediabili danni di corrosione ai supporti utilizzati (carte, pergamene, ecc…) e questo poteva avvenire subito dopo l’essiccazione oppure in un tempo più o meno lontano, a seconda delle reazioni chimiche indotte.
 
In antichi testi vi è trattata l’arte di fabbricare inchiostri e vediamo come le più comuni misture fossero vegetali, in particolare due furono piuttosto famose: l’estratto di campeggio (albero con tronco e corteccia bruno grigio) dal cui legno color rosso scuro, si estraeva un colorante rosso e l’estratto a base di carbone vegetale (da qui il detto nero come l’inchiostro e nero come il carbone) di colorazione nera. 
 
Altre miscele prevedevano l’utilizzo anche di fuliggine, nerofumo, vari tipi di carbone ed addizionati a gomma arabica, acqua, vino, aceto ed…urina! (ma l’urina è un classico ingrediente, per fortuna abbandonato….Anche nelle prime polveri da sparo, e in certi medicamenti miracolosi venduti dai ciarlatani, venivano utilizzate urine umane e di animali di vario tipo, magnificandone i risultati…). 
 
Queste formule ora possono apparire strampalate, ma tutto aveva una sua logica: se il carbone da il colore all’inchiostro, la gomma arabica che ha potere emulsionante, da viscosità al fluido, mantiene le particelle di carbone in sospensione e infine, per favorire la migliore adesione al documento, fluidità nonché stabilità, si usavano gli altri componenti descritti, nelle più varie miscelazioni (alcune formule prevedono ancora l’utilizzo di tali componenti).
 
Alla fine della lavorazione (al di là di quanto si pensi), si otteneva un inchiostro particolarmente stabile nel tempo e il documento non scoloriva alla luce, inoltre era inerte, ovvero non presentava sostanze dannose per il supporto usato (carte, pergamene, ecc…).
 
Tuttavia almeno un lato negativo vi era in questi inchiostri detti al nerofumo. La loro sensibilità all'umidità. Infatti in presenza di umidità, l’inchiostro tendeva ad espandersi, addirittura a cancellarsi. Era questa una grave minaccia per l’opera dello scrittore che voleva lasciare invece una traccia ben leggibile (anche se a dire il vero, qualcuno sfruttava tale caratteristica per risparmiare sui costi di carta e pergamena, che erano molto alti).
 
Ma la preoccupazione di rendere sicura e duratura l’opera di pazienti amanuensi e di consentire poi la diffusione dei testi indelebili, spinse a trovare la soluzione definitiva del problema. Il suo nome è: solfato ferroso. Una aggiunta (piccola) di tale solfato all’inchiostro nerofumo, produceva vari ossidi di ferro che penetravano nelle fibre della carta (o altri supporti) e lasciavano tracce indelebili. 
 
Successivamente al 1100 viene ulteriormente perfezionato e si ottenne l’inchiostro ferro-gallico (ricavato dalle noci di galla in soluzione coi sali di ferro). Una sua variante prevedeva la soluzione anche con solfato di ferro e vetriolo (acido solforico diluito). Con la continua sperimentazione “sul campo” (è il caso di dirlo), furono ricavate innumerevoli misture vegetali che venivano sciolte in vino, birra, aceto, miele (melanion) con aggiunta di gomma arabica. Il loro dosaggio era mantenuto rigorosamente segreto (chi sapeva scrivere deteneva il potere…) e specialmente nelle abbazie, i monaci sperimentavano intrugli più vari aggiungendo erbe, terre e sostanze varie, tutte segrete e tutte volte ad ottenere risultati duraturi e migliori nel tempo (nonché la supremazia tecnologica). Il gioco non era così facile: bastava infatti eccedere con contenuti metallici (solfati) o aumentare l’acidità del composto che in un tempo più o meno breve, si aveva l’irrimediabile e definitiva corrosione della carta o della pergamena, con la perdita di tutto il lavoro che invece si voleva tramandare ai posteri! 
 
Di miscela in miscela, pur essendo conosciuto come dannoso per il materiale librario, l’inchiostro metallogallico o gallotannico (che in parte era conosciuto anche dagli Egizi che lo usavano discontinuamente) si afferma sugli altri, col nome di “encaustum”. Questa miscela, vincente per i tempi, è una combinazione di solfato ferroso, sostanze tannanti, ovvero tannino e acido gallico (sostanze estratte dalle noci di galla, escrescenze che si formano su alcuni tipi di querce), un legante (gomma arabica o miele) e un solvente (acqua, a volte vino o aceto). Questo inchiostro aveva molte caratteristiche positive che lo premiavano: era stabile alla luce, indelebile e infine assai resistente all’umidità.
 
Sono queste caratteristiche che lo fanno affermare, anche se oggi vediamo che molti scritti antichi sono divenuti color marrone (non più neri brillanti come in origine) per la trasformazione chimica subita dai composti ferrici (ossidazione). E gli inchiostri a colori? Anche qui i monaci compiono miracoli (è il caso di dirlo). Quelle bellissime iniziali tracciate in rosso negli incipit di molti antichi manoscritti, devono il loro colore brillante ad un legno di un albero particolare, detto legno del Brasile. Questo legno veniva importato dalle Indie in epoca medioevale e fu scoperto dai Portoghesi nella parte centrale del Sud America. Trovato il legno, furono scoperte certe sue proprietà.
 
Il legno polverizzato veniva lasciato per molti giorni a bagno nell’aceto o nell’urina (!) e poi mescolato con gomma arabica e si otteneva un bell’inchiostro rosso fuoco. Un altro tipo di inchiostro rosso era fabbricato con cocciniglia macinata con lacca. Questi tipi di inchiostro, pur belli, tendevano però col tempo e con l’esposizione alla luce, a sbiadire. Dalle foglie di un'altra pianta, l’indigofera tinctoria, veniva estratto l’indaco, pigmento di base per gli inchiostri blu. Solo alla fine del 1600 venne scoperto un pigmento di origine minerale che sostituì pian piano l’indaco, fino ad affermarsi completamente dopo il 1800. Era il colore blu di Prussia che ancora esiste e resiste (seppur con formule diverse).
 
Come abbiamo visto, fantasia ed arte si sono sbizzarrite nei secoli, creando altri inchiostri rossi a base di minio (ossido salino di piombo di color rosso), usato anche per la fabbricazione dei vetri al piombo e di smalti (ricordiamo i bellissimi vetri colorati di certe chiese e i loro dipinti) e di cinabro (solfuro di mercurio color rosso vermiglio). Saranno soprattutto questi inchiostri a fissare per sempre, lo splendore gotico dei titoli, delle lettere iniziali e degli incipit che fregiano i codici miniati e gli antichi libri degli amanuensi.
 
Con l’allegria dei colori dell’arcobaleno, si inventarono poi inchiostri verdi, gialli, azzurri, magari da mescolare ai neri e ai rossi, per un tripudio di colori. Questi inchiostri scriveranno la storia e rappresenteranno i materiali di una grande tradizione di tipi di scrittura: l’onciale, la carolina, la gotica, e poi la rinascimentale. 
 
Generazioni di monaci pazienti trasformavano con opere di vero cesello, gli scritti con questi inchiostri, in pura arte scrittoria e trasmettevano ai posteri la cultura, miniando codici, libri e testi. Noi, estasiati, possiamo solo ammirare tali capolavori. Per i manoscritti più lussuosi e pregiati, venivano usati inchiostri d’oro e anche d’argento (quest’ultimo un po’ meno per la sua caratteristica di scurire, come il metallo d’origine). Quello d’oro mantiene tutt’ora e nei secoli il suo splendore e la sua lucentezza, dopo un accurato trattamento in origine della pergamena, affinchè non degradi col tempo. Nel XVIII secolo, con l’avvento dei pennini metallici, gli inchiostri divennero più sofisticati e funzionali, allo scopo di evitare effetti corrosivi anche sulle penne d’oca e sui pennini stessi. Alcuni industriali produssero così, inchiostri all’anilina.
 
Fu però nella metà dell’800 che tali inchiostri si diffusero grandemente diminuendo la corrosività, seppur a prezzo di una maggior tossicità dei composti. Ma erano inchiostri scorrevoli non spandevano, asciugavano velocemente, erano assai stabili e non corrosivi nel tempo. I lati positivi prevalevano e di molto sui negativi...
 
Nei primi del novecento fu usato anche l’acido fenico, che però corrodeva i pennini d’acciaio e pertanto gli stessi dovevano essere ricoperti con altro materiale resistente (tipica la placcatura d’oro).
 
Infine dobbiamo ricordare quello che forse fu il migliore di tutti gli inchiostri, anche se in occidente pochissimo usato: l’inchiostro cinese. Laboriosissima la sua composizione: grasso di bue, pesci vari, corna di animali e prodotti della combustione, ovvero legno, carbone, resine di pino e olio di sesamo, tutti polverizzati e mescolati col mortaio, molto accuratamente. Il famoso inchiostro di Li Tinggui ha il sapore della leggenda che attraversa i tempi.
 
Assieme ai vari materiali elencati, con antica sapienza e manualità che mutuava diverso rapporto col tempo come noi lo intendiamo, venivano mescolate anche perle, oro, giada, tutto pestato a mano nel mortaio diecimila volte e con antichi riti propiziatori. Tutto era fatto a favore dell’arte suprema della scrittura, della cultura di un popolo di tradizioni antichissime che sopravvivevano così all’oblio del tempo e si tramandavano. I bastoncini ottenuti con tali miscele, venivano poi sciolti in acqua di fonte, sulla pietra da inchiostro fino ad ottenere un impasto molto fine (ricordiamo che i cinesi scrivevano coi pennelli, non con i pennini).
 
Inventati così gli inchiostri, occorreva inventare qualcosa che li contenesse, onde poter, in seguito, anche portare con sé il prezioso strumento della scrittura in ogni spostamento o viaggio.
 
All’inizio furono semplici gusci e conchiglie, poi corna di animali, tazze metalliche e prima di arrivare al vero calamaio, passò del tempo. Ma arrivò, soprattutto col vetro. Dapprima con vari tentativi onde accrescere sicurezza e stabilità di appoggio durante la scrittura (occorreva intingervi la penna). Poi fu pubblicizzato pesantemente per accrescerne diffusione ed uso: elegante bottiglia ottagonale, elegante flacone rotondo, tamburello quadro, cristallo di Boemia, ecc...
 
Non meno affascinanti e suggestivi i nomi degli inchiostri contenuti: nero intenso da cancelleria, l’encre nouvelle, il modernissimo, l’universale, il classico fisso, l’antracene giapponese, l’indamino verde, il nero magico, il blu di prussia originale, ecc… con l’aggiunta di attributi forse un po’ retorici (ma allora era così) e con abbondanti superlativi: qualità perfettissima, scorrevolissimo, di un bellissimo nero inalterabile, assolutamente eccellente e via così….
 
E si diffusero anche (finalmente) i calamai portatili, piccoli astucci e addirittura scrittoi portatili di cuoio e metallo che si attaccavano alla cintura e che, oltre al cornetto dell’inchiostro, erano completi di penne, pennini, raschietti, sigilli, ceralacca e carta. Vi erano poi calamai da viaggio garantiti stagni e con chiusura di sicurezza che permettevano il trasporto dell’inchiostro contenuto, senza alcuna perdita. Il loro trionfo, come quello delle loro più varie forme e materiali, anche preziosi, con cui erano realizzati, avvenne nel XIX secolo e tutto procedette al meglio, fino al giorno in cui qualcuno disse: “E’ più sensato mettere l’inchiostro nella penna che la penna nell’inchiostro!” Da questa apparentemente banale conclusione, nasce l’idea della stilografica e nasce la sua storia avventurosa, non meno avvincente di quella dell’inchiostro. Ve la raccontiamo nella pubblicazione “Le stilografiche”, disponibile in altra pagina del sito. 
 
Per concludere questa esposizione, qui di seguito diamo 10 formule chimiche e alcuni consigli per fabbricare inchiostri antichi e moderni. 
Chi volesse dilettarsi nel creare fluidi personalizzati e “misteriosi”, è così servito! Buon lavoro. 
 
 
 
 
 
 
FORMULE PER INCHIOSTRI
 
 
 1) Inchiostro di color nero
 
In 250 parti di acqua sciogliere: tannino 14 parti, acido pirogallico 3,5, carminio d’indaco 6, in altre 250 parti di acqua sciogliere 30 parti di solfato ferroso mescolare le due soluzioni, agitare, filtrare e aggiungere:
soluzione di gomma arabica diluita al 30% - parti 60, acido formico p. 0,1
 
 
2) Inchiostro di colore blu 
 
Blu di metilene 10 p., Alcol a 92° -20, Allume 5, Glicol etilenico 40, Acqua distillata 940
 
 
3) Inchiostri gallotannici (blu/neri)
 
acido gallico 100, solfato ferroso 150, acido acetico glaciale 10 - (oppure acido tartarico 10) – blu solubile 35, acqua distillata 10
 
 
4) variante dello stesso
 
acido tannico 75, acido gallico 25, acqua distillata 793, acido solforico 7, solfato di ferro 100 I prodotti vanno miscelati solo nell’ordine esposto, far bollire per 30/40 minuti, lasciare poi in riposo per 3 giorni, filtrare e imbottigliare.
 
 
5) Inchiostri al campeggio
 
legno di campeggio 100, cromato di potassa 10, acqua distillata 1000
 
 
6) variante di colore azzurro/nero
 
estratto di campeggio 30, acqua calda (60°) 300, aggiungere poi allume di cromo 24, solfato ferroso 6, carminio di indaco 8, infine destrina 3, acqua, 20
 
 
7) economico di antica ricetta
 
Si lasciano macerare per 3 giorni 125 parti di noci di galla frantumate in 2 litri di acqua piovana (acqua distillata), a parte si fanno sciogliere 50 p. di gomma arabica e 50 di solfato di ferro in 100 p. di acqua piovana, si mescolano poi le 2 soluzioni e dopo 3 giorni, agitando spesso, si scalda all’ebollizione e poi si filtra e si imbottiglia.
 
 
8) Inchiostri all’antracene
 
estratto di sommacco (20° Baumè/o Bè) 1000 gr, estratto di campeggio liquido (a 30° Bè) 75 gr, acqua distillata 4000 gr. questa soluzione va versata in:
destrina gialla 125 gr., solfato di ferro 125 gr., acido fenico 5 gr., acqua 500 gr. Dopo 3 giorni decantare e imbottigliare.
 
 
9) Inchiostri colorati e non corrosivi
 
acido gallico 28 gr., Coloranti (vari a scelta) 6 gr., Cloruro di ferro 30 gr., Acido cloridrico 30 gr., Acido arsenico 1 gr., Fenolo 1 gr., Acqua 100 gr., Glicerina q.b. per la fluidità che si vuole.
Per i colori si possono utilizzare: BLU blu copiativo B o 2b, blu di metilene, ROSSO croceina brillante, eosina s, fucsina, rodamina b, GIALLO auramina 0, VERDE verde all’acido GG, verde brillante cristallizzato, VIOLETTO violetto all’acido 4b, NERO nigrosina neutra.
 
 
10) inchiostro ad effetto brillante (nero)
 
a) cera montana 15%, colofonia 2%, paraffina (a 40° gradi) 3%, carbonato di potassio 0,5%, sapone di Marsiglia 4%, acqua 65%.
 
b) gommalacca 20%, borace 7%, acqua 75%, 
 
c) nigrosina 5,5%, acqua 25%.
 
Le 3 soluzioni (a+b+c) vanno preparate separatamente e poi in seguito miscelate con forte agitazione. Poi si imbottiglia.
 
 
Per trasformare gli inchiostri colorati o gallotannici o al campeggio in inchiostri copiativi, si aggiunge agli stessi il 3-4% di zucchero o di glucosio o glicerina oppure un miscuglio di queste sostanze assieme.
 
 
 


#136 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 14 dicembre 2016 - 08:31

La Storia dei Casinò,come sono nati
 
Casino-Baden-Auszenansicht-Miss-Austria.
 
Esistono testimonianze di gioco d’azzardo sin dall’antichità. Nell’antica Cina  e India risalgono addirittura al 2000AC. Sono quindi nate, in tale periodo, le prime forme di gioco d’azzardo. Nonostante ciò, i primi casinò sono nati meno di 500 anni fa..
 
In Italia sono nati esattamente nel 17° secolo. Erano circoli privati gestiti e organizzati da importanti aristocratici italiani e si chiamavano “Ridotti”.
 
La parola casinò deriva da “casa”, in quanto inizialmente i luoghi di incontro erano case di vacanze o villette in campagna. Iniziarono poi a svilupparsi notevolmente quando, in questi luoghi di incontro, vennero coinvolti anche i settori meno abbienti della società. In questo modo i casinò  diventarono popolari e nel giro di breve tempo diventarono anche legali.
 
Il casinò di Venezia , aperto nel 1638, fu il primo casinò legale. Era uno storico edificio che ospitava vari giochi di carte e poteva accedervi chiunque avesse del denaro. Ristrutturato e riaperto nel 20° secolo oggi rappresenta una delle attrazioni principali di Venezia.
 
Il successo di questo casinò portò all’apertura in altre città europee di questi Luoghi di gioco, non erano però edifici architettonicamente impressionanti come quelli di oggi, infatti i primi casinò moderni furono costruiti nel 18°secolo.
 
Il primo stravagante fu quello di Baden-Baden, pilastri imponenti prato da favola in un posto meraviglioso, che ovviamente oltre ad essere un luogo di piacere fungeva anche da attrazione turistica. Successivamente il centro dei casinò d’azzardo diventò la Francia, dove nel 1863 fu aperto a Monte Carlo un notevole Casinò. Ancora adesso una delle mete più popolari al mondo per i giocatori d’azzardo.
 
Negli Stati Uniti i primi luoghi di gioco d’azzardo erano dei saloon , inizialmente erano solo piccole stanze da gioco. Il primo saloon che, nel 1822, diede accesso al gioco d’azzardo si trovava al confine tra Colorado e Utah ed era utilizzato principalmente come svago dei lavoratori della miniera locale.
 
Aprirono poi in città commerciali come San Francisco, Chicago, St. Louis e New Orleans, permettendo così ai lavoratori di fermarsi alla fine della giornata lavorativa per giocare e bere qualcosa insieme.
 
All’inizio del 20° secolo negli Stati Uniti il gioco d’azzardo venne dichiarato illegale rendendo così l’attività sotterranea. Visto che non c’era comunque modo di impedire il gioco d’azzardo, nel 1931 il Nevada lo legalizzò, permettendo così anche allo Stato di aumentare le entrate fiscali.
 
Nacque così Las Vegas. Nel corso del tempo i casinò sono diventate strutture moderne dotate di Resort, hotel  e quindi mete di vacanza. Nel 1978 Atlantic City ha seguito l’esempio ed è diventata la seconda casa di gioco d’azzardo degli Stati Uniti. Oggi Macao, in stile Las Vegas ha superato la stessa Las Vegas come entrate. Il gioco d’azzardo è tornato in Cina, dove forse era iniziato!
 
 


#137 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 21 dicembre 2016 - 06:48

Il fantasma
 
310px-Medieval_ghost.jpg
 
Il fantasma (dal greco φάντασμα, phàntasma, "apparizione"), chiamato anche spettro o larva (dal latino larua) è un'entità delle leggende e del folclore. Ci si riferisce ad esso come a una presenza incorporea, spesso caratterizzata da alcuni elementi macabri o sinistri (avvolta in un sudario oppure senza testa, contornata da una certa luminescenza o che produce un rumore di catene). Del pari anche le circostanze delle apparizioni sono caratterizzate da elementi sinistri ricorrenti quali l'ora notturna, i luoghi lugubri e isolati, ecc.
 
Il termine fantasma, dal greco antico φάντασμα phàntasma, a sua volta da φαντάζω (phantàzo, "mostrare"; dalla radice φαν-, che esprime l'idea dell'"apparire" e del "mostrare"), aveva il significato di apparizione (intesa come manifestazione soprannaturale) e solo con il tempo il suo significato si è ristretto a indicare l'apparizione di un defunto. Il fantasma è una figura ricorrente nella tradizione popolare e letteraria praticamente di tutte le civiltà. Nella tradizione orientale e in quella greca e romana l'apparizione dei fantasmi non è associata al sentimento della paura.
 
Il fantasma è un tipico personaggio della letteratura fantastica e dell'orrore. Un esempio celebre si trova nell'Amleto di William Shakespeare. Nei racconti gotici e horror i fantasmi infestano di frequente vecchi castelli o antiche magioni. In molti racconti per bambini il fantasma può assumere un ruolo positivo.
 
Ipotesi sulla natura delle apparizioni
Per spiegare le testimonianze riguardanti l'apparizione di un fantasma sono state avanzate varie ipotesi sulla sua possibile natura, la maggior parte delle quali non ha una base scientifica.
 
Illustrazione di Hokusai di uno yūrei (fantasma giapponese)
La scienza: non vi sono prove dell'esistenza dei fantasmi[modifica | modifica wikitesto]
La scienza sottolinea come non vi sia alcuna prova dell'esistenza del soprannaturale e di una forma di vita ultraterrena; tali concetti sono privi di fondamento razionale, empirico e sperimentale; ovvero, restano semplice oggetto di fede o credenza.
 
Frodi
 
Il prestigiatore Harry Houdini e il fantasma di Abramo Lincoln, c. 1920-1930
Frequentissime nella storia del paranormale sono state le vere e proprie frodi escogitate per svariati interessi, in particolare per ciò che riguarda le apparizioni dei fantasmi. Sono numerosi, ad esempio, i medium che si sono vantati della capacità di produrre materializzazioni di ectoplasmi, durante le proprie sedute medianiche, ma nessuno di questi sensitivi è stato in realtà in grado di produrre una prova oggettiva della natura soprannaturale di questi "fantasmi" (in molti casi è stato invece dimostrato trattarsi di garze, veli e altre sostanze del tutto naturali).
 
Anche le apparizioni documentate fotograficamente, oppure connotate da varie forme di interazione fra fantasmi e oggetti circostanti (ad es. spostamento di oggetti, rumori notturni ecc.), sono state spesso correlate, e successivamente spiegate, all'intenzione di determinati soggetti di attirare l'attenzione dei media e del pubblico su particolari luoghi, località o situazioni, per es. a scopi turistici o commerciali, o per interessi del tutto individuali.
 
Allucinazioni
Nella maggior parte dei casi l'apparizione di fantasmi è classificata come allucinazione (quantomeno dopo avere scartato l'ipotesi di una frode)
 
Nella maggioranza dei casi le potenziali allucinazioni che riguardano l'avvistamento di un fantasma sono di natura visiva ed uditiva. In altri casi è capitato di aver a che fare con testimoni che sostenevano di avere avuto anche contatto fisico e di aver sentito odori di vario tipo. In questo caso, secondo la teoria, si sarebbero verificate allucinazioni tattili e olfattive. In altri casi l'apparizione si manifesta con una sensazione di improvviso calo di temperatura.
 
La spiegazione si basa sul fatto che chiunque si rechi in un luogo particolare per assistere ad un'apparizione, se abbastanza convinto e suggestionato, potrebbe realmente assistere ad un'apparizione. La mente infatti, se posta sotto un forte stimolo di stress, potrebbe creare delle illusioni di vario genere, che possono essere diverse a seconda della persona.
 
Nei casi in cui due o più persone condividono la stessa esperienza illusoria si parla di allucinazione collettiva. Secondo alcune teorie parapsicologiche sarebbe spiegabile con il fatto che un individuo psicologicamente forte, in caso di forte stress, può trasmettere telepaticamente l'immagine che è stata registrata dal suo cervello: quest'ipotesi non ha però riscontro scientifico. L'allucinazione collettiva è spesso frutto di suggestione da parte di alcuni componenti del gruppo o della folla, che con il loro comportamento (parole, grida ecc.) finiscono per suggestionare gli altri.
 
Anime dei morti
 
L'esoterista John Dee (1527-1608) che evoca uno spirito
La più diffusa credenza popolare vede i fantasmi come apparizione dei defunti. Questa interpretazione non ha alcun fondamento scientifico; in essa è riposta la fede, ovvero la volontà di credere, di coloro che vi aderiscono.
 
Credere ai fantasmi significa spesso credere che l'anima di una persona defunta possa in qualche modo riuscire a manifestarsi nel mondo terreno, non di rado per chiedere aiuto per portare a termine qualcosa che il defunto non è riuscito ad ultimare.
 
È sicuramente l'ipotesi più legata alla tradizione del folclore riguardante i fantasmi e, per alcune persone, è quella più rassicurante, dato che presuppone che possa esistere una vita dopo la morte ed una continuazione dell'amore provato nei confronti dei propri cari.
 
Proiezioni telepatiche
Alcune persone[senza fonte] che si interessano di parapsicologia sostengono che i fantasmi potrebbero essere un frutto della telepatia. In casi di forte stress mentale e/o emotivo, il nostro cervello, a detta di questa teoria, potrebbe in qualche modo "sdoppiare" la nostra persona che andrebbe così a manifestarsi sotto forma telepatica.
 
Secondo alcuni esperti[senza fonte] e molti siti internet[senza fonte] che trattano l'argomento, questa ipotesi coprirebbe addirittura la maggioranza dei casi esaminati, ma non è accettabile in campo scientifico.
 
Buchi spaziotemporali
I padri di questa teoria sono fondamentalmente due: il cacciatore di fantasmi Peter Underwood e il professore Hermann Wilkins dell'Università dell'Ohio (USA) sostengono che, grazie a particolari situazioni ambientali, si possa creare una sorta di "buco nella luce" che renderebbe possibile vedere nel passato per pochi istanti.
 
Questo infatti sarebbe la spiegazione perché i fantasmi vengono visti ad oltrepassare i muri, a fluttuare nell'aria ed a camminare immersi per metà nella strada; questo perché molto probabilmente nel passato non esisteva quel determinato muro, c'era una dunetta oppure la strada non era ancora stata costruita.
 
Questa teoria sta prendendo piede negli ultimi anni, pur non avendo alcun fondamento scientifico e mancando di ogni possibilità di verifica. Inoltre, vista la natura unica dello spaziotempo, questa teoria non spiega il motivo per cui si avvererebbero questi slittamenti solo in termini di tempo e non di spazio.
 
I fantasmi e il Cattolicesimo
Secondo la Chiesa Cattolica, la destinazione dell'anima di un defunto può essere la felicità eterna (Paradiso) o la pena eterna (Inferno). Se l'anima non è libera da ogni peccato veniale, allora può scontare un tempo più o meno lungo nel Purgatorio (dove per tempo non si intende quello fisico con unità di misura propria). Essendo queste tre le uniche destinazioni delle anime previste dalla Chiesa Cattolica, non può esistere il fatto che un'anima defunta sia collocata nel nostro mondo.
 
Nel Catechismo della Chiesa Cattolica non si parla di fantasmi, mentre nella Bibbia sono narrate apparizioni di spiriti (Saul fa evocare lo spirito di Samuele; durante la Trasfigurazione di Gesù appaiono Mosè ed Elia).
 
Lo spiritismo
Exquisite-kfind.png Lo stesso argomento in dettaglio: Allan Kardec.
 
Amleto e il fantasma del padre, di Johann Heinrich Füssli
Secondo lo spiritismo e il ricercatore Allan Kardec che studiò a fondo i relativi fenomeni, i fantasmi sono manifestazioni degli spiriti, i quali si rendono visibili grazie a un fenomeno del tutto naturale che lui studiò e approfondì, ossia rendono più "denso" il loro corpo animico, formato da sostanza materiale estremamente rarefatta, e grazie a particolari circostanze medianiche (tra cui l'ectoplasma del medium), appaiono a chi desiderano. Kardec descrisse il fenomeno come ad es. un gas che in condizioni normali non è visibile, ma che raffreddandolo diviene immediatamente semi-trasparente e raffreddandolo ulteriormente diventa solido e tangibile.
 
I cacciatori di fantasmi
I cosiddetti ghost hunter (cacciatori di fantasmi) sono persone che appaiono mosse da una grande passione per tutto ciò che riguarda il mondo degli spiriti.
 
Con il termine ghost hunter sono indicate persone dedite allo studio e alla ricerca dei fantasmi, con metodi più o meno scientifici o para-scientifici. Loro scopo dichiarato è in genere cercare di esaminare in modo più neutrale e preciso possibile i documenti che hanno in proprio possesso, spesso recandosi in determinati luoghi considerati come luoghi di apparizioni. Tra i più celebri cacciatori di fantasmi va segnalato almeno Harry Price (1881 – 1948). Tra i vari gruppi che si occupano di indagini paranormali ricordiamo in America: la TAPS e i Ghost Adventures ed in Italia il CRUP (Centro Ricerche Ufologiche e Paranormale) e i LIT - Lux In Tenebris (Paranormal Investigation Team). Tra le opere d'arte e d'intrattenimento dedicate al tema, la più celebre è probabilmente il film Ghostbusters - Acchiappafantasmi (1984).
 
Tipologie di apparizioni
Quello che i cacciatori di fantasmi hanno creato nel corso della storia sullo studio dei fantasmi, è stato coniare una sorta di catalogazione tra le differenti tipologie di apparizione.
 
Le apparizioni infatti, sarebbero molto differenti tra di loro in termini di contatto visivo, uditivo,
 
Visivo: quando effettivamente si riesce a vedere lo spettro,in molti casi infatti le apparizioni visive appaiono in sogno.
 
Uditive: quando si sentono le presenze degli spettri o quando addirittura si sentono le voci o urla dei fantasmi
 
Poltergeist
 
La parola poltergeist deriva dal tedesco Polter (chiasso, rumore) e Geist, "spirito". In italiano significherebbe spirito chiassoso. La caratteristica principale di una manifestazione di tipo "poltergeist" è prettamente di carattere uditivo.
 
Il poltergeist è uno spirito invisibile che, come dice il nome, si manifesta emettendo forti rumori come dei battiti contro il muro o facendo sbattere porte e finestre in modo violento. Il poltergeist interagisce in un determinato ambiente di appartenenza (dove si pensa presumibilmente sia stato legato in vita) spostando oggetti come mobili, soprammobili, rompendo piatti e rovesciando bicchieri e bottiglie.
 
L'attività di un poltergeist non è di tipo ostile, ma vi è una celebre testimonianza nel caso di John Bell, abitante del Tennessee che nel 1817 dichiarò di essere stato vittima di un poltergeist che aveva infestato la sua casa; tale manifestazione non solo si sarebbe divertita a colpirlo in viso durante le ore di sonno, ma sembra che alla fine riuscisse a sostituire una boccetta di sciroppo con del veleno, il che costò la vita a Bell.
 
L'azione di un poltergeist è circoscritta in un particolare luogo (come case, cimiteri o altre costruzioni) e talvolta in una singola stanza.
 
Secondo la parapsicologia il poltergeist non sarebbe l'anima di un defunto, ma tale manifestazione sarebbe da attribuirsi all'inconscio di persone con forti capacità psichiche le quali interagirebbero a propria insaputa con il mondo materiale circostante.
 
Infestazione
 
Lo spettro di un bambino assassinato in un'illustrazione di Marshall Arisman
L'infestazione (dall'inglese haunting) è la presunta manifestazione spiritica forse più presente tra i molti fenomeni descritti.
 
L'infestazione avviene anch'essa in luoghi ben determinati e si può manifestare sia in luoghi chiusi che all'aperto. Nella maggior parte dei casi, gli spiriti che infestano un luogo agiscono ripetendo sempre le stesse azioni, ignorando del tutto gli umani presenti nel luogo. Durante queste manifestazioni, gli spiriti vengono visti con contorni sfumati, ma altre volte con i lineamenti del viso e del corpo ben definiti, arrivando persino a essere scambiati per persone vive.
 
Le leggende popolari ed il folklore sono pieni di storie di fantasmi di questa tipologia, e vi sono moltissime persone, anche in Italia, che sostengono di essersi imbattuti in questo tipo di apparizione, avvenuta prevalentemente in antichi luoghi quali castelli, manieri, case abbandonate o cimiteri vuoti. Alcuni ritengono comunque che, contrariamente a ciò che comunemente si pensa, i principali luoghi di avvistamenti di questo tipo siano stati in prossimità di costruzioni militari o campi di battaglia, ed anche in campagna.
 
Banshee
Exquisite-kfind.png Lo stesso argomento in dettaglio: Banshee.
Il termine banshee è presumibilmente tratto dall'antico gallese bean-si ovvero "donna-fata". Questo tipo di fantasmi di carattere femminile, prevalentemente presenti in Irlanda, Galles e Scozia, sono legati ad una determinata famiglia, che non potrà più liberarsene fino alla morte delle persone alle quali lo spirito è legato.
 
La banshee si manifesta solitamente nelle ore notturne con lamenti orribili, che starebbero a significare un vicino pesante lutto nella famiglia. Solo i membri della famiglia al quale è legato possono sentire il suo orrendo canto e, nonostante la natura spaventosa di questo spettro, il suo unico scopo è di proteggere la famiglia al quale è legato dai nemici esterni. Appaiono molto raramente e sono stati descritti come spiriti di donna con occhi luminescenti verdi e dai tratti scheletrici.
 
Fantasmi di animali
Exquisite-kfind.png Lo stesso argomento in dettaglio: Cane nero.
L'apparizione di fantasmi di animali copre una minoranza tra i casi documentati (anche in modo non ufficiale).
 
Ci sono avvistamenti di fantasmi di animali di tipo mostruoso e decisamente ostile, mentre altri di tipo "gradevole" e decisamente amichevole. I principali animali visti in questo genere di apparizioni, sono per lo più gatti o cani, o comunque animali domestici.
 
Fantasmi di persone vive
 
Raffigurazione artistica di un Doppelgänger
Nell'immaginario collettivo il fantasma è lo spirito di una persona defunta, tuttavia molti ghost hunter sostengono che è anche possibile avvistare lo spirito di una persona ancora in vita.
 
Questo avverrebbe quando una persona - a causa di un immediato ed improvviso pericolo - immagina fortemente la sicurezza della propria casa o di un altro luogo a lui familiare. Da questo fortissimo stress emotivo, lo "sdoppiamento" della propria persona potrebbe apparire sotto forma telepatica ad un altro familiare o amico.
 
Il termine tecnico per questo tipo di manifestazione è "proiezione astrale". Secondo alcune leggende, alcuni medium sarebbero in grado di utilizzare la propria proiezione astrale di proposito. È la teoria alla base dell'ubiquità.
 
Per lo studioso inglese Andrew Green[senza fonte], queste apparizioni coprirebbero di gran lunga la maggioranza dei casi. Questo tipo di apparizioni è più propriamente indicato con il nome di bilocazione.
 
Doppelgänger
Nel folclore si utilizza questo termine per indicare la copia/doppio paranormale di una persona ancora in vita. Solitamente questo tipo di apparizioni vengono interpretate come presagi maligni o di sfortuna. I Doppelgänger vengono percepiti come una forma di bilocazione malvagia o sinistra. In alcune culture, famigliari o amici di una persona che ne vedono il Doppelgänger viene visto come segnale di pericolo o malattia, mentre si dice che se una persona vede il proprio doppio allora è presagio di morte.
 
Apparizioni da crisi
Le "apparizioni da crisi" hanno caratteristiche analoghe a quelle delle persone vive. Una persona appena morta potrebbe apparire a familiari ed amici che la starebbero aspettando, oppure che con questa avrebbero avuto una discussione poco prima del trapasso.
 
Secondo la parapsicologia questo fenomeno è da attribuirsi alla proiezione telepatica di una persona da parte di un soggetto con forti doti mentali, al quale essa sarebbe stata molto legata.
 
 


#138 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 28 dicembre 2016 - 10:44

La pornografia
 
LampArtifactDoggystyle.jpg
 
La pornografia intesa come raffigurazione di situazioni erotiche o scene di sesso ha origini molto antiche: forme di rappresentazione esplicita di atti sessuali sono testimoniate presso la maggior parte delle civiltà della storia ed è questione controversa se l'importanza relativa della pornografia sia correlata con il "grado di civiltà" di un popolo.
 
Certamente la pornografia intesa nel senso corrente è un fenomeno moderno, nato come detto precedentemente agli inizi del XIX secolo; nell'esaminare la storia di questo fenomeno occorre estendere l'accezione di pornografia e intendere qualsiasi genere di rappresentazione esplicita di atti sessuali, nudità e così via; tenendo però presente che, al di fuori di alcuni casi, non sempre è ipotizzabile che tale rappresentazione avesse lo scopo di provocare eccitazione nell'osservatore. Le donne nude e le attività sessuali sono descritte in maniera minuziosa nell'arte paleolitica (vedi ad esempio la venere di Willendorf); tuttavia non è sicuro che lo scopo di tali opere fosse il risveglio sessuale, dato che tali immagini possono avere preferibilmente un'importanza spirituale.
 
Relativamente all'epoca romana, a Pompei sono tuttora in perfetto stato di conservazione i lupanari, case chiuse sulle cui pareti sono ancora presenti rappresentazioni pornografiche. Inoltre sono state recentemente notate raffigurazioni degli organi sessuali maschili e femminili eseguita in alcune strade: per gli organi femminili era segno che la strada in cui ci si trovava era frequentata da prostitute; per l'organo sessuale maschile invece il discorso è diverso: ve ne erano moltissimi scolpiti o disegnati per le vie di Roma. Infatti l'organo maschile eretto era un simbolo portafortuna, da cui è derivato il nostro cornino di corallo. Una particolare sezione del Museo archeologico nazionale di Napoli (vietata ai minori di quattordici anni non accompagnati) contiene tutto quello che di pornografico è stato trovato negli scavi archeologici di Pompei: statue, affreschi, suppellettili e anche giocattoli erotici, che ci fanno supporre che all'epoca questo tipo di raffigurazioni fossero comunemente diffuse. Come ulteriore conferma di ciò, nell'aprile del 2005 alcuni archeologi della Germania hanno notato un grosso disegno, di circa 7.000 anni fa, raffigurante un uomo che si piega sopra una donna nel tentativo di veder soddisfatte le proprie richieste sessuali. Tale figura è stata chiamata Adonis von Zschernitz.
 
Per molto tempo la pornografia è diventata bersaglio di lazzi e gag umoristiche o satiriche, tanto che nel 1920 furono pubblicati negli Stati Uniti d'America alcuni fumetti d'impronta comica che prendevano bonariamente in giro il mondo della pornografia. Il titolo era Le Bibbie di Tijuana. Nella seconda metà del XX secolo la pornografia si è evoluta negli Stati Uniti grazie ad alcune riviste specializzate per soli uomini, quali ad esempio Playboy e Uomo moderno (entrambe fondate nel 1950). Questi periodici hanno ritratto donne famose completamente nude. Dal 1960 in poi queste riviste hanno cercato una forma di raffigurazione sessuale più esplicita. Tale ricerca è terminata negli anni novanta, quando erano ormai inseriti articoli e immagini riguardanti l'amore lesbico, l'omosessualità, la penetrazione, il sesso di gruppo e il feticismo sessuale.
 
Pornografia e censura
 
L'origine du monde di Gustave Courbet
L'opportunità di censurare o meno le raffigurazioni pornografiche è da sempre all'origine di dibattiti etici e sociali. I favorevoli alla censura credono che un'azione legislativa più severa renderebbe la pornografia un fenomeno meno diffuso, mentre i contrari alla censura sostengono che l'autodeterminazione dell'individuo non dovrebbe essere limitata per legge (fatti salvi i casi più aberranti). Inoltre spesso ciò che un tempo era considerato pornografico o scandalistico con le mutazioni dei costumi della società non è più considerato tale. Per esempio, tratti del Decamerone di Giovanni Boccaccio (che fu addirittura inserito nell'Indice dei libri proibiti dalla Chiesa cattolica) e del romanzo di David Herbert Lawrence L'amante di Lady Chatterley (1928), che fu considerato nell'anno in cui fu pubblicato "osceno e offensivo al comune senso del pudore".
 
Una questione rilevante nel dibattito sulla censura riguarda il ruolo della pornografia nella trasmissione e nella riproduzione di forme di oppressione e violenza nei confronti della donna o di altre figure, come di un uso puramente mercantile del corpo umano. Uno degli aspetti maggiormente rimproverati alla pornografia è l'eccessivo utilizzo del sadismo.
 
Ad esempio, in Giappone la legge non pone limiti al tipo di argomenti o di storie, ma proibisce di mostrare gli organi genitali al pubblico: per questo motivo nei film pornografici e nelle riviste, compresi anime e manga, i genitali sono censurati con vari artifici grafici.
 
Forme di pornografia
 
Rappresentazione pornografica cinese
 
Le forme più diffuse della pornografia sono foto che ritraggono persone in atteggiamenti sessuali espliciti, immagini di rapporti sessuali eterosessuali o omosessuali con due, tre o più persone coinvolte.
 
La stampa dedicata alla pornografia è un mercato composto da centinaia di pubblicazioni periodiche, come ad esempio Penthouse, Hustler, Private e altre. Altre riviste sono in forma di fotoromanzo porno.
 
Pubblicazioni di notevole successo commerciale sono i fumetti porno che in Italia e Giappone sono disegnati da fumettisti di fama mondiale. Fra i maggiori autori italiani in questo campo troviamo Guido Crepax, Milo Manara e Giovanna Casotto.
 
Cinema
Exquisite-kfind.png Lo stesso argomento in dettaglio: cinema pornografico.
La cinematografia ha sempre avuto interesse per la pornografia, ma ha trovato ostacoli nelle legislazioni delle varie nazioni. Il genere del cinema porno è tuttora un notevole affare commerciale nelle nazioni dove è consentito.
 
Letteratura, musica e arte
Esistono forme artistiche con contenuti erotici da alcuni assimilate alla pornografia in letteratura (valgano per tutti gli esempi di La chiave, dello scrittore giapponese Junichiro Tanizaki, tutta la bibliografia del Marchese de Sade e la letteratura popolare inglese che ha preceduto il romanzo Moll Flanders di Daniel Defoe), nei fumetti (che può assumere denominazioni diverse di Paese in Paese), nell'arte (La fornarina di Raffaello), nella poesia (Catullo, Marziale, Tibullo, Properzio, Ovidio, Gabriele D'Annunzio e il "divino" Aretino) e nella musica (ad esempio, il brano allora giudicato scandaloso Je t'aime... moi non plus di Serge Gainsbourg e Jane Birkin).
 
Nella pittura e nella fotografia numerosissimi sono i casi di nudità al confine con la pornografia.
 
Pornografia e internet
La grande disponibilità di pubblico e l'economicità del mezzo rendono internet un mezzo molto usato per la distribuzione e la fruizione di materiali a contenuto pornografico. Di fatto con l'avvento di internet, soprattutto per la diffusione di sistemi quali il file sharing (condivisione di file) e video sharing (condivisione di video), la pornografia è divenuta immediatamente e anonimamente disponibile ovunque e per chiunque. L'ultima conseguenza di questo fenomeno ha innanzitutto mitigato il generico sentimento di condanna di fronte a questa forma espressiva, mentre dall'altro ha agevolato l'esplosione o larghissima diffusione di fenomeni quali il genere "amatoriale", consistente nella realizzazione di foto e video di carattere porno-erotico ritraente persone comuni (spesso gli stessi soggetti autori del prodotto). Oltre al file sharing, altro canale principale di distribuzione della pornografia via internet è rappresentato dai siti a pagamento, un'attività sempre più lucrosa per i produttori di materiale professionale che stanno privilegiando il web ai canali di distribuzione classici quali edicole, videoteche e sexy shop.
 
Grazie alla rete si sta sempre di più affermando quello che alcuni autori definiscono neoporn, mentre vanno diffondendosi il flashgame per adulti, ovvero giochi elettronici, le cui situazioni (pur variando dalla commedia alla fantasia) mantengono un carattere dichiaratamente pornografico. Grazie alla divulgazione di spettacoli a pagamento e non, attraverso la trasmissione in webcam (molto diffusa in tutto il web), si dà la possibilità di assistere a spettacoli porno e comunicare via chat con chi si sta esibendo in quel momento. Uno studio endocrinologico dell'Università di Padova ha correlato all'uso della pornografia, tra i giovani che ne fanno un uso massiccio in rete, il calo del desiderio sessuale e dell'eiaculazione precoce, nonché in alcuni casi disturbi come ansia sociale, depressione, ansia da prestazione, DOC e ADHD.[3] Generalmente è possibile che in alcuni individui si creino meccanismi di dipendenza psico/fisica da pornografia, alla stregua di qualsiasi altro tipo di dipendenza da sostanza.[4] La ricerca di novità e la sua messa in atto permessa dalla quantità infinita di materiale disponibile e accessibile per chiunque genererebbe scariche di dopamina sui neurotrasmettitori, rendendoli meno sensibili e quindi portando ai disturbi sopra citati.
 
Femminismo e pornografia
 
Lampada a olio di epoca romana raffigurante un rapporto sessuale
Nei movimenti femministi si individuano due posizioni contrapposte riguardo alla pornografia. Le femministe a essa favorevoli, come la sociologa della Northwestern University di Chicago Laura Kipnis, considerano la pornografia un aspetto positivo e cruciale della rivoluzione sessuale che ha portato alla liberazione della donna, contrariamente alla morale dei conservatori, che la vedono invece come oppressiva per le donne.
 
Invece secondo l'altra posizione, rappresentata soprattutto dalla giurista Catharine MacKinnon della University of Michigan Law School, la prospettiva "liberazionista" della pornografia è puramente illusoria: anzi essa, ponendo l'esposizione della sessualità della donna al centro del suo fuoco, la danneggia sotto vari aspetti: innanzitutto sostenendo una ecologia culturale sessista che si compiace di ridurla a oggetto e merce sessuale e di trasmetterne un'immagine degradata. In secondo luogo essa si rende spesso causa o concausa di danni a persone specifiche sia in fase di produzione (donne forzate a posare, o riprese senza loro reale consenso alla produzione o circolazione del materiale pornografico), sia dopo, attraverso le modalità della diffamazione o della molestia, o ancora fornendo una spinta verso l'aggressione sessuale in persone predisposte.
 
Per queste ragioni certi gruppi di femministe si sono spinte a boicottare alcune manifestazioni pornografiche, sia cinematografiche sia letterarie. La contestazione più curiosa è avvenuta a Napoli nel 2000: un gruppo di femministe battagliere ha scaraventato dei pomodori contro Tinto Brass, nonostante il fatto che il regista non si occupasse di pornografia, ma il suo genere di riferimento ascrivibile al softcore e più nello specifico ai film erotici.
 
Pedopornografia e pornografia minorile
Exquisite-kfind.png Lo stesso argomento in dettaglio: pedopornografia e pornografia minorile.
La pedopornografia è la pornografia in cui sono raffigurati soggetti in età pre-puberale. Si tratta dunque di materiale pornografico destinato a individui affetti da pedofilia, ossia la devianza sessuale che consiste nell'attrazione sessuale per i bambini. La pedopornografia viene tuttavia spesso erroneamente confusa con la pornografia minorile, ossia il materiale pornografico in cui sono coinvolti individui che, pur non avendo ancora raggiunto la maggiore età, hanno già subito le trasformazioni fisiche e mentali proprie della pubertà o che hanno comunque raggiunto l'età del consenso. Tale confusione nasce probabilmente dal fatto che in molte legislazioni viene considerata illegale e punita non solo la pedopornografia in quanto tale, ma più in generale qualsiasi forma di pornografia minorile, ossia la produzione, distribuzione e detenzione di materiale pornografico coinvolgente minori.
 
In Italia la detenzione, la diffusione e la produzione di pornografia minorile sono punite secondo gli articoli 600 e seguenti del codice penale. È da notare a questo proposito che in diversi ordinamenti è punita anche la produzione e successiva detenzione di materiale non destinato alla diffusione (cfr. l'eventuale caso di minori che riprendano volontariamente le proprie esperienze sessuali).
 
Bisogna tuttavia considerare che il raggiungimento della maggiore età è diverso da Paese a Paese (dai quattordici ai sedici anni ai diciassette, diciotto e ventuno, arrivando fino ai ventitré anni), ragion per cui è possibile che un prodotto pornografico coinvolgente attori diciottenni, perfettamente legale in una nazione, sia illegale in un'altra e viceversa. In altri casi la soglia di età per cui immagini di nudo o pornografiche venivano considerate pedopornografia è stata elevata a più riprese, per cui materiale legale e presente in commercio alcuni decenni prima è poi divenuto illegale (cfr. ad esempio la Gran Bretagna dove il Protection of Children Act del 1978 ha definito "bambini" tutte le persone sotto i sedici anni, modificato poi dal Sexual Offences Act del 2003 che ha alzato lo spartiacque fino ai diciotto anni). Allo stesso modo alcune nazioni differenziano le età da cui sono permessi il semplice nudo, rispetto a quelle in cui sono permesse le rappresentazioni di atti sessuali espliciti.
 
La pornografia secondo la Chiesa cattolica
La morale cattolica fin dal Medioevo condanna la pornografia, considerata un atto che lede la dignità della persona degradandola. Ecco come si esprime al riguardo il Catechismo della Chiesa cattolica:
 
« La pornografia consiste nel sottrarre all'intimità dei propri compagni gli atti sessuali, reali o simulati, per esibirli deliberatamente a terze persone. Offende la castità perché snatura l'atto coniugale, dono intimo degli sposi l'uno all'altro. Lede gravemente la dignità di coloro che vi si prestano (attori, commercianti, pubblico), poiché l'uno diventa per l'altro l'oggetto di un piacere rudimentale e di un illecito guadagno. Immerge gli uni e gli altri nell'illusione di un mondo irreale. È una colpa grave. Le autorità civili devono impedire la produzione e la diffusione di materiali pornografici.
 
 


#139 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 04 gennaio 2017 - 02:39

Le arti marziali
 
Young_boxers_fresco,_Akrotiri,_Greece.jp
 
Le arti marziali delle grandi tradizioni orientali suscitano un grande interesse e curiosità anche in occidente e ciò spinge a porsi la domanda: hanno avuto un'influenza sulle nostre radici culturali e quando e dove ebbero origine?
Uno dei primi elementi che viene alla luce è che queste si sono diffuse per tutto l’Estremo Oriente, ma nell'antichità apparentemente non sono mai state praticate in Europa, neppure nell’area del Mediterraneo, dove si erano stabiliti dei contatti con l’Oriente già prima che fiorisse l’Impero romano. Le descrizioni delle tecniche di combattimento occidentali del passato infatti non fanno riferimento a tecniche praticate a est dell’India. La lotta e il pugilato di greci e romani, sebbene violenti, avevano soltanto qualche rassomiglianza con i loro corrispettivi orientali. I Greci praticavano una forma di lotta particolarmente violenta, il pancrazio, che finiva con la sottomissione o la morte del vinto. I gladiatori romani si servivano di abili tecniche di combattimento, si addestravano in scuole speciali, ma, nonostante si trattasse di una tecnica sofisticata, la lotta fra gladiatori divenne un vero e proprio spettacolo, staccandosi così da ciò che s’intende per arte marziale.
 
Per quanto riguarda l'origine, forse la testimonianza più antica potrebbe essere costituita da due statuette babilonesi datate fra il 3000 e il 2000 a.C. L’una rappresenta un uomo con la mano nella caratteristica posizione di parata, l’altra mostra due uomini che lottano tenendosi l’un l’altro per la cintura, una forma di combattimento simile al Sumo, ancora oggi popolare in Giappone.
 
Non esistono altre prove che le arti marziali siano nate in Mesopotamia, tranne la considerazione che lì ha avuto origine una civiltà che avrebbe esercitato una forte influenza sia a oriente sia a occidente. I Cinesi già si divertivano alle esibizioni di acrobati indiani e del Mediterraneo orientale, molto prima che le vie della seta divenissero il percorso commerciale tra la Cina imperiale e Roma. In un certo senso è ancora evidente la stretta relazione tra i movimenti degli acrobati e quelli di chi pratica le arti marziali, come è altresì lunga la tradizione di correlazioni tra le tecniche di combattimento e quelle di spettacolo.
 
Quello che è certo è che l’arte marziale che giunse per prima in Oriente dalla Mesopotamia era molto primitiva e incominciò a evolversi in India e in Cina fino a culminare nelle sofisticate tecniche di oggi. Le tecniche di respirazione, allora sviluppate, sono tuttora pratiche proprie delle religioni del Medio Oriente, oltre a essere fondamentali negli esercizi yoga e in quelli cinesi per la longevità che costituirono probabilmente l’odierno Tai chi chuan .
 
La leggenda
 
Una leggenda narra d’un monaco indiano, chiamato Bodhidharma , giunto al tempio di Shao Lin (ai piedi dei monti Song Shan, nel regno di Wei, in Cina), che insegnava un approccio nuovo al buddismo, più diretto, che comprendeva anche lunghi periodi di stasi meditativa. Per aiutarli a sopportare le lunghe ore di meditazione, insegnò loro tecniche di respirazione ed esercizi per sviluppare la forza e le capacità di autodifesa nelle zone montuose dove vivevano. 
Si ritiene che da questi insegnamenti sia nato il dhyana o scuola meditativa del buddismo, chiamata Chan dai cinesi e zen dai giapponesi. La tecnica di combattimento conosciuta come Shaolinquan , o "lotta del tempio di Shao Lin" , si basa probabilmente sui suoi esercizi. Si pensa che molte tecniche di combattimento cinesi e giapponesi derivino da questa tradizione.
 
Esistono molti dubbi sull’attendibilità di questa leggenda tuttavia, fin dall’antichità, meditazione ed esercizi marziali furono aspetti complementari del buddismo; l’uno passivo e statico, l’altro attivo e dinamico.
 
I libri in cui sono contenuti gli insegnamenti di Bodhidharma furono scritti tutti dopo la sua morte, inoltre tutte le testimonianze del tempio di Shao Lin andarono bruciate nel 1928, ed è molto improbabile che si possano trovare altri documenti che vedano Bodhidharma come il patriarca del Chan e delle arti marziali; ciò nonostante i suoi insegnamenti vivono tramite i praticanti delle arti che si dice abbia fondato.
 
L'ideologia, i valori
 
Ma la nascita di un’arte marziale non si fonda soltanto sulla pratica di certe tecniche e sulla resistenza fisica. Esiste un contenuto ideologico, una serie di valori che si basa su una specifica visione del mondo e del posto dell’uomo all’interno di esso. Si ritiene che il buddismo zen e le arti marziali abbiano avuto un fondatore comune, così come risultano strettamente connesse anche la loro filosofia e la loro evoluzione storica.
 
È nella prima metà del secondo millennio a.C. che vissero i due più grandi filosofi cinesi. Confucio, che ci ha lasciato la sua teoria sull’uomo e sulla società intorno al 500 a.C., e Lao Ce che si pensa abbia esposto la sua visione mistica dell’uomo e del tao, o ‘via della natura’, intorno al 300 a.C. Il taoismo è particolarmente importante per la storia delle arti marziali cinesi, anche se le arti taoiste si sono diffuse all’esterno dell’Asia cinese solo in tempi recenti.
 
Anche la filosofia del buddismo, fondata dal principe Gautama Siddharta Buddha, nato nell’India nord-orientale verso il 560 a.C., ha profondamente influenzato le scuole d’arti marziali di tutti i paesi in cui s’è diffusa, in Cina come in Giappone, in India come nel Sud-est Asiatico.
 
A livello filosofico le dottrine del buddismo, del confucianesimo e del taoismo sono state riconosciute come le basi filosofiche delle tradizioni marziali non solo indiane e cinesi, ma di tutta l’Asia.
 
Pubblicità
Le arti segrete
 
Un altro elemento particolare è la constatazione che qualunque studio sulla storia delle arti marziali è costretto a essere poco più che una speculazione basata su pochi fatti, i maestri d’un tempo infatti non rivelavano facilmente il loro sapere. A pochi veniva concesso di dividere con loro tecniche e conoscenze accumulate in anni di dedizione. Si racconta di giovani che attesero per anni l’onore di accedere ai luoghi di pratica e a cui, una volta entrati, fu proibito di dividere con altri questa loro esperienza. 
In molte scuole la pratica si svolgeva in assoluta segretezza e la stessa esistenza della scuola era spesso tenuta nascosta alle autorità. Le tecniche di combattimento tradizionale non venivano quasi mai trascritte, ma trasmesse a voce solo a coloro che giuravano di mantenerne il segreto. Per esempio, il Tai chi chuan si basa su principi teorici di circa duemila anni fa, anche se non fu mai trascritto prima del 1750.
 
Questa tradizione di segretezza rende estremamente difficile qualunque ricerca nel campo delle arti marziali.
 
Le applicazioni delle arti marziali e le loro implicazioni filosofiche
 
Le arti marziali si sono evolute in due forme applicative: come strumento di lotta e come mezzo di comunicazione sociale.
 
La prima applicazione è sempre stata la più comune e anche impressionante. Dato il tipo mortale di strumenti nei combattimenti con le armi, ma anche il modo potenzialmente pericoloso in cui il corpo umano veniva usato, è facile qualificare come prima applicazione l’antico dilemma dell’uomo posto di fronte ad un altro uomo in combattimento: vincere o perdere, sconfiggere o venir sconfitto, soggiogare o venire soggiogato, uccidere o essere ucciso. Questa dimensione derivava da un ambiente estremamente ostile dove era necessario garantirsi la sopravvivenza.
 
La seconda applicazione era intesa come forma di comunicazione sociale, modellata dalle sequenze precise di un rituale, dove gesti e armi erano usati simbolicamente per esprimere un’idea, evocare una tradizione, alleviare le paure dell’uomo. In questo senso divenne uno spettacolo e assorbì le nobili arti della tradizione: ad esempio l’arte dell’arco ancora oggi viene usata come cerimonia, ma esistono numerosi esempi di dimostrazioni legate alla religione o ai dignitari come il Sumo, o i kata (esercizi formali) del Karate .
 
L’evolversi di queste discipline in qualcosa di ben più complesso dell’esercizio ginnico per lo studio dell’hara  ( punto di equilibrio, sorgente del soffio vitale) e del ki  (energia vitale), trasformarono le arti marziali in metodi d’integrazione universale che si prefiggevano il conseguimento di una posizione equilibrata nel centro della realtà e una partecipazione alla sua energia coordinata e illimitata, intesa a perfezionare l’evoluzione della personalità di un uomo. La cultura e la filosofia dell’arte marziale influenzano l’una e l’altra. 
Per comprenderle più profondamente occorrerebbe conoscere le distinzioni tra i differenti retroterra delle varie arti, come il taoismo e il buddismo in Cina, lo zen e lo shintoismo in Giappone, che sono alla base di atteggiamenti e di pratiche nelle arti marziali.
 
Arte marziale come disciplina di vita
 
Attraverso la pratica marziale i Maestri di queste discipline hanno imparato a condurre una vita semplice, a nutrire un profondo rispetto e amore per il prossimo.
 
"La via del guerriero è una via che ha un cuore, perché è una via che passa attraverso la fatica e la sofferenza dell’evoluzione personale per andare verso la ‘centratura’ del guerriero su se stesso".
 
Citava Musashi   una “Visione serena dei doveri” nel senso di accogliere l’esercizio dei propri doveri come occasione di miglioramento, nell’esercizio delle Arti ma anche nel quotidiano. L’affinare spirito e volontà è dovuto in ogni occasione: la pratica è solo una parte dell’allenamento complessivo dell’individuo. Disciplina, sacrificio e generosità hanno ragione d’essere per influenzare il quotidiano. Chi pratica queste discipline deve possedere una volontà di ferro, un’energia e una forza eccezionali e fare continuamente pratica per raggiungere la perfezione. 
Così la via diventa via, attraversamento di emozioni e di energie sempre nuove e sempre in rinnovamento, all’interno del quale la pratica marziale si risolve in un piano di realtà più alto.
 
 
 

 



#140 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 11 gennaio 2017 - 07:00

La neve
 
200px-Snow_crystals_2b.jpg
 
La neve si forma nell'alta atmosfera quando il vapore acqueo, a temperatura inferiore a 5 °C, brina attorno ai cosiddetti germi cristallini passando dallo stato gassoso a quello solido formando cristalli di ghiaccio i quali cominciano a cadere verso il suolo quando il loro peso supera la spinta contraria di galleggiamento nell'aria e raggiungono il terreno senza fondersi. Questo accade quando la temperatura al suolo è in genere minore di 2 °C (in condizioni di umidità bassa è possibile avere fiocchi al suolo anche a temperature lievemente superiori) e negli strati intermedi non esistono temperature superiori a 0 °C dove la neve possa fondere e diventare acquaneve o pioggia.
 
Tuttavia, in presenza di uno o più dei seguenti fattori:
 
violente precipitazioni,
violenti moti verticali,
bassa umidità,
aria estremamente gelida in quota,
la neve può cadere, anche se per brevi periodi, con temperature positive superiori ai 2 °C (se l'aria nei bassi strati è abbastanza secca la neve può giungere al suolo anche con temperature lievemente superiori). Se la temperatura lo consente, è possibile produrre neve artificiale con cannoni appositi, che tuttavia creano piccoli granelli più simili a neve tonda che non a neve propriamente detta.
 
In generale quindi per l'occorrenza del fenomeno nevoso conta non solo il campo termico al suolo, ma anche quello degli strati atmosferici compresi tra la nube e il suolo: la neve infatti può anche non cadere alle temperature proprie suddette in presenza di precipitazioni ovvero giungere sotto forma di pioggia pur a temperatura del suolo sottozero: questo accade a volte quando si è in presenza di una forte inversione termica caratterizzata da strati superiori dell'atmosfera a temperatura positiva all'interno del quale cristalli e fiocchi fondono tramutandosi in acqua liquida; quando quest'acqua sotto forma di pioggia raggiunge il suolo gela quasi istantaneamente a contatto con il suolo ghiacciato portando alla formazione del pericolosissimo gelicidio.
 
Allo stesso modo, anche una prolungata omotermia verticale con temperatura costante di poco superiore allo zero sfavorisce la caduta di neve facendo fondere i fiocchi in caduta. Anche alti livelli di umidità relativa con temperature al suolo di poco superiori allo zero sfavoriscono la caduta al suolo di neve perché aumenta la conducibilità termica dell'aria, la quale fa fondere più velocemente i cristalli di ghiaccio in caduta. Spesso al riguardo la precipitazione può cominciare sotto forma di neve e poi tramutarsi in pioggia proprio per l'aumento dell'umidità relativa al suolo in conseguenza della fusione della neve stessa, nonostante l'assorbimento del calore latente durante questo passaggio di stato fisico. Altre volte accade il contrario: le precipitazioni possono iniziarsi sotto forma di pioggia per poi convertirsi in neve al calo della temperatura per precipitazioni o al dissolvimento dello strato di inversione/omotermia per sopraggiunta aria fredda in quota.
 
Tipi di precipitazioni nevose[modifica | modifica wikitesto]
File:Snowing video samye ling 1.ogg
Video di precipitazione nevosa
 
Bufera del 5 febbraio 2012; Romagna occidentale
A larghe falde: è la più comune e consiste in fiocchi di neve di medie e grandi dimensioni e si verifica con temperature dagli 0 °C in su e con livelli medio-alti di umidità. La velocità di caduta, in assenza di moti convettivi verticali, risente delle dimensioni dei fiocchi.
A piccole falde: è una forma di precipitazione nevosa sotto forma di piccoli fiocchi che avviene con basse temperature (qualche grado sotto zero) e bassi livelli di umidità. La velocità di caduta è maggiore rispetto alla neve a larghe falde e dà spesso luogo a fitte nevicate. Spesso dà luogo al suolo ad accumuli di neve secca e farinosa.
Neve a pioggia: espressione tipica del Mezzogiorno per indicare una neve con grandi fiocchi e molto fitta che di solito si ha a temperature moderatamente alte (1 grado o 2). La velocità di caduta è maggiore rispetto alla grandine.
Neve tonda: fiocchi di neve che, attraversando uno strato dell'atmosfera a temperatura lievemente positiva, vanno ad ampiarsi infinitamente su sé stessi o i cristalli a perdere le punte arrotondando i loro bordi e prendendo così una forma più sferica.
Gragnola: neve finissima e leggera, che è formata da cristalli di neve circondati, individualmente, da uno strato trasparente di ghiaccio simile per molti versi alla grandine; cade generalmente a temperature di qualche grado sopra lo zero e con forte instabilità atmosferica cioè con aria fredda in quota e marcate correnti convettive.
Acquaneve: caduta di fiocchi parzialmente fusi in pioggia.
Tormenta o bufera: tempesta di neve intensa spesso accompagnata da vento come ad esempio il blizzard.
Nevischio: debole caduta di fiocchi di piccole dimensioni.
Polvere di diamante: è una precipitazione nevosa, generalmente poco abbondante, sotto forma di finissimi cristalli di ghiaccio non aggregati tra loro, che si verifica in presenza di bassissime temperature e bassi livelli di umidità, ovvero si forma per brinamento diretto del vapore acqueo non necessariamente in nube, ma anche nei bassi strati atmosferici. È tipica delle steppe siberiane in corrispondenza di forti irruzioni di aria fredda polare.
Scaccianeve: non è propriamente una precipitazione, bensì una forte tempesta di vento, che solleva la neve già caduta al suolo in mulinelli simili a una vera tormenta.
A queste si aggiunge infine la cosiddetta neve chimica che si forma occasionalmente in presenza di forte inquinamento atmosferico in combinazione a temperature sotto lo zero ed alta umidità.
 
Il nevone è una precipitazione nevosa particolarmente intensa, che ricopre qualunque cosa
 
Tipi di neve al suolo
 
Cristallo di neve al microscopio ottico
Una volta caduta al suolo la neve tende a compattarsi sotto il proprio peso in misura tanto maggiore e veloce quanto più spessa e umida è la coltre nevosa e tanto maggiore è l'eventuale fusione potendo subire anche altri processi in relazione alle condizioni ambientali. La neve al suolo può essere classificata come segue:
 
Imbiancata: leggera caduta di neve, quanto basta a ricoprire in modo disomogeneo il terreno.
Leggera e polverosa: quando è appena caduta se si è sotto zero e con poca umidità dell'aria.
Pesante: quando la temperatura va sopra lo zero, la neve diventa umida e un po' più pesante.
Grande e pesante: se si è sopra zero, i fiocchi si uniscono in agglomerati più grandi e a terra la neve diventa molto pesante e facilmente compattabile, la migliore per fare le palle di neve.
Ghiacciata: quando la temperatura scende successivamente sotto zero la neve ghiaccia e prende la consistenza di polvere mista a ghiaccio, scarsamente umida e quindi difficilmente compattabile e inutilizzabile per costruzioni o palle di neve; è il caso ad esempio della neve brinata senza crosta.
Trasformata: successivi passaggi sopra e sotto lo zero portano la neve a divenire molto compatta, quasi come in pista, spesso anche con crosta di rigelo, e questo è il tipo di neve che si trova a volte in primavera.
Con crosta: il vento e l'umidità a esso associata e/o successivi passaggi sopra e sotto lo zero formano una crosta molto rigida e spessa sopra la neve polverosa, meno spessa sulla neve più molle. Tale strato ghiacciato si associa spesso al vetrone.
Un ultimo tipo di neve al suolo è la neve artificiale, che si ottiene attraverso tecniche di innevamento artificiale.
 
Geometria
 
Diverse geometrie dei cristalli di neve
Una domanda interessante è perché i bracci dei cristalli di neve che formano i fiocchi siano perfettamente simmetrici e allo stesso tempo non ci siano due cristalli di neve identici. La risposta risiede nelle differenti condizioni ambientali che due cristalli diversi posti a una certa distanza tra loro subiscono durante il processo di formazione, accrescimento e caduta ovvero nel fatto che la distanza "tra" i cristalli di neve è molto maggiore di quella "interna" al medesimo cristallo di neve.
 
Data la simmetria iniziale esagonale della struttura cristallina del ghiaccio comune (derivante direttamente dalla struttura molecolare dell'acqua), i bracci del cristallo di neve crescono indipendentemente in un ambiente che è ritenuto spazialmente e temporalmente molto variabile in termini di temperatura, umidità e così via. Questo ambiente è ritenuto relativamente omogeneo nello spazio di un singolo fiocco e questo porta i bracci a crescere in modo molto regolare e simmetrico, rispondendo in modo uguale a un ambiente uguale, come alberi non imparentati tra loro rispondono ai cambiamenti ambientali facendo crescere serie simili di anelli nel tronco. La differenza nell'ambiente anche minima in termini di temperatura e soprattutto umidità dell'aria su scale spaziali più grandi di quelle di un singolo cristallo di neve conduce alla mancanza di uguaglianza osservata tra le forme di due o più cristalli differenti.
 
Un ulteriore dato che contribuisce a rendere ancora più convincente la teoria dell'inesistenza di due cristalli di neve identici è il fatto che ogni fiocco è composto da miliardi di molecole d'acqua, e le differenze combinazioni possibili di fiocchi che si possono formare da questi miliardi di molecole creano un numero di cristalli di neve diversi incredibilmente grande.
 
Naturalmente il concetto che due cristalli di neve non possano assolutamente essere uguali è un'iperbole teorica. Infatti è perfettamente possibile, anche se improbabile, che due cristalli possano essere identici, a patto che le condizioni ambientali siano quasi identiche: sia che i cristalli crescano abbastanza vicini l'uno all'altro sia anche per puro caso. La Società Meteorologica Americana ha riportato che due cristalli identici sono stati trovati da Nancy Knight del Centro Nazionale per la Ricerca Atmosferica il 1º novembre 1986[2]. I cristalli non erano "fiocchi" dendritici nel senso comune del termine, ma piuttosto semplici piastre esagonali prismatiche.
 
Uso come simbolo
 
Cristallo di neve stilizzato
Il simbolo del cristallo di neve, chiamato anche fiocco di neve, è spesso associato al concetto di inverno, ghiaccio, neve o temperature al di sotto del punto di congelamento. Ad esempio gli pneumatici invernali riportano questo simbolo.
 
Un cristallo di neve stilizzato è stato anche usato come simbolo dei XIX Giochi olimpici invernali a Salt Lake City, Utah.
 
Nello standard Unicode sono codificati tre differenti simboli del cristallo di neve:
 
snowflake U+2744 ();
tight trifoliate snowflake U+2745 (❅);
heavy chevron snowflake U+2746 (❆).
Il colore della neve
 
Nevicata, borgo medievale di Sasso Pisano
Al nostro occhio la neve appare bianca, anche se è composta da cristallini di ghiaccio trasparenti come l'acqua. Essa appare bianca perché ogni raggio di luce che attraversa un cristallo di neve viene leggermente riflesso; così, di cristallo in cristallo, la luce continua a essere riflessa e deviata fino a riemergere in una direzione casuale (riflessione diffusa). Così il raggio di luce che perviene all'occhio è una somma di tutta la luce che è emessa in quella direzione, ed è composta dalla somma di tutti i colori dello spettro, dato che i cristallini di ghiaccio non assorbono alcun colore. Ai nostri occhi arrivano così tutti i colori di partenza, e di conseguenza percepiamo il colore bianco che ne è la somma.
 
Inoltre, poiché quasi tutta la luce che entra viene restituita, il manto nevoso appare spesso abbagliante. Lo stesso fenomeno si presenta con ogni polvere che non assorba troppa luce: una strada sterrata polverosa appare biancastra, ma se piove diventa scura.
 
Nelle precipitazioni nevose dell'Europa meridionale, si può talvolta notare una leggera colorazione rosa a strati nella neve caduta: è la sabbia che arriva con il vento dal Sahara.
 
Occorrenza della neve
 
Nevicata primaverile a Lamon
 
Neve a Firenze
Le nevicate possono variare in durata e posizione geografica, in funzione di alcuni fattori geografici come la latitudine, l'altitudine, l'orografia e altri che condizionano il tempo meteorologico in generale.
 
Di solito le nevicate a bassa quota sono rare nelle regioni al di sotto dei 35° di latitudine e sulle coste occidentali dei grandi continenti, essendo più esposte ai venti di Ponente tipici delle medie latitudini e provenienti in questo caso dall'oceano, più caldo della terraferma durante l'inverno.
 
Le zone più inclini alla neve alle medie latitudini sono le zone di montagna durante il periodo invernale, ma episodi nevosi possono verificarsi anche in collina e pianura specie in corrispondenza di ondate di freddo, mentre diventa un fatto abituale a tutte le quote salendo di latitudine verso i poli.
 
Alcune cime montuose hanno una copertura perenne di neve, come quelle Himalayane e dell'Asia centrale al di sopra dei 5.000 metri, quelle Andine dai 3000–5000 m in su, le montagne più elevate in Canada e Alaska, quelle Alpine dai 3.000 metri in su e i monti Kilimangiaro, Ruwenzori e Monte Kenya in Africa, e il Puncak Jaya in Indonesia, pur essendo questi prossimi all'Equatore. Invece molte zone polari hanno precipitazioni molto scarse e quindi relativamente poca neve, nonostante il clima gelido.
 
Alle medie latitudini risultano particolarmente abbondanti le nevicate primaverili e quelle autunnali alle quote medio-alte, mentre frequenza e intensità tendono a diminuire all'aumentare del freddo a causa della diminuzione di umidità assoluta.
 
Effetti al suolo
La neve può facilmente accumularsi al suolo se le temperature sono sufficientemente basse (non più di 1 °C) e/o se la nevicata è particolarmente intensa: tipicamente come riferimento si ha che un millimetro di acqua fusa corrisponde a un centimetro di neve fresca subito dopo la nevicata (leggermente meno se la neve è secca e a fiocchi piccoli), con il manto nevoso che tende poi ad assestarsi sotto il proprio peso (tanto più è spesso e umido) e l'eventuale fusione. Lo spessore del manto può raggiungere anche diversi metri come accade nelle zone più nevose al mondo e con accumuli duraturi per tutto l'inverno in montagna.
 
Effetto albedo
La neve al suolo crea inoltre il cosiddetto effetto albedo ovvero riflette in massima parte la radiazione solare incidente contrastandone così l'assorbimento da parte del terreno; questo fatto unito al calore di fusione assorbito dalla neve durante l'eventuale fusione favorisce un riscaldamento termico minore dello strato atmosferico a contatto con essa col risultato che zone coperte di neve si riscaldano molto meno e si raffreddano molto più velocemente di zone non coperte da essa. È il presupposto che favorisce estese e intense gelate notturne tali da produrre a volte estremi record negativi. Tale effetto oltre che a scala meteorologica è alla base anche di alcuni meccanismi di retroazione in campo climatico (feedback ghiacci-albedo-ghiacci).
 
Funzione biologica, idrologica e idrogeologica
La neve accumulata al suolo ha l'importante funzione biologica di proteggere il terreno sottostante dalle gelate, mentre sul fronte idrologico la sua lenta fusione al disgelo consente una maggiore infiltrazione dell'acqua nel terreno permettendone l'accumulo in falde acquifere e riserve idriche, diversamente dalle precipitazioni liquide che, se troppo intense e durature, riversano al suolo ingenti quantitativi d'acqua che il terreno non è in grado di assorbire e che dunque fluiscono direttamente in torrenti, fiumi e laghi. Ne consegue dunque che la neve riduce drasticamente anche il rischio idrogeologico su un dato territorio in corrispondenza di eventi precipitativi intensi.
 
Dalla neve al ghiaccio
La neve accumulata al suolo può seguire due strade: fondersi nei periodi più caldi come primavera ed estate oppure conservarsi tale se le temperature rimangono costantemente sotto lo zero. In questo caso, che avviene al di sopra del cosiddetto limite delle nevi perenni cioè a partire da una certa quota altimetrica in su, variabile in funzione della latitudine, la neve comincia a seguire un ciclo di trasformazione che la trasformerà in ghiaccio grazie al processo di metamorfismo dei cristalli e al peso della neve soprastante espellendo l'aria contenuta negli interstizi e autocompattandosi progressivamente (firnificazione). Il ghiaccio così formatosi a partire dal 5º anno in poi va a formare il ghiacciaio.
 
Rischi
La neve può costituire un rischio per l'incolumità di infrastrutture e persone fisiche nel fenomeno delle valanghe. Danni da sovraccarico nevoso possono prodursi sui tetti, sulla vegetazione arborea o favorire la formazione di ghiaccio su germogli in primavera. Nevicate consistenti (tormente) spesso creano danni alle infrastrutture e costituiscono un ostacolo alla viabilità bloccando la circolazione e i servizi, talvolta anche in zone dove il fenomeno meteorologico accade con frequenza. Interruzione dell'elettricità, dei servizi telefonici e di altre infrastrutture di base sono comuni nel caso di tempeste di neve. Spesso scuole e altri uffici rimangono chiusi e alcuni centri abitati remoti rimangono isolati. La neve può anche creare dei rischi stradali, ma capita più spesso con il ghiaccio.
 
Funzione economica
Un importante settore del turismo e dell'economia dei paesi montani, fortemente legato alla presenza di neve, è rappresentato dal turismo invernale e dagli sport invernali praticabili nelle innumerevoli stazioni sciistiche presenti in tutto il mondo a beneficio degli operatori del settore (operatori impianti di risalita, operatori alberghieri, operatori di vendita/affitto attrezzature e ristoratori).
 
Record
 
Conifere innevate ad Arina
La maggior quantità di neve fresca caduta in una stagione invernale è stata misurata negli Stati Uniti al Monte Baker, dove nell'inverno 1998/99 sono caduti 2.895 cm di neve.
Il maggior spessore di neve fu misurato il 14 febbraio 1927 alla stazione meteorologica del Monte Ibuki in Giappone nella Prefettura di Shiga, al suolo c'erano ben 1.182 cm di neve.
Record battuto dal piccolo paesino molisano di Capracotta che con la nevicata del 5 marzo 2015 ha raggiunto i 256 cm (in poco meno di 18 ore).
Secondo il Guinness dei primati, il fiocco di neve più grande mai osservato e riferito ai media è stato di 38 cm di larghezza e 12 cm di spessore. Caduto nel Montana nel gennaio 1887.
 
 






Anche taggato con informazione, cultura, guinness, scienza

0 utente(i) stanno leggendo questa discussione

0 utenti, 0 visitatori, 0 utenti anonimi