Vai al contenuto


Le cose più strane e curiose nel mondo

informazione cultura guinness scienza

  • Per cortesia connettiti per rispondere
187 risposte a questa discussione

#61 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 08 agosto 2015 - 06:56

Disco vinile

 

Vinyl.jpg

Il disco in vinile, noto anche come microsolco o semplicemente disco o vinile, è un supporto per la memorizzazione analogica di segnali sonori. È stato ufficialmente introdotto nel 1948 negli Stati Uniti come evoluzione del precedente disco a 78 giri, dalle simili caratteristiche, realizzato in gommalacca. Attualmente il termine vinile viene spesso usato per indicare in particolar modo gli LP (dischi da 30 cm rotanti a 33⅓ giri al minuto), anche se tale utilizzo è improprio, visto che anche dischi di altri formati sfruttano lo stesso materiale come supporto.
 
Come il suo antenato, il vinile è una piastra circolare recante su entrambe le facce un solco a spirale (inciso a partire dal bordo esterno) in cui è codificata in modo analogico la registrazione dei suoni. Le migliori qualità del vinile (PVC) rispetto alla gommalacca permisero di ridurre lo spessore dei solchi, diminuire il passo della spirale e abbassare la velocità di rotazione da 78 a 33⅓ giri per minuto, ottenendo così una maggiore durata di ascolto, che raggiunse circa 30 minuti per facciata nei Long-Playing (LP), con punte massime di 38-40 minuti per lato, specie per le opere liriche.
 
Per la riproduzione sonora di un disco viene impiegato un giradischi collegato a un amplificatore. In genere i giradischi permettono di utilizzare dischi di diverso diametro e, per mezzo di un selettore, è possibile selezionare la velocità di rotazione.
 
Fino agli anni settanta del Novecento il vinile è stato il più diffuso supporto per la riproduzione audio di materiale pre-registrato, ma la sua preminenza è stata insidiata negli anni ottanta dalle musicassette e all'inizio degli anni novanta il vinile ha ceduto definitivamente al compact-disc (CD audio).
 
La produzione su larga scala di dischi in vinile è praticamente cessata nei primi anni novanta (in Italia fino al 1993). Dalla seconda metà degli anni duemila il disco in vinile è tornato negli scaffali dei negozi, essenzialmente come prodotto di nicchia. I dati di consuntivo 2011 stilati dall’istituto Nielsen SoundScan indicano, per gli LP in vinile, un aumento da 2,8 a 3,9 milioni di pezzi venduti negli USA.
 
"Una crescita folle", ha dichiarato Keith Caulfield, associate director per le classifiche del sito Billboard.com, "che trova il suo fondamento in un mercato dal potenziale non ancora pienamente sfruttato". "Il vinile", osserva Caulfield, "raggiunge due tipi di consumatori: quelli più anziani che lo ricordano con affetto e magari posseggono ancora un giradischi, e quelli più giovani a cui piace avere in mano una copia fisica del disco e ammirarne la copertina".
 
Anche in Italia la produzione e la vendita del vinile (ristampe in particolare) hanno ripreso quota. Molti sono gli artisti che stampano i loro lavori anche su vinile.
 
Questa sezione sugli argomenti musica e tecnologia è solo un abbozzo. Contribuisci a migliorarla secondo le convenzioni di Wikipedia. Segui i suggerimenti del progetto di riferimento.
Abbozzo tecnologia
Nel 1948 furono introdotti i dischi in vinile, che andarono a sostituire i vecchi dischi a 78 giri in gommalacca (vedi anche 78 giri), i quali presentano un solco di spessore e profondità minori (per questo detti anche "microsolco") e ruotando a velocità più bassa, consentono una maggiore durata di registrazione, riuscendo a raggiungere (e a volte a superare) nei 33 giri i 30 minuti a facciata.
 
Caratteristiche[modifica | modifica wikitesto]
I dischi sono stati prodotti in vari formati e con varie velocità di rotazione. Le tipologie più comuni sono:
 
diametro velocità di rotazione denominazione comune durata approssimativa
per facciata
pollici cm giri al minuto minuti
12 29,9 33 ⅓ Long playing (LP) o 33 giri 30
12 29,9 45 / 33 ⅓ Maxi Single, Mix, EP o 12" 15
10 25,4 45 / 33 ⅓ 10" o EP 10" 15
10 25,4 78 78 giri o Single-playing (SP) 3
7 17,8 45 / 33 ⅓ EP 7" 5 / 7
7 17,8 45 Singolo, 45 giri o 7" 3
 
Sono stati prodotti anche dischi con diametri diversi (per esempio 16 pollici usato in ambito radiofonico) e con velocità di rotazione diverse (16,6 giri al minuto) per ottenere una maggiore durata sebbene a scapito della fedeltà. I dischi a 16 giri furono prodotti per lo più negli anni cinquanta e sessanta, soprattutto negli USA. Le dimensioni di un 16 giri, contrassegnato dalla sigla LLP, sono le stesse di un LP 33 giri (12 o 10 pollici), la durata della riproduzione è di circa 60 minuti per facciata. In Italia la produzione di 16 giri fu scarsissima, la Durium e la Fonit adottarono questa velocità in alcune edizioni musicali.
 
I dischi a 78 giri e i primi dischi microsolco erano registrati con il segnale di un solo canale, erano perciò detti monofonici. Negli anni trenta venne ideata una tecnica che permetteva di incidere contemporaneamente due segnali su un'unica traccia, sfruttando oltre al movimento orizzontale dello stilo, fino ad allora utilizzato, anche quello verticale (profondità). Registrando il segnale di somma (destro + sinistro) con movimenti orizzontali e il segnale di differenza (destro - sinistro) con movimenti verticali dello stilo, fu possibile inscrivere nel solco entrambi i canali necessari ad una riproduzione stereofonica, mantenendo comunque la retrocompatibilità con i giradischi monofonici (dotati di fonorivelatore sensibile solo alle oscillazioni orizzontali della puntina). L'effetto di tale tecnologia, che non fu commercializzata fino agli anni sessanta e si affermò solo nel corso degli anni settanta, era la possibilità di riconoscere la provenienza spaziale dei suoni (destra, sinistra, ma anche l'immagine sonora virtuale centrale e di profondità).
 
Negli anni sessanta furono prodotti anche dischi quadrifonici che, grazie ad una tecnologia detta a matrice adottata nei circuiti, erano in grado di separare i segnali su quattro canali, dando all'ascoltatore l'impressione di essere letteralmente circondato dal suono (l'impianto riproduttore era dotato di due casse acustiche anteriori e due posteriori). Questa tecnica ebbe uno scarso successo commerciale, dovuto probabilmente alla diffusione minima ed agli alti costi dell'apparecchio riproduttore (in particolare delle testine con puntina in diamante con taglio Shibata, le uniche a permettere la riproduzione quadrifonica), in un'epoca in cui anche gli impianti in grado di riprodurre i soli dischi stereofonici erano ancora un lusso.
 
 
 


#62 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 11 agosto 2015 - 11:44

Fulmine
 
220px-Lightnings_sequence_2_animation.gi
In meteorologia il fulmine (chiamato anche saetta o folgore) è un fenomeno atmosferico legato all'elettricità atmosferica che consiste in una scarica elettrica di grandi dimensioni che si instaura fra due corpi con elevata differenza di potenziale elettrico.
 
I fulmini più facilmente osservabili sono quelli fra nuvola e suolo, ma sono comuni anche scariche fra due nuvole o all'interno di una stessa nuvola. Inoltre qualsiasi oggetto sospeso nell'atmosfera può innescare un fulmine: si sono osservati infatti fulmini tra nuvola e aeroplano, e tra aeroplano e suolo.
 
Una sua rappresentazione stilizzata è spesso usata nell'iconografia mitologica e araldica.
 
Durante un temporale più fulmini colpiscono la Tour Eiffel di Parigi, involontario parafulmine
 
La scarica del fulmine sarebbe generata dalle particelle negative delle nuvole che vengono attratte dalle particelle positive presenti nel suolo. Tuttavia l'origine del fenomeno non è ancora del tutto chiara.[2] Sono state studiate varie cause che includono le perturbazioni atmosferiche (vento, umidità, attrito e pressione atmosferica), ma anche l'impatto di particelle provenienti dal vento solare e l'accumulo di particelle solari.
 
La scarica di un fulmine avviene di solito con il metodo seguente: dalla nuvola ha inizio un canale ionizzato (detto canale di prescarica) che avanza nell'aria verso il basso, muovendosi a tratti con avanzamenti rapidi dell'ordine dei 50 metri e pause nell'ordine di 50 microsecondi, in modo che la velocità media risultante dell'avanzamento sia di circa 1metro/microsecondo. Quando il canale ionizzato, che appare debolmente luminoso e presenta irregolarità di percorso e ramificazioni, raggiunge il punto di contatto con il suolo (o su una linea elettrica ad esempio) fluisce verso terra una elevata corrente dovuta alla scarica quasi completa del canale ionizzato (scarica di ritorno), la quale inizia dal suolo e si propaga verso la nube con una velocità di circa 0.1 - 0.3 volte quella della luce rendendo via via notevolmente luminoso il condotto di fulmine e le sue ramificazioni.
 
Le condizioni ideali per lo sviluppo di fulmini sono i cumulonembi tipici dei fenomeni temporaleschi, ma sono stati osservati fulmini anche durante tempeste di sabbia, bufere di neve e nelle nuvole di cenere vulcanica.[4]
 
Anche le particelle di ghiaccio all'interno della nuvola sono ritenute essere un elemento fondamentale nello sviluppo dei fulmini, in quanto possono provocare la separazione forzata delle particelle con cariche positive e negative, contribuendo così all'innesco della scarica elettrica.[3]
 
L'espansione del canale ionizzato genera anche un'onda d'urto rumorosissima, il tuono. L'attività luminosa connessa alla scarica di un fulmine è invece denominata lampo. Un osservatore distante vede il lampo sensibilmente prima di sentire il tuono, poiché il suono viaggia a velocità molto inferiore a quella della luce (340 m/s circa contro 300.000 km/s) e quindi percepirà un ritardo di circa tre secondi per ogni chilometro di distanza dal fulmine.
 
L'intensità della corrente elettrica di un fulmine varia tipicamente tra i 10 e i 200 kiloampere. Generalmente si descrive il fulmine come una singola scarica, ma sono molto frequenti i casi in cui si verificano una serie di scariche in rapida successione. Tipicamente l'intervallo di tempo tra una scarica e l'altra può oscillare tra i 5 e i 500 millisecondi, e la serie nel complesso può durare anche 1,5 secondi.
 
Più in particolare, il fulmine è una colonna di gas ionizzato (plasma), con le seguenti caratteristiche fisiche principali:
 
L'ultimo valore (differenza di potenziale ai capi del fulmine) dipende dalla lunghezza dello stesso: sapendo che il potenziale di rottura dielettrica dell'aria è di 3000 V/mm, un fulmine lungo 300 m sarà generato da una differenza di potenziale di 300 × 3 × 106 = 9 × 108 ≈ 109V. In realtà, la grande pericolosità del fulmine è dovuta più che alle grandi tensioni, alla corrente che fluisce nel canale d'aria ionizzata: essendo infatti il plasma un ottimo conduttore di corrente, esso permette il fluire di correnti tipiche di migliaia di ampere (si consideri che bastano circa 20 mA per causare danni fisiologici da folgorazione).
 
Tipi di fulmini[
Esistono quattro diversi tipi di fulmini:
 
negativo discendente, la scarica pilota ha carica negativa e parte dall'alto.
positivo discendente, la scarica pilota ha carica positiva e parte dall'alto.
negativo ascendente, la scarica pilota ha carica negativa e parte dal basso.
positivo ascendente, la scarica pilota ha carica positiva e parte dal basso.
La velocità è variabile e dipende sia dalle condizioni di umidità che dalla differenza di potenziale della scarica, ma si muove tra i 40.000 e i 50.000 km/s.
 
Interferenze elettromagnetiche
Il fulmine genera un forte impulso elettromagnetico che provoca interferenze nella ricezione di segnali radio (specialmente con modulazione in ampiezza), fino a frequenze di diversi MHz. Il fortissimo impulso elettromagnetico rilasciato da un fulmine può danneggiare in modo irreversibile componenti elettronici funzionanti a bassa frequenza.
 
 


#63 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 14 agosto 2015 - 06:39

LE NUVOLE

 

800px-Cirrocumulus_20040830.jpg

In meteorologia una nuvola, nel linguaggio scientifico chiamata più comunemente nube, è un'idrometeora costituita da minute particelle d'acqua condensata e/o cristalli di ghiaccio, sospese per galleggiamento nell'atmosfera e solitamente non a contatto con il suolo.[1] La branca della meteorologia che studia le nuvole e i fenomeni ad esse collegati è detta nefologia.
 
Nuvole sovrastanti la spiaggia di Peniche.
 
Nuvole coprono il sole al tramonto.
Comunemente si parla di nubi per quanto riguarda masse visibili sopra la superficie terrestre, ma ugualmente si formano nubi anche su altri corpi planetari o satelliti. Possono formarsi strutture simili a nuvole anche nello spazio interstellare, ma in questo caso non si tratta di agglomerati di gocce di vapore acqueo. Si parla in questo caso di nubi interstellari.
 
Le nubi sono rappresentative – e sono a loro volta causa – di complessi fenomeni meteorologici, quali la pioggia, la neve e la grandine. Per analogia di forma il termine è stato esteso anche a esalazioni di fumo nell'atmosfera od accumuli che possono essere di polvere, sabbia o insetti.
 
Dal punto di vista della termodinamica le nubi rappresentano l'aspetto visivo di fenomeni che avvengono all'interno di un fluido gassoso noto come atmosfera; le grandezze in gioco sono: temperatura, umidità, pressione.
 
Aspetto
L'aspetto di una nube è determinato dalla natura, grandezza, numero e distribuzione nello spazio delle particelle che la costituiscono; dipende anche dall'intensità e dal colore della luce ricevuta dalla nuvola e dalla posizione relativa dell'osservatore e della sorgente di luce.[1]
 
Luminanza
Luminanza è un termine tecnico adottato per l'uso in fotometria e indica il quoziente dell'intensità della luce, in una direzione data, e della proiezione dell'area della superficie di emissione di un piano perpendicolare a quella direzione. Nel campo delle nuvole è determinata dalla luce riflessa, diffusa e trasmessa dalle sue particelle costituenti. La luminanza può essere modificata da una caligine che s'interpone tra la nube stessa e l'osservatore, nonché da fenomeni ottici come aloni, corone, glorie ecc. Solitamente la luminanza delle nubi, durante il dì, consente di poterle osservare in modo chiaro, mentre durante la notte è possibile osservarle solo quando la Luna è illuminata per più di un quarto.
 
Colore
Le nuvole che si formano sulla Terra sono costituite di vapore acqueo che, condensandosi, forma piccole goccioline o cristalli di ghiaccio, solitamente di 0,01 mm di diametro. Quando si formano agglomerati di miliardi di queste goccioline, appare visibile la nuvola, di un tipico colore bianco, dovuto all'alta riflessione della luce (fra il 60% e il 85%) sulla superficie di queste goccioline.
 
A causa dell'elevata dispersione della luce nelle goccioline che compongono la nube, essa può apparire anche grigia o a volte blu scura quasi nera. Maggiore sarà la densità della nube e maggiore il suo spessore, più scura essa apparirà. Questo è il motivo per cui una nube temporalesca, generalmente un cumulonembo, appare molto scura alla base.
 
All'alba ed al tramonto, le nuvole possono assumere un colore simile a quello del cielo, soprattutto arancione e rosa. Attorno alla lunghezza d'onda dell'infrarosso, le nuvole apparirebbero più scure perché l'acqua che le costituisce assorbirebbe fortemente la luce solare a questa lunghezza d'onda.
 
Nel XIX secolo esisteva un metodo di classificazione più complesso e articolato dell'attuale che prevedeva nomi latini per le nubi e che sta alla base di quello odierno. Questo sistema è stato approntato dal farmacista e chimico quacchero trentenne Luke Howard (1803, Conferenza Askesiana di Londra).
 
Questo sistema di classificazione sfrutta alcune osservazioni fatte in precedenza da Ferdinando II di Toscana e dal principe Karl Theodor.
 
Nella loro pressoché infinita varietà (di forme, trasparenza, altezza, ecc.) si possono individuare quattro tipi fondamentali di nubi, i cui nomi sono poi usati per una classificazione più precisa:
 
i cirri, che appaiono come filamenti lunghi e bianchi; sono costituiti da cristalli di ghiaccio che li rendono traslucidi, e grazie alla loro disposizione si può sapere la direzione del vento in quota. Aggettivo cirriforme.[2]
i cumuli (o cumoli) che appaiono come grumi o globuli, isolati o a gruppi, di dimensioni e forme diversissime, bianchissimi ove colpiti dalla luce del sole, grigiastri ove all'ombra; sovrastano una corrente ascensionale; aggettivo cumuliforme.
gli strati, spesso di estensioni notevoli e di forma piatta[3]; aggettivo stratiforme.
i nembi, la cui base appare grigia scura e che sono portatori di pioggia. Aggettivo nimbiforme.[4]
L'amministrazione americana National Aeronautics and Space ha pubblicato un'elaborazione dei primi quattro tipi di base, che ha aggiunto un quinto tipo, stratocumuliforme, per descrivere le nuvole in forma di rotoli o increspature, e chiarito nimbiforme come cumulonimbiform per specificare nubi temporalesche che possono produrre tuono.[2]
 
Sulla base dei tipi fondamentali sopra visti, si conviene classificare le nubi secondo l'altezza della loro base dal suolo in Quattro gruppi e dieci tipi: nubi alte (prefisso cirro-), nubi medie (prefisso alto-), nubi basse (prefisso strato-) e nubi a sviluppo verticale (prefissi cumulo-/nimbo-).
 
Alte
Formazioni nuvolose con base (nelle regioni temperate) tra gli 8000 ed i 14000 m, sono le nubi più fredde, composte essenzialmente da cristalli di ghiaccio che le rendono traslucide; dalla loro disposizione si può sapere la direzione del vento in quota (perpendicolarmente alle strisce, verso la direzione delle gobbe); sono caratterizzate del prefisso "cirro-"
 
 


#64 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 15 agosto 2015 - 05:49

La pasta
 
800px-6-alimenti%2C_pasta%2CTaccuino_San
Preparazione della pasta, Tacuinum sanitatis Casanatense (XIV secolo).
Le origini della pasta sono molto antiche, presente nelle sue forme più semplici e primordiali in diverse parti del continente eurasiatico, fin da tempi remoti, nelle quali si sviluppa in maniera parallela ed indipendente, distaccata e diversificata, senza che le une influenzassero o condizionassero le altre, dalle valli cinesi dell'estremo oriente, alle aree mediterranee della penisola italica, ed in particolar modo in quest'ultima zona assunse un rapido ed importante sviluppo gastronomico e tradizionale che durerà intatto fino all'attualità, essa infatti era già ampiamente conosciuta ai tempi della Magna Grecia (sud Italia) e dell'Etruria (Italia centro-occidentale), dove veniva però chiamata in altri modi, ad esempio con il termine greco làganon e quello etrusco, magnogreco ed italico ''makària'' (il quale, una volta subentrato nel vocabolario latino, giungerebbe fino ai giorni nostri sotto forma del verbo siciliano e di altre zone dell'Italia meridionale ''maccari'', che a sua volta è all'origine dei termini dialettali ''maccaruni-maccaroni'' e del corrispettivo ''maccheroni'', nonché del verbo italiano ''ammaccare'', col significato generico di schiacciare, o nel caso della pasta con il senso di ''lavorare una materia massosa, pressandola, imapastandola e modellandola'' ), mentre il termine latino laganum si usava per indicare un impasto di acqua e farina, tirato e tagliato a strisce. Conosciuto e documentato è infatti che già Cicerone, l'antico filosofo romano, tesseva lodi parlando di làgana, termine latino dal quale deriverebbe l'attuale nostrana lasagna.[1][2]
 
Il suddetto termine è infatti ancora usato in alcune regioni del sud Italia, in particolare nel Cosentino, in Calabria, ed in altre zone della Puglia e della Basilicata, per indicare la pasta lunga a strisce (simile alle tagliatelle, ma più corta), conosciuta ancora attualmente col nome di làgana o laina, solitamente condita con leguminacee a secco, ed amalgamata con olio d'oliva e spezie, così come si faceva in antichità. Il vocabolo latino pasta, che era più generico, venendo dal termine păsta(m) e dal sinonimo greco πάστα (pàsta-ein), con significato di ''farina con salsa o condimento'' derivante a suo volta dal verbo pássein cioè ''impastare''. Questo termine comincia ad essere impiegato in Italia a partire dall'anno 1051 circa, anche se a cercare le origini della pasta, chiamata con altri nomi, si può tornare indietro fin quasi all'età neolitica (circa 8000 a.C.) quando l'uomo cominciò la coltivazione dei cereali che ben presto imparò a macinare, impastare con acqua, cuocere e durante il medioevo italiano seccare al sole per poterli conservare a lungo. La pasta in antichità, era infatti un cibo diffuso in varie zone del bacino del Mediterraneo e dell'estremo oriente, nelle sue molteplici varianti locali, molte delle quali scomparse o non evolutesi, di cui si trovano tracce storiche in diverse parti del continente euroasiatico.
 
Questo alimento acquisisce una posizione particolarmente importante ed un ampio sviluppo in Italia ed in Cina dove si sviluppano due prestigiosi e consolidati filoni di tradizione gastronomica, fin da tempi remoti, che pur non incontrandosi e non contaminandosi culinariamente, si completano a vicenda nella loro diversità, producendo cibi simili contemporaneamente e parallelamente, a latitudini diverse ed in continenti lontani, culturalmente distinti e con materie e tecniche differenti, i quali si possono ancora incontrare sulle tavole degli uomini d'oggi, in quasi tutto il mondo, grazie alle esportazioni globali, che partendo da questi due paesi hanno fatto il giro del globo, ma di cui rimane difficile, se non impossibile, stabilire e ricercare rapporti tra essi prima dell'epoca odierna, proprio per la complessità dei percorsi intermedi. Effettivamente, la pasta così come noi la conosciamo oggi, è autoctona e tradizionale di entrambi i paesi, sia dell'Italia (da cui si è mossa in altri paesi occidentali), che della Cina (da cui si è diffusa nel resto dell'oriente), indipendentemente. Una delle testimonianze più antiche, databile intorno ai 3800 anni fa, è data da un piatto di 麵 (la miàn-fen), dei noodles cinesi di miglio, rinvenuti nel nord-ovest della Cina, presso la città di Lajia sotto tre metri di sedimenti.[3]
 
Il ritrovamento cinese viene, storicamente, assolutamente considerato indipendente da quello occidentale, perché all'epoca i cinesi non conoscevano il frumento ed il grano, caratteristico delle produzioni italiane e mediterranee, che tra l'altro utilizzano metodi di lavorazione completamente differenti; il ché sottolinea maggiormente il parallelismo d'origine tra i due inventi culinari. Ugualmente possiamo trovare tracce di paste alimentari, altrettanto antiche, già tra Etruschi, Greci, Romani ed altri popoli italici. Chiara è la testimonianza per gli Etruschi rinvenuta a Cerveteri, nella tomba della Grotta Bella, risalente ad un periodo tra il X ed il IX secolo a.C., dove su alcuni rilievi sono chiaramente raffigurati degli strumenti ancora oggi in uso in Italia per la produzione casalinga della pasta, come spianatoia, matterello e rotella per tagliare. Per il mondo greco e quello latino numerose sono le citazioni fra gli autori classici, fra cui Aristofane ed Orazio,[4] che usano i termini làganon (greco) e laganum (latino) per indicare un impasto di acqua e farina, tirato e tagliato a strisce (quasi identici alle tagliatelle, ai tagliolini ed alle fettuccine, ma più corti e tozzi). Queste lagane, ancora oggi in uso nel sud d'Italia (da cui viene l'attuale parola laina), acquisiscono tanta dignità da entrare nel quarto libro del ''De re coquinaria''[5], del conosciutissimo ghiottone e filosofo gastronomico latino Apicio, autore del primo libro di cucina tutt'ora conosciuto. Egli ne descrive minuziosamente i condimenti, tralasciando le istruzioni per la loro preparazione, facendo intendere che la pasta fosse ampiamente conosciuta ed usata in tutta l'Italia antica, tanto che era superfluo descriverla.
 
Successivamente, presso gli Arabi medievali, il poeta e musicista Ziryab, che era anche un appassionato gastronomo del IX secolo d.C., descriveva impasti di acqua e farina molto diffusi nella Sicilia musulmana, assimilabili alle paste alimentari, ed antenati dei vermicelli e degli attuali spaghetti.[6] Ne ''Il diletto per chi desidera girare il mondo'' o ''Libro di Ruggero II'' pubblicato nel 1154, Al-Idrisi, geografo di Ruggero II di Sicilia, descrive Trabia, un paese a 30 km da Palermo, come una zona con molti mulini, dove si fabbricava una pasta a forma di fili leggermente arrotondati, chiamata ''itrya'' (dall'arabo itryah) che significava appunto "focaccia fine tagliata a strisce", queste ultime vengpno prodotte ancora oggi dalle massaie di Puglia e di Sicilia, e vengono chiamate con il termine dialettale ''trija'', e durante il Medioevo, venivano spedite con navi in abbondanti quantità per tutta l'area del Mediterraneo, sia musulmano che cristiano, così come ben descritto da Al-Idrisi, dando origine ad un commercio molto attivo, che dalla Sicilia si diffondeva soprattutto verso nord lungo la penisola italica e verso sud fino all'entroterra sahariano, dove era molto richiesto dai mercanti berberi.
 
Nel 1279 il notaio marchigiano Ugolino Scarpa, facendo un elenco di ciò che un milite genovese, tale Ponzio Bastone, lasciava alla sua morte nella sua povera eredità, descrive in italiano medievale: ''una bariscella plena de maccaroni'', facendo riferimendo appunto ad una ''cesta di vermicelli'' (o spaghetti); ed ancor prima, nel 1244, un medico bergamasco promette ad un lanaiolo di Genova che l'avrebbe guarito da un'infermità alla bocca se egli non avesse mangiato né carne, né frutta, né cavoli, né pasta, scrivendo testualmente in un latino volgare italoromanzo: "... et non debae comedare aliquo frutamine, neque de carne bovina, nec de sicca, neque de pasta lissa, nec de caulis..'', vietandogli appunto di mangiare, tra altri alimenti, anche la pasta; altro esempio è anche quello del 1221 presente in una ''cronica'' di Fra' Salirnbene da Parma, che parlando di un frate grosso e corpulento, tale Giovanni da Ravenna, annota: “Non vidi mai nessuno che come esso si abbuffasse tanto volentieri di lasagne con formaggio”; ed ancora si potrebbero menzionare gli scritti del poeta, umanista e filosofo Jacopone Da Todi, che nel 1230, in una sua lettera al Papa, parla e descrive ampiamente i ''maccaroni'', trattandoli come se fossero un oggetto di piacere sublime ed ultraterreno. Queste testimonianze e molte altre, tutte scritte e documentate in Italia, posteriormente ai testi dell'antichità classica del mondo greco-romano ed etrusco, dimostrano come la pasta fosse ben diffusa e conosciuta, prodotta e consumata fin dall'alto medioevo, in tutta la penisola, da nord a sud, e rappresentano le prime testimonianze rintracciabili e tangibili sulla pasta alimentare che poi entreranno nella storia.
 
 
Preparazione artigianale di noodles cinesi
Nella tradizione orientale, invece, una delle più antiche e complete fonti sui diversi tipi di masse per ''miàn'', che segna anche l'inizio della diversificazione delle tecniche di preparazione in funzione della specie di cereale impiegata, è rappresentato dal 'Qimin yaoshu', “Le tecniche essenziali per il popolo Qi”, primo trattato di agricoltura cinese del sec.VIII d.C., in cui l'autore Jia Sixie, in una parte dedicata all'economia domestica, descrive prestigiosi piatti e prodotti gastronomici dell'epoca tra cui molti a base esclusivamente di cereali lavorati. Fra questi distingue paste di riso e paste di cereali diversi dal grano, ed in particolare di miglio, che, avendo solo amido, necessitano di processi di impastatura ben diversi dalle prime per poter divenire paste alimentari. Vi si descrive una tecnica di allungamento in bagno d'acqua per le paste migliacee (usanza usata ancora oggi in oriente, differente dai metodi di lavorazione italiani in occidente), processo che ha il fine di lavare l'amido e valorizzare le caratteristiche del glutine che le rende «incomparabilmente scivolose» e di cui si dimostra di aver intuito la stessa importanza riscontrata da Jacopo Bartolomeo Beccari che ne scoprì i principi nutritivi all'inizio del XVIII sec. Per le paste di amido, come quelle di riso, sconosciute e mai usate in occidente, vi si descrive un processo di fissaggio della forma attraverso la parziale gelatinizzazione in acqua bollente di un impasto molle, diviso in filamenti attraverso uno staccio, tramite il quale vengono versati direttamente nel liquido o all'occorrenza scolati e cotti a vapore per differirne l'uso (tipico mezzo di cottura ancora oggi usato in Cina, punto di partenza dal quale poi si diffuse in altre zone dell'estremo oriente, come il Giappone).[7]
 
 
Tagliatelle all'uovo
Nell'Europa centrale ed in particolar modo nella Germania orientale, possiamo trovare invece una discreta diffusione e riadattazione della pasta all'uovo proveniente dal nord Italia. La pratica di idratare la farina con le sole uova si attesta già radicata in Renania dalla metà del XVII secolo; mentre in Italia, da cui poi giungerà anche in Francia, Spagna ed in altri luoghi dell'Europa del sud, non risultano tracce di quest'uso, con il quale l'abate germanico Bernardin Buchinger scrive in lingua tedesca il libro di cucina che diventerà la base della tradizione gastronomica alsaziana[8], in cui si dice che gli alsaziani avevano integrato nella loro alimentazione una versione di massa arricchita da "molte uova" (che per quella società voleva dire 6 o 8 per kg di farina) di un tipo di pasta chiamata ''nudeln'' dai tedeschi (da cui in seguito deriverà il termine inglese 'noodle'), la cui caratteristica era di essere soda e omogenea, stesa col matterello e tagliata in nastri[9]; usanza che però non si diffuse mai al di fuori di quest'area geografica germanica.
 
 


#65 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 17 agosto 2015 - 05:05

L'auto che guida da sola
 
veneno-supercar.jpg
L'auto che guida da sola negli Usa è già realtà 
In Germania cominciano gli esperimenti
La più famosa è la Prius di Google, ma anche Volkswagen e Audi hanno i loro prototipi. Obiettivo: permettere a chi sta a bordo di lavorare in sicurezza durante gli spostamenti
 
SAN FRANCISCO - Silicon Valley, terra di sogni che partono da un garage. In uno di questi è nata Apple. In un altro ha mosso i primi passi Google. Ora da un garage in zona Mountain View può capitare di vedere uscire una strana Toyota Prius: è la Google car, un'auto a guida automatica che può viaggiare senza bisogno del conducente e da un mese è stata autorizzata a circolare sulle autostrade californiane, oltre che in Nevada e Florida.
 
L'aspetto è identico a quello della «normale» berlina giapponese, se non fosse per le appendici sparse sulla carrozzeria: sopra il tetto, un lidar, un sistema di 60 laser che eseguono quasi mille rotazioni al minuto, riproducendo in una mappa tridimensionale ciò che circonda l'auto in un raggio di oltre sei metri; accanto allo specchietto retrovisore interno, una videocamera che individua semafori, cartelli stradali, pedoni, ciclisti ecc.; sulla ruota posteriore sinistra, un sensore che rileva i movimenti dell'auto, individuandone (con l'ausilio del Gps) l'esatta posizione in ogni istante. Per ultimi i radar, tre anteriori e uno posteriore, che determinano la distanza dagli ostacoli. Tutti dispositivi che permettono al computer di bordo di muovere il veicolo hands-off and feet-off , cioè: senza le mani e senza i piedi del guidatore. Ma eyes-on , gli occhi sì, quelli veri, del conducente, che monitora la strada: l'autorizzazione californiana prevede che ci sia a bordo almeno una persona.
 
 
Perché un'azienda informatica abbia investito su un'auto così l'ha spiegato Sergey Brin, co-fondatore di Google: «Il ruolo del trasporto, come internet, è centrale nella vita di tutti i giorni». Internet ha aperto a tutti il mondo che ci circonda e «allo stesso modo, un'auto di questo tipo può far viaggiare anche chi è troppo giovane, troppo anziano o è disabile». 
Ma il principale obiettivo della ricerca è la sicurezza. Negli Usa, chi è alla guida spende il 25-30 per cento del tempo trascorso in auto per fare altro dal guidare puro e semplice: telefona, messaggia, risponde alle e-mail... «Quarantamila persone muoiono negli Stati Uniti per incidenti stradali, più di 1 milione nel mondo, e nove volte su 10 la colpa è di chi si trova al volante. Il sistema di guida autonoma può risolvere il problema», ha concluso Brin.
 
 
Non solo Google. L'industria automobilistica non è impreparata alla sfida: sempre in America, un'Audi TTS ha percorso 20 chilometri della gara Pikes Peak senza alcun intervento umano. Chi scrive, qualche tempo fa, dal sedile di guida, ha assistito alle manovre di una Volkswagen Passat che da sola ha completato un circuito urbano riprodotto nel centro ricerche della Casa tedesca: il computer ha il piede pesante, frenate e accelerazioni non sono certamente morbide, il confort non è elevato, ma nel frattempo si può inviare una mail senza alcun pericolo. Quando si potrà comprare un'auto a guida autonoma? «Non voglio fare promesse, ma entro cinque anni potrebbe essere disponibile per tutti», risponde Brin.
 
 
Nel frattempo è già in atto una progressiva automatizzazione del veicolo: «Nel 2014 introdurremo un assistente che si sostituirà alla guida negli stop and go del traffico» ha annunciato Peter Mertens, capo ricerca e sviluppo di Volvo. Bmw sta per lanciare un sistema che, in caso di malore del guidatore, fa in modo che l'auto raggiunga da sola la corsia di emergenza e chiama i soccorsi. Nissan, nel 2014, proporrà il primo sterzo a controllo indipendente: manterrà l'auto nella corsia di marcia senza alcun bisogno di correzioni da parte del guidatore. Di serie sono già i sistemi che tengono la distanza di sicurezza, frenano, parcheggiano... Tutti automatismi che, per alcuni, sarebbero colpevoli di annullare il fattore umano, la responsabilità e il piacere della guida. Ma la tendenza c'è, almeno a giudicare da una ricerca J.D Power, secondo la quale oltre la metà dei guidatori giovani (tra 18 e 37 anni) comprerebbe un'auto a guida autonoma. 
 
 


#66 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 21 agosto 2015 - 11:16

Record di velocità
 
800px-Usain_Bolt_Olympics_Celebration.jp
Questa voce contiene i principali record di velocità registrati o stimati sulla Terra sia per gli esseri viventi che per i mezzi di locomozione.
 
La velocità, sebbene nel SI (Sistema Internazionale) si misuri in m/s, è espressa qui in km/h, per ragioni di comodità e di familiarità, ed è generalmente intesa come velocità media, ovvero il rapporto tra lo spazio percorso e il tempo impiegato a percorrerlo. Laddove si intenda invece la velocità istantanea massima (un valore di picco registrato in un certo istante), questo è espressamente indicato.
 
In alcuni casi si è ritenuto opportuno riportare i record riguardanti la breve distanza e la lunga distanza, dove breve e lunga dipendono dal contesto, in quanto, in generale, i record di velocità assoluti (per gli esseri viventi) possono essere mantenuti solo per brevi tratti o in condizioni particolari.
 
Usain Bolt
Le maggiori velocità ufficialmente registrate per l'uomo sulla breve distanza e calcolate con partenza da fermo sono ottenute sulle distanze dei 100 e dei 200 metri piani, (specialità dell'atletica leggera). L'attuale primatista è il giamaicano Usain Bolt che a Berlino il 16 agosto 2009 ha corso i 100 metri in 9,58 secondi, a una media di 37,578 km/h (con vento a 0,3 m/s). La velocità media ottenuta dallo stesso Bolt nel corso del suo record mondiale di 19,19 sui 200 metri è leggermente minore (37,52 km/h). Le velocità massime (ancorché non registrate ufficialmente per tutte le competizioni) vengono ottenute nella seconda parte delle gare sui 100 metri; nel corso della gara in cui ha ottenuto il record, Bolt ha raggiunto una velocità massima di 39,278 km/h[1].
L'uomo più veloce del mondo sulla lunga distanza è generalmente considerato il detentore del primato mondiale della maratona (42 chilometri e 195 metri). L'attuale detentore è il keniota Dennis Kipruto Kimetto (22 gennaio 1984) che il 28 settembre 2014 a Berlino (Germania) percorse la maratona in 2 ore 2 minuti e 57 secondi, diventando il primo uomo a scendere sotto le 2h e 03', con una velocità media di 20,58 km/h.
Il record di velocità per una bicicletta guidata da un essere umano appartiene a Fred Rompelberg (Paesi Bassi) che il 3 ottobre 1995 sulle Bonneville Salt Flats (Utah, USA) arrivò a 268,831 km/h. Si deve notare che tale velocità è stata possibile grazie ad uno speciale dragster spaccavento che precedeva la bicicletta nel tentativo di record. Il record senza spaccavento è di 133,78 km/h[2] (Sebastiaan Bower, olandese, 2013), su una bicicletta reclinata carenata. Prendendo in considerazione tratti in discesa, questo record è sopravanzato da quello di Eric Barone di 223,3 km/h istantanei realizzato su neve a Vars nel 2015[3].
Il record del mondo di velocità sugli sci è detenuto da Simone Origone, maestro di sci e guida alpina aostana, che il 3 Aprile 2015, a Vars in Francia, lo ha migliorato (il record precedente era già suo) raggiungendo i 252,632 km/h[4].
La massima velocità raggiunta da un uomo in atmosfera è stata stabilita il 14 ottobre 2012 da Felix Baumgartner lanciatosi, durante la missione Red Bull Stratos[5][6], dalla quota di 38 969 m ed è di 1357 km/h (Mach 1,25, inoltre fu l'essere vivente più veloce del mondo in assoluto, senza l'ausilio di propulsori)
Record di velocità animali
 
L'antilocapra è il mammifero più veloce sulla lunga distanza.
L'animale terrestre più veloce è il ghepardo, che per brevi tratti (alcune centinaia di metri) può raggiungere una velocità di 120 km/h. Un esemplare fece registrare una velocità di 115,5 km/h percorrendo 640 metri in 20 secondi. Il 20 giugno 2012, al Cincinnati Zoo and Botanical Garden di Cincinnati, su una pista certificata dalla federazione di atletica leggera statunitense, un ghepardo ha corso i 100 metri piani in 5"95, raggiungendo i 98 km/h (con una media però di 60,50 km/h)[7].
Il mammifero più veloce della terraferma sulla lunga distanza è l'antilocapra, che può raggiungere velocità medie di 56 km/h su tratti di 6 km. Su breve distanza può raggiungere velocità di 90 km/h.
Il mammifero acquatico più veloce è l'orca, che raggiunge velocità di 55,5 km/h.
Il cavallo più veloce del mondo ha raggiunto la velocità di 70,76 km/h[8].
Il cane più veloce è il greyhound (levriero inglese), che ha raggiunto la velocità di 72,42 km/h.
Il mammifero più lento sulla terraferma è il bradipo, che raggiunge velocità comprese tra 0,1 e 0,16 km/h.
L'animale più lento in assoluto è la lumaca, che raggiunge velocità di 0,05 km/h[9].
L'uccello più veloce in volo battuto è il rondone codacuta, che raggiunge i 170 km/h.
L'uccello più veloce in picchiata e l'animale più veloce in assoluto è il falco pellegrino, che è stato cronometrato a velocità di 324 km/h, ma che probabilmente può riuscire a raggiungere la sua velocità critica, calcolata teoricamente fino a 384 km/h.
Il pesce più veloce è il pesce vela, che può raggiungere velocità di 109 km/h.
Record di velocità con veicoli
 
Il ThrustSSC, l'automobile più veloce, nel Black Rock Desert
 
Lo Streamliner di Chris Carr, ex detentore del record con 591,5 km/h
Su strada
L'attuale record di velocità terrestre di un'automobile è stato realizzato il 15 ottobre 1997 nel Black Rock Desert (Nevada, USA) quando il pilota della RAF Andy Green raggiunse la velocità di 1 227,98 km/h (Mach 1,02) a bordo del Thrust SSC (Thrust SuperSonic Car), un veicolo pesante 10 tonnellate con due motori a reazione (più simile ad un aereo senza ali che ad un'auto comunemente intesa) progettato da Richard Noble e Ron Ayers. Il Thrust SSC è anche la prima auto ad aver superato "ufficialmente" il muro del suono (nel 1979 Stan Barret a bordo del Budweiser rocket toccò i 1 190 km/h ma il record non fu ritenuto regolare). Lo stesso Andy Green è anche titolare, dal 22 agosto 2006 del record di velocità per veicoli equipaggiati da motore diesel, avendolo stabilito a bordo del JCB Dieselmax con 526 km/h.
Il record di velocità per autovetture stradali di serie è detenuto attualmente dalla KOENIGGSEG AGERA ONE che raggiunse la straordinaria velocità di 450 KM/H circa superando il precedente record del team Hennessey che aveva registrato una velocità massima di 435,31 km/h con al volante Brian Smith, il direttore di Miller Motorsport Park. In entrambi i casi era stato strappato il primato della Bugatti Veyron 16.4 Super Sport che nel 2010 aveva superato i 431 km/h sulla pista tedesca di Ehra-Lessien effettuando due passaggi su un rettilineo di 9 km, a 434 e 427 km/h, per una media di 431 km/h, il tutto grazie al W16 di 8,0 l quadriturbo che erogava 1200 cavalli e una coppia di 1500 Nm. Esistono delle controversie tra le due Case su quale sia effettivamente la vettura di serie più veloce tra le due (Bugatti e Hennessy): la Hennessy ha percorso la pista in una sola direzione, ed è stata costruita in 29 esemplari (quindi non è ancora definita vettura di serie, in quanto occorrono 30 esemplari); la Bugatti invece esce dalla fabbrica autolimitata a 415 km/h per evitare stress eccessivi alle gomme, mentre l'esemplare del record era stato privato del limitatore. Da ciò si evince che nessuna delle due case abbia effettivamente rispettato i regolamenti previsti per la registrazione del record.
Il record di velocità su terra di una motocicletta appartiene a Rocky Robinson, ex pilota di motocross e trial che il 25 settembre 2010 ha fatto registrare una velocità di 605,698 km/h, battendo il precedente record detenuto da Chris Carr. Il record è stato stabilito durante l'ultima giornata del Cook Land Speed Shoot Out nelle Bonneville Salt Flats (Utah, USA) e si riferisce alla velocità media sul chilometro lanciato. Robinson è il primo uomo ad abbattere il muro dei 600 km/h a bordo di una motocicletta[10]. Il record per una motocicletta convenzionale (non completamente carenata) è stato invece stabilito da Richard Assen nel 2011, raggiungendo i 420,663 km/h[11].
Su rotaia
Il record di velocità su rotaia di un veicolo sperimentale, che è anche il record assoluto di velocità su terra, è di 10 325 km/h (circa 8,5 Mach) realizzato da una slitta, senza equipaggio, spinta da un razzo ad opera del "846th Test Squadron" nella base statunitense Holloman Air Force Base, situata nel Nuovo Messico.
Il record di velocità su rotaia per un treno non sperimentale appartiene ad L0, un treno a levitazione magnetica delle ferrovie del Giappone che raggiunse la velocità di 603 km/h il 21 aprile 2015[12]. Tra i treni convenzionali il più veloce è il V150, un AGV (Automotrice à Grande Vitesse) francese, che il 3 aprile 2007 raggiunse la velocità di 574,8 km/h, sulla linea tra Strasburgo e Parigi. Il nome del treno deriva proprio dallo scopo originale del progetto che ha portato alla sua realizzazione, ovvero quello di raggiungere la velocità di 150 metri al secondo, pari a 540 km/h; tale velocità venne poi abbondantemente superata nel tentativo ufficiale.
In aria
 
Il Lockheed SR-71 Blackbird, l'aereo più veloce, raggiunse 3 529,56 km/h il 28 luglio 1976
La velocità più alta raggiunta da un aereo in grado di decollare e atterrare autonomamente è di un SR-71 che volò a (3 529,6 km/h) (3,35 Mach) a 23 000 m
La velocità più alta velocità raggiunta da un aereo sperimentale è di un Boeing X-43A che volò senza pilota a 12 144 km/h (9,8 Mach) il 16 novembre 2004.
Nello spazio
Il veicolo con equipaggio umano che ha raggiunto la più alta velocità è stato il Modulo di Comando denominato Charlie Brown della missione Apollo 10 che il 26 maggio 1969 raggiunse la velocità di 39 897 km/h (11,08 km/s).
La massima velocità mai raggiunta da un oggetto creato dall'uomo è stata di 252 792 km/h (70,22 km/s), raggiunta dalla sonda spaziale Helios 2 grazie alla spinta ricevuta dal campo gravitazionale del Sole. Tale sonda è stata lanciata il 16 gennaio 1976 ed è arrivata a 43 milioni di km dal Sole.
 
 


#67 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 26 agosto 2015 - 08:24

Ibernazione
 
nasa-ibernazione-missione-marte.jpg
L'ibernazione è una condizione biologica in cui le funzioni vitali sono ridotte al minimo, il battito cardiaco e la respirazione rallentano, il metabolismo si riduce e la temperatura corporea si abbassa. Può essere intesa come letargo negli animali o anche come ipotermia preventiva in medicina (anche se non si raggiungono mai temperature inferiori a pochi gradi sopra lo zero). È spesso utilizzato come metodo di animazione sospesa per gli esseri umani nella fantascienza. Gli animali vanno in letargo sotto il terreno e dormono fino a quando tornerà primavera
 
Regno animale
Ricorrono alla quiescenza (uno stato in cui i processi metabolici sono estremamente rallentati) diversi tipi di invertebrati, ma anche anfibi, rettili, mammiferi come l'orso bruno, il tasso, la marmotta, in special modo in inverno nelle regioni fredde o temperate. L'ibernazione differisce dal letargo perché non è un vero lungo sonno: gli animali ibernati possono reagire a stimoli, seppure in modo torpido.
 
L'adattamento permette a questi animali di sopravvivere in una condizione di ibernazione grazie all'alta concentrazione di sostanze nel circolo sanguigno che impediscono all'acqua di congelare. Varie sostanze, come sali, urea, acido urico o altro, impediscono all'acqua presente nel plasma sanguigno e nel citoplasma di cristallizzare e di distruggere così le membrane cellulari.
 
Il letargo è un comportamento caratteristico di alcuni mammiferi e rettili che durante la stagione fredda riducono le proprie funzioni vitali e rimangono in stato di quiescenza. Durante questo periodo si nutrono di riserve di grasso immagazzinate durante i mesi autunnali. Fra gli animali che vanno in letargo ricordiamo gli orsi, i procioni, i gliridi, i pipistrelli, le tartarughe di terra del genere Testudo ed altri rettili.
 
Durante la fase letargica, la temperatura corporea dell'animale si abbassa, di poco in alcune specie (passando da 37 a 31 °C negli orsi) fino a raggiungere anche i -2 °C in altre specie. Occorre però precisare che quello degli orsi non è un vero e proprio letargo.
 
Il ricovero degli animali che vanno in letargo si chiama generalmente tana.
 
Utilizzi in medicina
In chirurgia, si parla di ipotermia preventiva per l'abbassamento artificiale della temperatura corporea del paziente per ridurne i processi vitali durante particolari interventi chirurgici, nella fattispecie interventi di cardiochirurgia e neurochirurgia e in alcuni pazienti che hanno subito ipossia cerebrale (es dopo rianimazione cardiopolmonare). Temperature basse ma superiori al punto di congelamento vengono utilizzate per conservare temporaneamente gli organi destinati al trapianto.
 
L'ibernazione in azoto liquido (meglio detta crioconservazione) è utilizzata per la conservazione di spermatozoi ed embrioni umani. Risulta impossibile infatti per motivi tecnici legati alla velocità di congelamento e scongelamento conservare parti di dimensioni maggiori.
 
Le prime ipotesi sulla possibilità di usare il freddo per conservare gli spermatozoi risalgono alla fine del Settecento. Nella seconda metà dell'Ottocento il fisiologo Paolo Mantegazza pensava a una banca per conservare lo sperma dei soldati in partenza per la guerra, proponendo di farlo con neve e ghiaccio. I primi esperimenti di congelamento risalgono ai primi decenni del XX secolo; per molto tempo l'interesse rimase concentrato soprattutto sulla conservazione di spermatozoi bovini a scopo zootecnico.[1] Solo nel 1960 l'americano Jerome Sherman diede il via ai primi esperimenti di congelamento in azoto liquido.
 
Crioconservazione
In numerosi racconti di fantascienza l'ibernazione - vista come uno dei possibili metodi di animazione sospesa - è un importante espediente narrativo. Anche in alcune riviste[senza fonte], si teorizza la possibilità di ibernare un intero individuo prima della morte cerebrale in caso di coma irreversibile, oppure per evitare la morte a causa di un male incurabile, in attesa di future scoperte scientifiche in grado di fornire una cura, oppure per vivere una seconda vita, o ancora come metodo unidirezionale di viaggio nel tempo verso un'epoca futura e (ipoteticamente) migliore. Evidentemente per un fatto etico e legale è possibile solo la crioconservazione di corpi morti per cui sfruttando il lasso di tempo che passa dal blocco del battito cardiaco alla morte cerebrale si effettua il congelamento sperando di conservare intatte le strutture nervose.
 
Secondo i sostenitori della crioconservazione, in futuro dovrebbe essere possibile sviluppare una tecnologia in grado di ripristinare completamente le funzioni vitali dei corpi ibernati. In questa ipotesi, al momento del risveglio il corpo riacquisterebbe il fisico che aveva prima della conservazione; ovvero, il tempo del congelamento non determinerebbe un invecchiamento. Anche se fossero passate decine di anni, l'età biologica del corpo sarebbe rimasta la stessa come gli anni di vita che può ancora avere.
 
Limiti teorici alla crioconservazione
Il corpo scambia massa ed energia con l'esterno. Come sistema aperto, non risente del principio di aumento d'entropia che vale in quelli isolati. Tale principio associa l'età del sistema all'entropia ed esclude la possibilità del sistema di tornare alle condizioni di un'età più giovane (teorema del tempo). Comunque, l'ibernazione non è in grado di ringiovanire il corpo e quindi di allungarne la vita (con ibernazioni-ringiovanimenti dell'età biologica successiva); L'ibernazione non aumenta la durata della vita che resta la stessa possibile al corpo di un non-ibernato (80 anni di vita media, 120 per i più longevi); ritarda l'invecchiamento senza rallentarlo e, se usata con ibernazioni successive, consentirebbe di vivere in epoche diverse. L'idea fondamentale alla base dell'ibernazione è quella di prendere tempo, sperando che quando si verrà scongelati esistano nuove tecnologie di clonazione e nanooperazione che permettano di rigenerare, sostituire e ristrutturare i tessuti vecchi e il corpo ormai sulla soglia della morte.
 
È da tenere presente che la carne di un animale non può essere congelata in freezer più d'una volta pena la putrefazione del cibo; ciò desta sospetti sulla possibilità di ibernare a temperature molto inferiori un corpo. Le tecnologie di ibernazione infatti utilizzano i sistemi di vetrificazione e questo evita gli eventi nefasti derivanti dal congelamento.
 
Alcuni erroneamente paragonano i tempi di conservazione degli organi destinati a trapianto con gli organi ibernati. I primi vengono posti in una soluzione fisiologica e sono a tutti gli effetti vivi anche se posti ad una temperatura bassa ma superiore al congelamento. I secondi vengono prima trasfusi con le soluzioni vetrificanti e poi congelati sotto il punto di congelamento.
Nel caso di trapianti di organi umani non si utilizza mai la vetrificazione, l'unico esperimento con esito positivo nel settore è stato fatto dalla Alcor dell'Arizona con un fegato animale.[senza fonte]
Da notare che gli embrioni, in questo caso congelati in azoto liquido a circa -197 °C (temperature dette criogeniche), non sopravvivono più di 5 anni; dopo 5 anni non hanno più possibilità di indurre una gravidanza se impiantati, e vengono distrutti. Non si conosce esattamente la causa di questa degenerazione e si suppone che col tempo avvengano reazioni chimiche di denaturazione delle proteine e di rottura della catene di DNA che oltre ad un certo accumulo portano alla morte delle cellule scongelate. Si presume quindi che gli stessi organi dentro il corpo in azoto liquido non possano durare anni o secoli. La speranza sta in una tecnologia di restauro molecolare.
 
L'aria è composta in prima approssimazione dal 20% di ossigeno e all'80% di azoto. A meno di 200 gradi sotto zero essa diventa liquida e ha la proprietà di vetrificare rapidamente tutto ciò che vi viene immerso. Se si velocizza il processo di raffreddamento e si usano sostanze antigelo si riesce a realizzare la vetrificazione dell'intero corpo.
Finora non si è mai tentato di riportare in vita un corpo ibernato. Non esiste al momento notizia documentata in letteratura scientifica di un corpo ibernato tornato in vita in quanto tutti i corpi finora ibernati appartengono a persone legalmente morte e scongelarle significherebbe semplicemente condannarle in modo definitivo.
 
La temperatura di un corpo è fornita dal moto degli atomi e delle molecole; l'energia cinetica derivante dal movimento è responsabile delle reazioni chimiche che avvengono. Maggiore è la temperatura, maggiore è la velocità delle reazioni. Se pure la temperatura caratterizzata da totale assenza di movimento (zero assoluto) non è fisicamente raggiungibile, il congelamento a temperature molto basse (ottenute utilizzando, ad esempio, l'azoto liquido) consente di minimizzare l'energia del sistema e a raggiungere una condizione in cui le reazioni chimiche sono molto lente. Un sistema di questo tipo può in teoria restare per lunghi periodi sospeso senza modificazioni chimiche sostanziali.
 
Limiti della tecnologia[modifica | modifica wikitesto]
Molti comparano il congelamento alla vetrificazione, in caso di congelamento si ha il limite delle 24 ore al primo scongelamento e di 1 al numero delle ibernazioni, pena la putrefazione al momento dello scongelamento. Tutto ciò è dovuto all'azione dei batteri che presenti all'interno dei tessuti risultano rafforzati e più reattivi una volta scongelati. L'ibernazione post mortem si basa sulla vetrificazione, un processo in cui non si ha congelamento ma si crea una situazione in cui i liquidi corporei addizionati a sostanze antigelo si condensano e vetrificano senza cristallizzare e quindi senza danneggiare le pareti cellulari.
 
Con le tecniche di congelamento le cellule muoiono prima della stessa ibernazione. Quando si vetrificano, invece, queste restano sospese e una volta scongelate risultano funzionali; è stato trapiantato senza alcun effetto collaterale un fegato animale ibernato.[senza fonte] Sostanzialmente un sistema aperto come il corpo umano scambia energia ed invecchia. Immergerlo in azoto liquido significa farne un sistema isolato che è però di nuovo soggetto ad aumento d'entropia. Il congelamento serve a minimizzare questo aumento di entropia. L'ibernazione allunga la vita cellulare nel senso che l'invecchiamento della cellula che si manifesta in 5-10 anni di ibernazione si verificherebbe in molto meno tempo nella vita a "temperatura ambiente". L'ibernazione non aumenta la vita residua della cellula dopo lo scongelamento.
 
Il processo di crioconservazione dovrebbe essere "senza memoria", per cui la persona, dopo lo "scongelamento", non dovrebbe invecchiare più velocemente degli altri. Tale ipotesi chiaramente non si è mai potuta verificare sperimentalmente.
 
In sostanza la crioconservazione rallenterebbe l'invecchiamento, senza fermarlo, e, dopo lo scongelamento, non altererebbe i processi biologici dell'individuo.
 
È opportuno distinguere i limiti teorici della tecnologia da quelli della tecniche attuali.
 
I veri limiti della tecnica sono l'incapacità di riparare le inevitabili lesioni che si presentano in un certo numero di cellule a causa dei pur minimi eventi di cristallizzazione, l'incapacità di scongelare il corpo in modo omogeneo e repentino. Si ritiene che le tecnologie per ovviare a questi problemi si possano sviluppare entro pochi decenni a partire da alcune applicazioni già esistenti ma troppo grossolane per essere efficacemente applicate.
 
Crioconservazione postmortem
La crioconservazione post mortem si basa su tecnologie diverse da quelle della conservazione degli organi per il trapianto. Gli organi vengono posti in soluzioni fisiologiche a temperature basse ma non inferiori al punto di congelamento e man mano che il tempo trascorre subiscono processi di degenerazione dovuti alla reazione delle cellule alla mancanza di ossigeno. Vi sono studi innovativi (in Italia un articolo apparso su Focus) che hanno dimostrato che un repentino blocco dell'apporto di ossigeno alle cellule le mette in stand-by a differenza della situazione di rimozione del sangue che invece porta le cellule ad opporsi al calo di ossigenazione[senza fonte]. Vi sono alcuni ostacoli fondamentali relativi alla crioconservazione post mortem e sono precisamente:
 
la rottura delle membrane cellulari da parte dei cristalli di ghiaccio che dovessero formarsi;
la formazione di rotture del corpo ibernato sottoposto alla tensione dei diversi tessuti che hanno coefficienti di dilatazione diversi;
la difficoltà allo scongelamento contemporaneo di tutte le parti del corpo.
In definitiva la ricerca si sta focalizzando per lo più sui primi due problemi il primo dei quali è quasi del tutto risolto grazie a una soluzione vetrificante che sostituita al sangue apporta antiossidanti e sostanze che impediscono la formazione di cristalli di ghiaccio. Il secondo è per ora affrontato a posteriore mediante l'identificazione di queste rotture grazie a particolari microfoni che restano in ascolto. Si spera che le tecnologie che possano portare allo scongelamento del corpo e successivamente alla riparazione della parti danneggiate e corrotte siano sufficientemente potenti da poter operare sugli inevitabili danni ai tessuti nervosi e sulle cause della morte.
 
Le più importanti organizzazioni a livello mondiale che si occupano di studi e ricerche nel campo dell'ibernazione umana sono: il Cryonics Istitute con sede nel Mitchigan (USA) organizzazione no profit guidata da Ben Best, la Alcor Foundation con sede a Scottdale in Arizona capeggiata da Max More; in Europa, tra le organizzazione leader nel settore dell'ibernazione umana, troviamo l'inglese Cryonics-uk guidata da Tim Gibson e, in Italia, la Cryonics-it diretta da Daniele Chirico.
 
In definitiva, se pur per un fatto culturale si rifiuta la possibilità di essere riportati in vita, risulta che quello che è stato possibile per un organo animale (esperimento alla Alcor) non possa per induzione essere impossibile per un corpo intero, umano o animale
 
 


#68 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 02 settembre 2015 - 05:39

IL SAPONE
800px-4290_Istanbul_-_Topkapi_-_Sapone%2
La scoperta del sapone
Esistono varie circostanze, ancorché improbabili, che possono aver portato casualmente alla scoperta del sapone, ma è anche possibile che sia avvenuta per via empirica. Probabilmente per prime si ottennero liscivie alcaline dalla cenere di legno, che poi vennero usate per la saponificazione di sego, scarti animali, oli vegetali.
 
Le notizie storiche sono nebulose, sia per la difficoltà di distinguere il sapone vero e proprio da altre sostanze utilizzate per pulire, sia perché il sapone, per la sua natura organica e idrosolubile, non è rilevabile da ricerche di tipo archeologico, neppure attraverso i recipienti e l'equipaggiamento usati nella sua produzione che non differiscono da quelli destinati ad altri utilizzi.
 
È da tener presente che probabilmente, nell'antichità, il problema dell'igiene personale non fosse considerato prioritario (non tanto per la scarsità di acqua calda quanto per l'accentuata causticità prodotta sull'epidermide della soda impiegata con eccessiva generosità e il lezzo derivante dall'uso di grasso animale, per lo più di ovini[2]); infatti, le prime tecniche di pulizia furono sviluppate per pulire tessuti e indumenti, generalmente con l'utilizzo di argille (terra da follone), cenere e piante saponarie (da queste ultime si ricavano le saponine che formano soluzioni saponose che solubilizzano lo sporco e ne facilitano l'eliminazione).
 
Fu solo dopo essere entrati in contatto col mondo vicino-orientale islamico, nell'età delle Crociate, che ci s'impadronì delle tecniche di fabbricazione di un sapone assai meno aggressivo, con l'uso di grassi vegetali, aromi e sostanze lenitive quali il balsamo. Non a caso il sapone entrò infatti in Europa grazie ai mercanti veneziani e genovesi e, per procacciarselo, dame e gentiluomini cristiani erano disposti a pagare cifre anche molto alte.
 
Mesopotamia
La prima testimonianza dell'esistenza del sapone risale al 2800 a.C. e proviene da scavi nella zona dell'antica Babilonia. In quella zona fu ritrovato un materiale simile al sapone conservato in cilindri d'argilla che recano incise delle ricette per la preparazione.
 
Una tavoletta Sumera datata 2200 a.C. descrive un ‘sapone' composto di acqua, alcali e olio di cassia.
 
Egitto
Dal papiro di Ebers (ca. 1550 a.C.) si apprende che gli egiziani si lavavano regolarmente con un sapone preparato mescolando grasso animale e oli vegetali con un minerale raccolto nella valle del Nilo e chiamato Trona che è un'importante sorgente di soda.
 
Documenti egiziani fanno menzione di una sostanza simile al sapone utilizzata per la preparazione della lana alla tessitura.
 
I riferimenti biblici a delle sostanze usate per la pulizia non indicano nulla di simile al nostro sapone, che sembra fosse sconosciuto all'epoca.
 
In Giobbe 9:30 (circa V secolo a.C.) con la parola sapone è stato tradotto il generico termine ebraico borith, che indica la liscivia oppure un alcale come la potassa, ottenuto dalle ceneri di particolari vegetali (per esempio la Salsola kali che abbonda sulle spiagge del Mar Morto e del Mediterraneo).
 
Analogamente per l'ebraico borith mekabbeshim "alcali di coloro che pestano i panni", in Geremia 2:22 (circa VII secolo a.C.) e Malachia 3:2 (circa V secolo a.C.), che indica qualche tipo di "terra da follone", un materiale che si usava nella "follatura", un procedimento che serviva a rendere morbidi i tessuti.
 
Invece le parole soda o nitro , che pure troviamo nei versetti citati (come anche in Proverbi 25:20), indicano il natron (carbonato idrato di sodio), una sostanza che si utilizzava in Egitto dove ne esistono numerosi depositi.
 
Si tratta quindi di interpretazioni dei traduttori che, nel loro lavoro, si sono preoccupati di rendere comprensibile il testo per i lettori loro contemporanei.
 
Antica Roma
I Romani (e anche i Greci) per i quali il bagno alle terme era un'importante attività sociale oltre che una pratica igienica, non usavano il sapone come detergente, ma la porosa pomice o creta finissima oppure soda o, ancora, polveri abrasive come argilla, polvere di equiseto[3], farina di fave e, dopo il bagno massaggiavano il corpo con olio di oliva.
 
Plinio il Vecchio, scrittore latino del I secolo, usa per primo il termine latino sapo, mutuandolo dal gallico saipo, nella sua opera Naturalis historia:
 
(LA)
« Prodest et sapo, galliarum hoc inventum rutilandis capillis. Fit ex sebo et cinere, optimus fagino et caprino, duobus modis, spissus ac liquidus, uterque apud germanos maiore in usu viris quam feminis. »
(IT)
« Il sapone, anche, è molto utile a questo fine, un'invenzione dei Galli per dare una tinta rossastra ai capelli. Questa sostanza è preparata da sego e dalle ceneri, le migliori per lo scopo sono le ceneri di faggio e il grasso di capra: ce ne sono due generi, il sapone duro e quello liquido, entrambi molto usati dalla gente della Germania, gli uomini, in particolare, più delle donne. »
(Plinio il Vecchio, Naturalis historia, Libro 28, capitolo 47.)
Quindi non si tratta di sapone ma di tintura rossa per capelli.
 
Eppure il sapone non era sconosciuto, nel II secolo Galeno ne sottolinea l'importanza sia per la prevenzione di alcune malattie che per la pulizia.
 
 
Stampi per sapone antichi e saponette esposte al Museo dell'Hammam, nel Palazzo del Topkapı, a Istanbul.
Arabi
Gli arabi, già nei primi anni dell'Islam creavano saponi molto fini utilizzando grassi vegetali come l'olio di oliva ed essenze aromatiche come l'olio di alloro, che sono ancora oggi gli ingredienti principali del Sapone di Aleppo.
 
Per la saponificazione utilizzarono per primi la soda caustica, metodo che è rimasto sostanzialmente invariato fino ai nostri giorni.
 
Un manoscritto di al-Razi (865 - 925), scenziato persiano, contiene ricette per il sapone.
 
I saponi arabi, profumati e colorati, solidi o liquidi, raggiunsero la Spagna e la Sicilia dopo l'800, sull'onda dell'espansione araba, e il resto d'Europa dopo la fine delle crociate.
 
Europa
Si conosce poco sull'uso del sapone negli anni oscuri che seguirono la caduta di Roma, esistono notizie su fabbricanti di sapone (in latino saponarius ) in Europa a partire dal primo millennio.
 
La produzione del sapone, forse anche grazie ai Crociati che importarono le tecniche arabe, si andò affermando soprattutto in Spagna, Italia e Francia, nelle aree dove erano disponibili le piante marine dalle cui ceneri si ottiene la soda e l'olio d'oliva: materie prime con le quali si fabbrica un sapone di qualità molto superiore a quello fatto con grasso animale e con soda caustica.
 
L'Italia fu forse la prima a produrre questo tipo di saponi, duri e adatti all'igiene personale, in particolare Venezia, Genova e Savona; a proposito di quest'ultima è interessante notare l'assonanza con il francese savon (sapone).
 
Sapone di Castiglia
In Spagna, nel Regno di Castiglia, si bolliva olio di oliva con la barilla, una cenere alcalina ottenuta bruciando l'erba kali (Salsola kali), si aggiungeva poi della salamoia al liquido bollente per far venire a galla il sapone separandolo dalle impurità e dalla liscivia.
 
Si produceva così un sapone bianco di alta qualità chiamato Sapone di Castiglia (Jabon de Castilla); per i farmacisti Sapo hispaniensis o Sapo castilliensis. Per gli anglossassoni Castile Soap è divenuto sinonimo di sapone di olio di oliva, duro e bianco.
 
Sapone di Marsiglia
Exquisite-kfind.png Lo stesso argomento in dettaglio: Sapone di Marsiglia.
Gran Bretagna
I primi saponai inglesi di cui si ha notizia comparvero a Bristol nel XII secolo, ed erano ancora importanti all'epoca di Elisabetta I (1533-1603).
 
Producevano il “Bristol soap” nero e soffice e il più duro “Bristol grey soap”.
 
All'inizio utilizzavano grasso animale, più tardi l'importazione di oli vegetali come quello di palma, noce di cocco, oliva, semi di lino e semi di cotone, favorì la produzione di saponi che potevano meglio competere con il “Castile soap” d'importazione.
 
Nel 1633 il re Carlo I concesse ai saponai di Londra un monopolio quasi completo, dietro pagamento di una tassa; questa decisione causò malcontento, enorme danno ai saponifici di Bristol e un forte rialzo dei prezzi, ciononostante la tassazione rimase in varie forme fino al 1852 quando, in un crescendo di preoccupazione vittoriana per l'igiene, fu abolita da Gladstone nonostante la considerevole perdita per l'erario.
 
Dal XIX secolo ai giorni nostri
Nel 1789 Nicolas Leblanc (1742 – 1803) scoprì come ottenere dal sale comune della soda di buona qualità, che da quel momento fu disponibile a basso prezzo e in grande quantità. Il procedimento Leblanc rimarrà in uso fino al 1870, quando verrà soppiantato dal metodo Solvay adottato ancora oggi.
 
Nel 1823 il chimico francese Michel Eugene Chevreul pubblica "Recherches chimiques sur les corps gras d'origine animale" nel quale spiega la reazione di saponificazione.
 
Queste conoscenze aprono la strada alla produzione di sapone su più ampia scala e a basso prezzo, di conseguenza attorno alla metà dell'Ottocento si ha un diffuso miglioramento dell'igiene personale, e l'abitudine di fare un bagno diviene comune.
 
Ma già all'inizio del XX secolo compaiono i primi detergenti sintetici che avrebbero soppiantato il sapone.
 
Nel 1903 Hermann Geissler e Hermann Bauer, due chimici tedeschi, inventarono il Persil (dal nome dei suoi principali componenti: perborato e silicati ), un sapone in polvere che fu commercializzato dalla società tedesca Henkel.
 
Fu poi la penuria di grassi durante la Prima guerra mondiale e di grassi e olio durante la Seconda guerra mondiale a spingere i ricercatori a cercare alternative. Il primo prodotto per il bucato totalmente sintetico apparve nel 1946, negli Stati Uniti.
 
A partire da qui sono stati sviluppati tutti i prodotti che conosciamo oggi, differenziati e specifici per ogni uso, alcuni addizionati di agenti antimicrobici (ad esempio il triclocarban), in continua evoluzione per ovviare ai problemi di inquinamento o tossicità che continuano a emergere con il passare del tempo.
 
 


#69 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 11 settembre 2015 - 04:39

Abbigliamento
 
310px-Clothes.jpg
L'evoluzione dell'abbigliamento e della moda nella storia
L'abbigliamento nasce in tempi preistorici per rispondere a esigenze di tipo utilitaristico.[1] Esso protegge il corpo umano dai pericoli dell'ambiente: sia agenti atmosferici (freddo, pioggia, sole..), sia insetti, sostanze tossiche, armi e altri rischi alla sicurezza personale.
 
Prime apparizioni dell'abbigliamento
Tutti gli scavi finora effettuati che hanno portato al rinvenimento di oggetti e resti fossili risalenti al Paleolitico (da circa 2,5 milioni a 11-10.000 anni fa) non hanno portato alla luce elementi che possano dimostrare con sicurezza l'utilizzo di oggetti di abbigliamento da parte di ominidi in quel periodo. Il ritrovamento di rudimentali strumenti in pietra, realizzati con la tecnica della pietra scheggiata, atti con ogni probabilità alla trasformazione delle pelli in indumenti, ha però portato molti antropologi a sostenere che già 18.000 anni fa (periodo Magdaleniano), e forse anche prima, gli uomini utilizzassero pelli per coprirsi.
 
In questo contesto la ragione fondamentale per cui gli esseri umani cominciarono a lavorare le pelli, per poi indossarle, è da ricercarsi nella necessità di coprire il corpo, nudo e più fragile rispetto ad altri animali, dalle intemperie. Non sono comunque da sottovalutare altri fattori. Tra questi occorre citare la funzione simbolica dell'abbigliamento: indossare la pelle di un altro animale era equivalente a identificasi con esso, oltre a dimostrare la propria forza, con cui si era ucciso lo stesso. Con ogni probabilità l'introduzione delle pelli per coprire il corpo ha un legame anche con delle forme primitive di pudore. Questo contravviene alcune teorie secondo le quali il senso del pudore sia stata una condizione psicologica dettata dall'abbigliamento: essendo gli altri appartenenti alle comunità primitive coperti, l'uomo nudo percepiva la propria diversità dalla norma ed era portato ad equipararsi agli altri per non essere "escluso".
 
L'adozione di forme di abbigliamento agli albori della civiltà umana è quindi dovuta sia ad un fattore funzionale (protezione del corpo) sia a fattori di altra natura (simbolici, religiosi, psicologici, ecc.).
 
Dal Neolitico al I millennio a.C.
Durante gli ultimi millenni dell'Età della pietra l'utilizzo di pelli di animali per coprirsi si diffuse tra gli uomini. Nel 1991 l'eccezionale ritrovamento della mummia del Similaun contraddice l'immaginario popolare sugli "uomini primitivi" rivelando che le pelli potevano anche essere finemente lavorate (la sopravveste a strisce di colori contrastanti, unite da fitte e regolari cuciture fatte con tendini animali) e declinate in capi d'abbigliamento ben differenziati: l'uomo del Similaun possedeva berretto, pantaloni, un perizoma, calzature imbottite a forma di stivale e forse addirittura una mantella parapioggia[2]. Una vera e propria rivoluzione nel costume avvenne nel momento in cui si diffuse tra le civiltà preistoriche la lavorazione dei tessuti, che spesso garantivano maggiore protezione dal freddo e una maggiore reperibilità. La nascita della tessitura, avvenuta intorno al VI-V millennio, portò ad una notevole crescita dell'uso delle vesti, che venivano tessute anche grazie ai primi telai, che apparvero proprio nel Neolitico, anche se erano assai rudimentali. La filatura e la tessitura furono introdotte nel mondo antico grazie agli strumenti, che gli uomini preistorici iniziarono ad utilizzare intorno al 4500 a.C.
 
Cina, India e Antica Roma
Exquisite-kfind.png Lo stesso argomento in dettaglio: Abbigliamento nella Roma antica.
Nel Mondo antico l'abbigliamento era costituito esclusivamente da oggetti filati di tessuto, e l'utilizzo di pelli di animale fu ben presto superato nella maggior parte delle comunità già a partire dal I millennio a.C. I tessuti utilizzati variano a seconda del luogo: ad esempio in Cina era assai sviluppata la produzione della seta, in India la canapa ed il cotone ed in Egitto il lino. In Europa occorre ricordare come i Fenici furono i primi a praticare la tintura dei tessuti, grazie alla scoperta del pigmento della porpora, ricavato dall'essiccazione del murice. A questo punto dell'evoluzione umana l'abbigliamento non era più visto esclusivamente come metodo per proteggersi da intemperie o altri agenti esterni, ma costituiva soprattutto un simbolo di appartenenza ad un gruppo (economico, religioso, politico, ecc.). I popoli mediterranei consideravano la porpora un bene di lusso ed i Fenici ottennero grossi guadagni vendendola alle altre popolazioni. Tra gli altri tessuti utilizzati nel mondo antico ricordiamo il cotone, la lana e il bisso.
 
L'Impero Romano con la sua grande espansione venne in contatto con gli usi ed i costumi di molte popolazioni, dalle quali importò l'utilizzo di alcuni tessuti per il vestiario quotidiano o riservato ai più ricchi. Vengono così confezionati abiti come la toga, la tunica ed il pallio. Dopo Roma la filatura e la tessitura di seta, lino e lana diventano comuni a gran parte delle comunità europee, in particolare quella Bizantina, grazie ai suoi rapporti privilegiati (data la collocazione geografica) con l'Oriente. Di queste tre fibre tessili la più diffusa in questo periodo fu certamente la lana, sia per ragioni economiche (l'allevamento di ovini era abbastanza diffuso) che funzionali (alta capacità termica della stessa).
 
Abbigliamento nel Medioevo
Exquisite-kfind.png Lo stesso argomento in dettaglio: Storia della moda 1100-1200.
Lo sviluppo del settore tessile conosce un fermento, almeno per quanto riguarda l'Europa, a partire dai primi secoli del I millennio d.C., grazie soprattutto ad una rinascita degli scambi commerciali sia tra le nazioni sia tra Oriente ed Occidente. In Italia l'importazione di tessuti era uno dei fattori che produssero più ricchezza per le repubbliche marinare, anche se assunse un certo rilievo anche il commercio interno, soprattutto per rifornire le città più ricche (Firenze, Palermo, Lucca, ecc.). L'abbigliamento di lusso o comunque con materiali pregiati rimase appannaggio delle classi nobiliari, delle corti di re e imperatori e dei ceti più abbienti (grandi commercianti, banchieri, ecc.). La qualità generale delle vesti comunque aumenta anche per le fasce di popolazione meno agiate, anche grazie all'adozione di strumenti che permettono una maggiore precisione nella sartoria: il ditale, gli aghi d'acciaio, le forbici a lame incrociate. Un altro importante fattore è l'inizio della diffusione, a partire dal XIV secolo, della biancheria.
 
XV, XVI e XVII secolo
Exquisite-kfind.png Lo stesso argomento in dettaglio: Storia della moda 1300-1400.
Seguendo una tendenza già presente in paesi come Francia ed Italia nei secoli precedenti, dal Quattrocento le figure sociali legate all'abbigliamento (sarti, tessitori, venditori di vestiti) acquisiscono sempre più potere economico (e quindi anche politico). Sul mercato dell'abbigliamento compaiono merletti, velluti pregiatissimi, calze, berretti, tessuti broccati, la cui produzione aumenta di pari passo con la crescita economica e tecnologica. Dal XVI secolo le corti di Francia e Spagna raggiungono e superano in splendore quelle italiane (Este, Medici): il fasto dell'abbigliamento diventa rappresentativo della ricchezza e del potere dei nobili. Il vestiario perde sempre di più, nei ceti medi e alti, la funzione pratica, diventando spesso puri ornamenti. Le corti seicentesche sono un esempio dell'evoluzione dell'abbigliamento: non solo i principi, ma anche i poeti, i ciambellani, le dame e le guardie vengono dotati di uniformi pregiatissime, colorate in modo variopinto e fatte con tessuti costosissimi.
 
La rivoluzione industriale e l'Ottocento
Lo sviluppo dell'abbigliamento era andato di pari passo con quello della tecnologia tessile, in particolare con lo sviluppo dei telai: nel 1790, nell'ambito della Rivoluzione industriale, Joseph-Marie Jacquard inventa l'omonimo telaio, che permette di aumentare sia la precisione sia la velocità di produzione dei tessuti. L'evoluzione tecnologica si estende anche ai filatoi: tutto ciò attribuisce il primato nell'industria tessile ai paesi che per primi sono investiti dal fenomeno della rivoluzione industriale, tra tutti l'Inghilterra. Il mercato del vestiario conosce una crescita continua: la produzione tessile si meccanicizza e razionalizza assumendo notevoli dimensioni, rendendo l'industria dell'abbigliamento la più sviluppata del periodo.
 
Tra le fine del Settecento e l'Ottocento l'industria tessile è in grado si soddisfare le richieste, oltre che delle classi più abbienti, anche della media e bassa borghesia. Durante il XIX secolo cominciano ad apparire quelle tipologie di vestiti che sono utilizzate tutt'oggi: aderenti al corpo, con le maniche, leggeri o pesanti, con stoffe prevalentemente scure. Il miglioramento delle condizioni igieniche, assieme a quelle economiche, permette ad una buona parte della popolazione europea e nord-americana di indossare la biancheria. Il 1842 è un'altra data fondamentale: John J. Greenough brevetta la macchina per cucire, con la quale gli indumenti possono essere confezionati con grande velocità, ed il risparmio di denaro che ne deriva fa sì che la produzione può assumere dimensioni ancora più vaste. L'industria dell'abbigliamento può adesso realizzare la produzione in serie dei vestiti, favorendo la creazione di centri industriali tessili e di grandi magazzini per la vendita dei loro prodotti. Successivamente, sia nell'Ottocento che nel secolo successivo, il perfezionamento della macchina per cucire permetterà di meccanizzare anche altre operazioni (ricamo, soprafilo, rammendo, cucitura dei bottoni, ecc.).
 
Il Novecento
Exquisite-kfind.png Lo stesso argomento in dettaglio: Abbigliamento nel XX secolo.
L'abbigliamento conobbe, nel XX secolo, una evoluzione straordinaria, ed una espansione produttiva e tecnologica senza pari. I due conflitti mondiali, ed i relativi dopoguerra, portano, dapprima, la crisi economica in molte nazioni: i materiali pregiati diventano appannaggio di pochissimi, mentre si diffondono quelli di recupero (lana riciclata, sughero per le scarpe). In seguito, con il miglioramento della situazione economica, si ha un sempre maggiore sviluppo dell'industria del vestiario, che introduce, oltre ad una grandissima scelta di nuovi prodotti (busti, tailleur, gonne, jeans, tute da sport tanto per citarne alcuni) anche la scelta di nuovi materiali frutto della tecnologia come le fibre artificiali e sintetiche, meno costose e adattabili a situazioni diverse (tecnofibra).
 
 


#70 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 17 settembre 2015 - 07:49

LA SCOPA
 
 
 
220px-Shimogamo-Broom-M1625.jpg
La scopa è stata senza dubbio il primo strumento utilizzato dall'uomo per la pulizia della casa o in generale per pulire i luoghi dove viveva. Non è difficile intuire che probabilmente la prima scopa altro non era che un ramo con le foglie ancora attaccate ad esso.
 
La scopa forse più conosciuta è quella di ramaglia di nocciolo, betulla, ginestra, bambù ecc. (la classica scopa delle streghe o la famosa scopa volante di Harry Potter) utilizzata esclusivamente per lo spazzamento di aree esterne e che vedete rappresentata in foto. Grande importanza nell'economia ha invece avuto la fabbricazione e la vendita delle scope in saggina utilizzate comunemente per lo spazzamento delle case almeno fino alla seconda guerra mondiale.
 
Due erano le zone principalmente interessate nella fabbricazione delle scope in saggina:
 
il Polesine, Padova e provincia
il Canavese, specialmente il piccolo paese di Foglizzo in provincia di Torino, famoso per la sua pregiata e rara saggina rossa.
 
Classica scopa per esterni in saggina
Se però per la provincia di Padova la scopa di saggina rappresentava una risorsa sfruttata su basi "industriali" per il piccolo paese canavesano la scopa di saggina era un semplice espediente per riempire le giornate. A Foglizzo infatti le scope erano fabbricate nelle stalle durante le giornate invernali quando nelle campagne non si poteva lavorare.
 
Da questi due centri le scope erano distribuite in tutta Italia spesso dagli stessi artigiani che le costruivano. La scopa di saggina da sempre è fabbricata completamente a mano.
 
Oggi l'uso della scopa in saggina si è molto ridotto ed ormai la sua fabbricazione in Italia non esiste praticamente più. Le scope in saggina si importano dei paesi dell'Est europeo, dalla ex Jugoslavia o dalla Cina, mentre in Polesine solo pochi e rari artigiani ancora continuano a fabbricare questi strumenti.
 
Dagli anni cinquanta si è iniziato a fabbricare scope con le fibre sintetiche impropriamente chiamate nylon; la scopa si è così evoluta fino ai giorni nostri assumendo le svariatissime forme che oggi tutti conosciamo.
 
 
Moderna scopa in saggina
Classificazione in base all'utilizzo
Per interno
Il classico attrezzo utilizzato da tutte le massaie. È composta da un manico che può essere di diversi materiali (legno, acciaio, alluminio) e dalla scopa vera e propria. Questa a sua volta è composta da un supporto in materiale plastico al quale viene avvitato il manico e chiamato in gergo tecnico '"bustino'". Su questo supporto con una speciale macchina vengono applicate le setole che svolgono la funzione spazzante vera e propria. Le setole possono essere in diversi materiali: nylon, PVC, poliestere, setole naturali, a seconda dello specifico tipo di impiego. Poi la scopa non è utilizzata solo per interni ed esterni ma anche per lavori generali(es stalla)
 
Per esterno
La scopa per esterni, detta anche ramazza è costituita da un manico quasi sempre in legno intorno al quale vengono disposte le setole (saggina, bambù) che sono poi fissate con chiodi e filo di ferro.
 
Da alcuni anni si sono però utilizzati anche altri sistemi per fabbricare le scope in saggina per cercare di industrializzare la produzione. Dagli USA sono poi arrivate particolari scope rivolte specialmente a spazzini ed aziende specializzate con forme e materiali spesso inusuali.
 
Simbologia[modifica | modifica wikitesto]
Fin dall'antico Egitto, alla scopa erano attribuiti poteri magici. La fiaba dell'apprendista stregone che anima la scopa liberandosi dai problemi è un tema già presente nelle antiche culture. L'atto di spazzare tutte le stanze di una casa nell'antica Grecia aveva una valenza simbolica e serviva a scacciare le anime dei morti.
 
Nell'iconografia cristiana vengono raffigurate con la scopa Santa Marta e Santa Petronilla.
 
Nelle leggende medievali, la scopa era il mezzo che veniva utilizzato dalle streghe per volare. In questo senso, al manico di scopa tra le gambe nude delle streghe veniva dato un significato fallico.
 
Nelle credenze popolari, alla scopa si attribuisce un potere benefico in quanto capace di "spazzare via i guai". Per questo motivo a capodanno si usa ancor oggi, in alcune regioni, regalare delle piccole scope ornamentali come portafortuna per l'anno che sta per arrivare.
 
 


#71 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 23 settembre 2015 - 06:27

 

Come giocare con una calcolatrice senza fare nessun calcolo

      Calcolatrice-300x293.jpg

A scuola bene o male ci siamo andati tutti, ed io che ci vado ancora capisco bene che anche a te alcune volte ti sarà capitato di annoiarti a morte e di voler fare qualcosa di diverso per passare il tempo senza rischiare di essere beccato ad esempio a giocare al cellulare o ad ascoltare la musica dall’ipod. Sicuramente senza qualcosa di minimamente tecnologico non si può fare granchè, ma scommetto che non sai che anche una semplice calcolatrice in certi casi può diventare la tua migliore amica. Ecco qua cosa puoi farci:

  1. Giocare a pong: funziona sulle calcolatrici Canon, alcune Samsung e alcune Casio (dipende dal chip interno).
  2. Quello che devi fare è inserire i numeri “336652″ oppure “336662″ e successivamente premere + e – contemporaneamente
  3. Giocare a tetris: stesse calcolatrici del punto precedente
  4. Devi inserire i numeri “153349″ e premere contemporaneamente + e -
  5. Giocare a defender: stesse calcolatrici del punto precedente
  6. Devi inserire i numeri “125993″ e premere contemporaneamente + e -
  7. Giocare a molti videogiochi nintendo: funziona sulle calcolatrici calcolatrici grafiche Texas Instruments, Casio ecc.

 

indice

 



#72 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 23 settembre 2015 - 07:02

Storia del make up
 
 
 
egiziana.jpg
La storia del make up ha origini antichissime, tutta la cosmesi che oggi abbiamo a disposizione è frutto di secoli di storia, di scoperte e tradizioni che si sono evolute nel tempo e incrociate man mano con la scienza e sopratutto con la medicina. Il culto della bellezza, della cura della persona era già diffuso nell’antico Egitto: il popolo di Cleopatra è stato tra i primi a sviluppare un ampio assortimento di prodotti cosmetici e a documentarne l’importanza nella loro cultura. Il primo reperto archeologico che testimonia l’utilizzo di trucchi è addirittura del 4000 a.C., cosi come le statuette dei Sumeri dimostrano come fosse diffusa la tendenza a marcare, per esempio, il contorno occhi con il colore nero, tendenza presente d’altronde in tutta l’area della Mesopotamia del tempo e, attualissima, nei nostri moderni smokey eyes. Volete sapere come illuminavano e correggevano i difetti le donne nell’epoca vittoriana? O sapere quando ha fatto la sua prima comparsa il mascara sulle ciglia delle donne? Seguiteci in questo fantastico viaggio nel tempo del make up.
Le origini del make up: gli Egiziani
storia del make up
 
I primi ad aver creato una linea cosmetica sono stati gli egiziani. Utilizzavano la Kohl, una polvere di colore scuro ottenuta dalla macinazione del bruciato di mandorle, il piombo e il rame, minerali, cenere e ocra tutte sostanze lavorate che venivano applicate sugli occhi con un bastoncino per dare all’occhio uno sguardo a mandorla, considerato molto attraente.Trucco ma non solo: il pesante make up degli antichi egizi, soprattutto delle bellissime regine come la leggendaria Nefertiti, non serviva solo a rendere i loro occhi colorati, seducenti e brillanti, ma aveva una vera e propria funzione preventiva e terapeutica, con il trucco proteggevano di fatto gli occhi dalle infezioni.
La cosmesi ai tempi dei Romani
storia del make up
 
Già dal I secolo i Romani usavano la Khol per il trucco di ciglia e sopracciglia. Le donne romane verso la fine del III sec. a.C. cominciarono a portare i capelli lunghi in acconciature molto elaborate, costituiti da riccioli sovrapposti. Erano molto utilizzate le tinture, ed il colore preferito era il biondo-rosso. Le labbra venivano tinte di rosso utilizzando polvere di ocra, ed il volto e le braccia erano imbiancati con biacca oppure gesso, il contorno degli occhi veniva annerito con della fuliggine. Per sbiancare ed ammorbidire la pelle si usava il latte d’asina e per darle freschezza, invece, la cospargevano di cerussa, una crema a base del velenoso ossido di piombo.
Il trucco nell’epoca Vittoriana
Storia del make up
 
Intorno al periodo Vittoriano, il trucco del viso truccato cominciò ad essere associato a prostitute ed attrici. Le donne ricorrevano a misure estreme per apparire con una pelle diafana utilizzando ingredienti come il piombo e l’arsenico. Neppure il sole era ben visto: la pelle per essere giovane e sana doveva essere protetta da velette e ombrellini. Ingredienti naturali come fiocchi d’avena, miele, tuorli d’uovo, e rose sostituivano i cosmetici. Le sopracciglia erano ridisegnate ed era utilizzato il riso in polvere su viso e decolleté.
Il make up nei primi del ’900: le prime case cosmetiche
storia del make up
 
Nel 1930 il trucco era utilizzato dalle donne di tutte le classi sociali. Le donne avevano icone come Greta Garbo e Marlene Dietrich da utilizzare come modelli. Le grandi case cosmetiche come Max Factor, Elizabeth Arden, Revlon, Lancôme fioriscono. La prima che nacque nel 1909 fu L’Oreal di Eugene Shueller che apparse con il nome di French Harmless Hair Colouring Company. Il 1910 è l’anno dell’incremento dello sviluppo dei trucchi, soprattutto a causa della triade statunitense Elizabeth Arden, Helena Rubinstein e Max Factor, ma neanche gli anni successivi sono privi di nuove comparse come il gruppo Revlon e Esté Lauder. La bocca veniva colorata a forma di cuore all’interno dei contorni naturali che andavano coperti col fondotinta. Le sopracciglia erano sottili e cadenti, così come la forma degli occhi, contribuendo a determinare quell’aspetto tipicamente languido.
Il boom del make up: gli anni ’50
storia del make up
 
Nel 1950 il make up subisce una vera rivoluzione: per effetto dell’ottimismo post guerra si ha una vera e propria esplosione di colori. Un boom nel settore bellezza condotto da Avon che inaugura la vendita porta-a-porta di cosmetici. Sono gli anni in cui il cinema incomincia a sfornare modelli e icone da copiare come la bella Audrey Hepburn con il suo make up particolarissimo cat-eyes.
Make up anni ’70: colori e occhi al top
storia del make up
 
Il make up negli anni ’70 diventa ancor più esasperato.
L’accento resta sugli occhi, compaiono le ciglia finte. Le labbra sono colorate con tinte perlescenti e pallide. Deodoranti, fissatori per capelli e schiume da barba assunsero la forma tecnologicamente avanzata dello spray. Per la secchezza del viso nacquero sistemi emollienti e per le vacanze al mare i primi oli solari. Tonici e latti detergenti che erano gia’ usati ma con effetti trattanti iniziarono a diffondersi con funzione di detergenti. Gli ingredienti usati per questi primi cosmetici dell’era moderna sono vegetali: glicerina, olio di semi, lanolina, cera d’api, ma a breve tempo, la crescente industria del petrolio fornisce a basso costo derivati minerali: olio di vaselina, vaselina filante, paraffina.
Make up anni ’80: trucco accentuato e colori drammatici
Storia del make up
 
Negli anni ‘80 il trucco che fa tendenza è pesante, accentuato, gli occhi scuri e drammatici, truccati con l’aiuto di molti strati di eyeliner e ombretti brillanti nelle tonalità blu, verde e viola. Per le labbra, le donne preferiscono colori forti, come il rosso. Una polvere metallica prodotta con un minerale, la mica, diventa famosa per l’uso su palpebre e sul corpo per ottenere riflessi brillanti. Inizia la diffusione di prodotti per combattere la cellulite, il vero boom si raggiungerà negli anni ’90 quando creme e unguenti e macchinari invaderanno il mercato della cosmesi.
Cosmesi anni 2000: l’era della chirugia estetica
storia del make up
 
La chirugia estetica prende sempre più piede in questi anni, labbra gonfiate, seni che raddoppiano la taglia, visi tirati e tratti distesi che omolagano la bellezza femminile. E’ l’era dell’esasperazione della chirurgia estetica. Anche la storia della chirurgia estetica è molto antica. Gli impianti moderni, a base di silicone, iniziarono nel 1963 ma già nel 1800 venivano effettuati i primi interventi di rinoplastica. La liposuzione è invece più recente: la tecnica di aspirare il grasso con una cannula fu inventata dall’italiano Arpad Fisher, e modificata nel 1987 dal dermatologo Jeffrey Klein, con una nuova tecnica che consentiva di asportare un volume maggiore di grasso, ma con meno perdita di sangue. A partire dai primi anni ’90 si è iniziato a studiare il botulino per l’utilizzo in chirurgia estetica. Iniettata nei muscoli mimici del viso questa sostanza provoca una riduzione dell’attività contrattile attenuando così le rughe d’espressione.
 
 


#73 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 01 ottobre 2015 - 02:58

Il diamante più grande del mondo
 
 
1280px-Cullinan_Diamond_and_some_of_its_
Cullinan (diamante)
 
Copie dei nove maggiori pezzi in cui è stato tagliato il Cullinan.
Il diamante Cullinan, detto anche Stella d'Africa, è il più grande diamante grezzo ritrovato, con un peso di 3.106,75 carati (pari a circa 621 grammi).
 
Questo diamante fu trovato da Frederick Wells, direttore della Premier Mine a Cullinan, in Sudafrica, il 26 gennaio 1905[1].
 
La pietra è così chiamata in onore di Sir Thomas Cullinan, il proprietario della miniera di diamanti.
 
Il taglio di questa pietra, effettuato nel 1908 dalla ditta Asscher di Amsterdam, ha prodotto 105 diamanti dalle varie fogge, i più importanti dei quali oggi fanno parte dei Gioielli della corona britannica.
 
Tra di essi si segnalano per le grandi dimensioni:
 
il Cullinan I (o grande Stella d'Africa), di 530,20 carati (106,04 grammi), incastonato sullo scettro di sant'Edoardo e dal taglio a goccia (il secondo più grande diamante tagliato al mondo);
il Cullinan II, di 317,40 carati (63,48 grammi), dal taglio a cuscino (il quarto più grande diamante tagliato al mondo); è incastonato sulla corona imperiale di stato del Regno Unito;
il Cullinan III, di 94,40 carati;
il Cullinan IV, di 63,60 carati.
Tutti i suddetti diamanti sono conservati nella Torre di Londra.
 
 


#74 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 07 ottobre 2015 - 11:08

Il sonno

 

51-aspetti_di_vita_quotidiana%2C_sonno%2

 

Il sonno è definito come uno stato di riposo contrapposto alla veglia. In realtà questa definizione, come altre definizioni che si possono trovare su vari dizionari (periodica sospensione dello stato di coscienza durante la quale l'organismo recupera energia; stato di riposo fisico e psichico, caratterizzato dalla sospensione, completa o parziale, della coscienza e della volontà, dal rallentamento delle funzioni neurovegetative e dall'interruzione parziale dei rapporti sensomotori del soggetto con l'ambiente, indispensabile per il ristoro dell'organismo) non è completamente vera. Come la veglia, infatti, il sonno è un processo fisiologico attivo che coinvolge l'interazione di componenti multiple del sistema nervoso centrale ed autonomo.
 
Infatti, benché il sonno sia rappresentato da un apparente stato di quiete, durante questo stato avvengono complessi cambiamenti a livello cerebrale che non possono essere spiegati solo come un semplice stato di riposo fisico e psichico. Ad esempio, ci sono alcune cellule cerebrali che in alcune fasi del sonno hanno una attività 5-10 volte maggiore rispetto a quella che hanno in veglia. Due caratteristiche fondamentali distinguono il sonno dallo stato di veglia: la prima è che nel sonno si erige una barriera percettiva fra mondo cosciente e mondo esterno, la seconda è che uno stimolo sensoriale di un certo livello (ad esempio un rumore forte) può superare questa barriera e far svegliare chi dorme. Un adeguato sonno è biologicamente imperativo ed appare necessario per sostenere la vita.
 
Bambino che dorme
È difficile dare una definizione precisa e univoca del sonno. Una delle più calzanti è quella data nel 1985 da Fagioli e Salzarulo, che lo presentano come "uno stato dell'organismo caratterizzato da una ridotta reattività agli stimoli ambientali che comporta una sospensione dell'attività relazionale (rapporti con l'ambiente) e modificazioni dello stato di coscienza: esso si instaura autonomamente e periodicamente, si autolimita nel tempo ed è reversibile".
 
Altra definizione: Stato prontamente reversibile di ridotta attività ed interazione con l'ambiente circostante. La dizione "prontamente reversibile" non si può quindi associare al coma o all'anestesia che, rispettivamente, sono una patologia e uno stato di quiete indotto farmacologicamente.
 
Il sonno quindi si differenzia da altri stati di alterazione di coscienza:
 
Col sonno l'abolizione dello stato di vigilanza è, come già detto, reversibile. Quindi il soggetto può risvegliarsi dopo uno stimolo anche non doloroso.
Lo stupor, diversamente, è un'alterazione dello stato di coscienza dal quale ci si può risvegliare solo dopo somministrazione di uno stimolo doloroso.
Lo stato comatoso è un'alterazione dello stato di coscienza dal quale non ci si può risvegliare dopo somministrazione di uno stimolo doloroso.
Ben più grave è la morte cerebrale con la cessazione irreversibile di tutte le attività cerebrali.
 
Macrostruttura e microstruttura del sonno
Tradizionalmente, tre misure principali sono state usate per definire la fisiologia del sonno:
 
l'elettroencefalogramma (convenzionalmente abbreviato come "EEG") che traduce l'attività cerebrale in onde elettriche[senza fonte]
l'elettrooculogramma (convenzionalmente abbreviato come "EOG") registra i movimenti oculari e li traduce in onde elettriche
l'elettromiogramma (convenzionalmente abbreviato come "EMG") che registra l'attività muscolare (solitamente in polisonnografia quella del muscolo miloioideo).
Questi tre parametri definiscono il montaggio sonno[non chiaro] della polisonnografia. A questi parametri possono essere aggiunti altri parametri come la pressione arteriosa, la ph-metria esofagea, la temperatura corporea e altri che definiscono il montaggio libero[non chiaro].
 
Nel 1953 Eugene Aserinsky e Nathaniel Kleitman scoprirono la presenza dei movimenti oculari rapidi (REM) durante il sonno. Questa semplice osservazione permise di differenziare il sonno in una fase REM (con movimenti oculari rapidi) e in una fase non REM (fase NREM). Nel 1963 Kleitman e Dement descrissero per la prima volta l'alternanza, durante il periodo di sonno, del sonno REM e NREM in cicli, introducendo il concetto di architettura del sonno.
 
Alla fine degli anni sessanta, dopo la scoperta del sonno REM e NREM e del concetto di ciclicità di queste due fasi all'interno del sonno è nata la necessità di classificare in maniera standard le variazioni elettroencefalografiche che si verificavano durante il sonno in maniera macroscopica. Nel 1968 Rechtschaffen e Kales basandosi sull'analisi dei parametri elettroencefalografici, elettromiografici ed elettrooculografici classificarono il sonno in 5 stadi: 4 stadi NREM (stadio 1; stadio 2; stadio 3; stadio 4) ed uno stadio REM.
 
Le fasi del sonno
 
Ipnogramma rappresentativo delle differenti fasi del sonno. Il sonno REM (in rosso) è più frequente prima del risveglio.
Il sonno presenta un'alternanza regolare di fasi non-REM e REM costituita da cicli di durata simile tra loro. Dopo l'addormentamento il soggetto passa progressivamente dallo stadio 1 del sonno non-REM allo stadio 4, dopodiché ritorna fino allo stadio 3 o allo stadio 2 e quindi, tra i 70 e i 90 minuti dopo l'addormentamento, si verifica la prima fase di sonno REM che dura circa 15 minuti. Alla fine della prima fase di sonno REM si conclude il primo ciclo che dura all'incirca dagli 80 ai 100 minuti. Dopo il primo ciclo, se ne susseguono altri di durata piuttosto costante ma dove il sonno REM tende ad aumentare in durata a scapito del sonno non-REM, in particolare degli stadi 3 e 4 (sonno profondo) che si fanno più brevi. Durante la notte, alla fine, il sonno REM costituisce circa il 25% della durata totale del sonno. È possibile che tra i vari cicli vi siano momenti di veglia. Il periodo di sonno viene rappresentato graficamente mediante gli ipnogrammi che illustrano il succedersi delle fasi di veglia e sonno in rapporto al tempo. Una più recente classificazione degli stadi del sonno ha abolito la distinzione tra stadio 3 e 4, accorpandoli in un unico stadio di sonno profondo, denominato N3.
 
Veglia
Durante la veglia l'EEG alterna fondamentalmente tra due pattern. Un pattern chiamato di "attivazione" (o pattern desincronizzato) caratterizzato da onde di basso voltaggio (10-30 microvolt) ed alta frequenza (16-25 Hz) ed un secondo chiamato "attività alfa" caratterizzato da onde sinusoidali di 8-12 Hz. L'attività alfa è tipicamente presente ed abbondante quando il soggetto è rilassato ad occhi chiusi. Il pattern di attivazione è presente quando il paziente è in stato di attenzione ad occhi aperti. I movimenti oculari sono sia rapidi che lenti e il tono muscolare è medio-alto.
 
Stadio 1
Durante lo stadio 1 l'attività alfa diminuisce, il pattern di attivazione scarso, L'EEG è costituito principalmente da onde di basso voltaggio di frequenza mista tra i 3-7 Hz. I movimenti degli occhi sono ancora presenti ma lenti, rotanti e oscillatori (non in opposizione di fase come nella fase REM). L'elettromiogramma mostra una attività tonica persistente benché di intensità inferiore rispetto alla veglia.
 
Stadio 2
Nello stadio 2 è presente una attività di fondo di voltaggio relativamente basso, con frequenza variabile ma vicina alle onde theta (3-7 Hz). Lo stadio 2 è caratterizzato dalla presenza di due componenti, i cosiddetti complessi K e i fusi del sonno (o spindles). Questi ultimi di provenienza talamica, mancano nell'insonnia familiare letale, malattia mortale per la privazione del sonno. I movimenti degli occhi sono lenti, mentre l'EMG si riduce ulteriormente.
 
Stadio 3
Nello stadio 3 il 20% - 50% di ogni epoca (convenzionalmente un periodo di registrazione EEG di 30 sec.) deve contenere attività Delta ovvero onde EEG di grande ampiezza (>75 microvolt) e bassa frequenza (circa 0,5 - 4 Hz). Il tono muscolare in questo stadio è lievemente ridotto ed i movimenti degli occhi praticamente assenti. I fusi del sonno possono presentarsi oppure no, mentre sono presenti i complessi K, sebbene spesso siano difficilmente distinguibili dalle onde delta.
 
Stadio 4
Lo stadio 4 è caratterizzato dalla presenza di onde delta, che qui raggiungono la massima ampiezza e la minima frequenza, per più del 50% di ogni epoca. Come per lo stadio 3, i fusi possono essere assenti o presenti mentre i complessi K sono presenti, ma pressoché irriconoscibili dal ritmo delta di fondo. I movimenti degli occhi non sono presenti mentre persiste uno stato di attivazione muscolare tonica molto basso. In questa fase l'attività metabolica del cervello è ridotta (minor consumo di ossigeno e glucosio). Se il soggetto si sveglia in questa fase può rimanere confuso per qualche minuto.
 
Stadio REM
Exquisite-kfind.png Lo stesso argomento in dettaglio: Rapid eye movement.
Lo stadio REM è caratterizzato da un EEG a basso voltaggio con frequenze miste. L'EEG del sonno REM ricorda molto quello dello stadio 1 se non per le caratteristiche scariche di onde con la caratteristica morfologia a 'dente di sega'. Compaiono le onde PGO (ponto-genicolo-occipitali), l'attività dell'ippocampo si fa sincronizzata con la comparsa di onde theta. Lo stadio prende il nome dai i movimenti oculari rapidi e per il basso tono dei muscoli mentonieri. Inoltre questa fase è caratteristica per la paralisi dei muscoli (per evitare di mimare i sogni) e perché è quella in cui si verificano prevalentemente i sogni. Il cervello consuma ossigeno e glucosio come se il soggetto fosse sveglio e stesse svolgendo un'attività intellettuale. Se ci si sveglia in questa fase si è perfettamente orientati. Questo stadio è caratterizzato anche da un controllo più impreciso delle funzioni vegetative dell'organismo, infatti la pressione arteriosa aumenta e subisce sbalzi, la frequenza cardiaca aumenta e possono comparire extrasistoli, aumenta la frequenza respiratoria che si fa più irregolare inoltre è in parte compromessa la termoregolazione. Si possono verificare erezione del pene nell'uomo e modificazioni genitali nella donna. Il sonno REM tende a ridursi con l'avanzare dell'età e raggiunge un picco all'età di 1 anno per poi diminuire in favore del sonno non-REM.
 
Stato di attivazione di aree cerebrali durante il sonno
Durante il sonno sono attivi il tegmento pontino, la circonvoluzione paraippocampale, l'amigdala, l'ippocampo, la corteccia del cingolo anteriore, aree corticali temporo-occipitali, aree limbiche, alcuni nuclei del talamo e parte del prosecefalo basale. Sono invece deattivati la corteccia prefrontale dorsolaterale, la corteccia del cingolo posteriore e la corteccia parietale. Gli aspetti emozionali dei sogni sembrano avere origine nelle aree limbiche e paralimbiche, nell'amigdala e nella corteccia anteriore del cingolo mentre la deattivazione della corteccia prefrontale renderebbe conto della difficoltà nel ricordare i sogni nello stato di veglia.
 
Controllo della veglia e del sonno
Il ciclico alternarsi di veglia e sonno è controllato da sistemi neuronali che si trovano in particolare nel tronco encefalico e nel diencefalo. Alcuni sistemi promuovono e mantengono la veglia mentre altri promuovono e mantengono il sonno.
 
Sistemi che controllano la veglia
Un primo sistema che controlla e mantiene lo stato di veglia è rappresentato dai nuclei aminergici del tronco encefalico, in particolare dai neuroni noradrenergici del locus coeruleus e dai neuroni serotoninergici dei nuclei del rafe, si presume però che abbiano un ruolo anche i neuroni dopaminergici della sostanza nera. Questi neuroni proiettano diffusamente alla corteccia, al talamo, all'ipotalamo e all'ippocampo. Quando il soggetto è vigile, la frequenza di scarica dei neuroni di questi sistemi è massima, si riduce notevolmente durante il sonno non-REM e quasi del tutto durante il sonno REM, ciò fa pensare che siano sistemi coinvolti nel mantenimento della veglia. Questi neuroni possono anche andare incontro a fenomeni di autoinibizione che favoriscono il sonno. Condizioni che ne stimolano l'attività promuovono la veglia, se invece questi sistemi vengono inibiti viene promosso il sonno. Se però sembra vero che la stimolazione del sistema noradrenergico stimoli e mantenga la veglia, la serotonina, pur stimolando anch'essa la veglia, favorisce, nel tempo, la sintesi il rilascio di sostanze che promuovono il sonno ed inibisce i neuroni colinergici del prosencefalo basale, coinvolti nel mantenimento della veglia, svolgendo quindi un ruolo ambiguo.
Un secondo sistema che promuove la veglia è costituito dai neuroni colinergici del prosencefalo basale. Questi neuroni proiettano alla corteccia, attivandola, all'ippocampo e all'amigdala, e, oltre che durante la veglia, sono attivi durante la fase REM, poco attivi in quella non-REM. Sono inibiti da terminazioni serotoninergiche provenienti dai nuclei del rafe.
I nuclei colinergici del tronco encefalico comprendono il nucleo laterodorsale del tegmento pontino e il nucleo del tegmento peduncolopontino che sono costituiti da due popolazioni di neuroni. Una prima popolazione è caratterizzata da neuroni attivi durante il sonno REM, che scaricano a bassissima frequenza durante la veglia e il sonno non-REM e che proiettano ai nuclei aminergici del tronco encefalico. La seconda popolazione è costituita da neuroni la cui frequenza di scarica è massima durante la veglia e durante il sonno REM e che proiettano al talamo e all'ipotalamo, attivandoli.
Il nucleo tuberomammillare contiene i neuroni istaminergici ipotalamici che proiettano diffusamente a quasi tutto il sistema nervoso centrale promuovendo il mantenimento della veglia e sono massimamente attivi in questa fase. L'inibizione di questi neuroni con antistaminici induce sonnolenza.
L'ipotalamo postero-laterale comprende un piccolo gruppo di neuroni orexinergici che mantengono la veglia e sono coinvolti anche nella regolazione dell'assunzione di cibo. Proiettano diffusamente alle strutture coinvolte nella regolazione del ciclo sonno-veglia nel sistema nervoso centrale.
Sistemi che controllano il sonno[modifica | modifica wikitesto]
Il nucleo preottico ventrolaterale dell'ipotalamo anteriore, altre aree ipotalamiche e del prosencefalo basale contengono neuroni GABAergici e neuroni rilascianti galanina che proiettano alle strutture coinvolte nel mantenimento della veglia e le inibiscono, favorendo il sonno, fase nella quale presentano la massima frequenza di scarica.
Il rilascio di adenosina da parte del metabolismo cerebrale si accompagna ai periodi di veglia. Questa sostanza, interagendo con i suoi recettori, inibisce i circuiti che promuovono la veglia ed attiva quelli che promuovono il sonno, principalmente disinibendo i neuroni GABAergici del nucleo preottico ventrolaterale dell'ipotalamo anteriore. La caffeina e stimolanti correlati invece contrastano l'effetto dell'adenosina perché le impediscono il legame ai suoi recettori.
Le citochine possono promuovere il sonno in condizioni fisiologiche o patologiche.
Teorie sulla genesi evolutiva del sonno
 
Teoria del recupero
Secondo questa teoria, il sonno avrebbe la funzione di ristorare l'organismo: in particolare il sonno avrebbe una funzione di recupero sull'organismo durante le fasi NREM e di recupero e fissazione della memoria (facilitando l'incorporazione di nuovi comportamenti appresi in veglia) durante le fasi REM. Solitamente, si consiglia di dormire almeno 8 o 9 ore. Se un individuo è sottoposto a più di queste ore di base sarà pervaso da uno stato di tranquillità e di stanchezza poiché il nostro organismo tende a conservare lo stato di massima rilassatezza. Ciononostante, se si dovessero fare anche solo 5 ore di sonno, la cosa non avrebbe molta rilevanza sull'organismo; possono però sorgere dei problemi dopo almeno quattro mesi di sonno disturbato. [senza fonte]. Secondo uno studio recente, 7 ore di sonno, oltre ad essere sufficienti per un perfetto recupero fisiologico, determinano anche una maggior longevità.
 
Teoria della conservazione dell'energia
Questa teoria si fonda sull'osservazione nella quale durante il sonno si assiste ad una riduzione dell'attività metabolica del 10% e della temperatura del corpo. Questo dato ha poco valore nell'uomo, ma assume grande significato dal punto di vista evolutivo; gli animali omeotermici come i mammiferi e gli uccelli hanno bisogno di un notevole dispendio di energia per mantenere costante la temperatura interna. Per questo motivo la riduzione di temperatura che si verifica soprattutto durante le prime fasi del sonno avrebbe il significato di preservare energia. Questo processo è lo stesso che permette a molti animali di iniziare il processo di letargo.
 
Teoria dell'apprendimento
Secondo questa teoria il sonno e soprattutto il sonno REM avrebbe un ruolo determinante per la maturazione del sistema nervoso centrale, infatti durante la fase REM si assiste ad un incremento dell'attività cerebrale. In studi sperimentali uomini sottoposti a sessioni intensive di apprendimento presentavano un aumento significativo del sonno REM, espressione del processo di fissazione dei dati appresi nella memoria a lungo termine. I neonati presentano una percentuale maggiore di sonno REM rispetto agli adulti ed agli anziani parallelamente alla maggiore capacità di apprendere.
 
Teoria evolutiva
Il sonno secondo la teoria evolutiva si sarebbe sviluppato in relazione al concetto di rapporto preda-predatori ovvero in relazione alle influenze dell'ambiente. Durante il sonno le prede attraggono meno l'attenzione dei predatori, ma dall'altra parte sono anche più vulnerabili in quanto meno sensibili agli stimoli. Ad esempio gli erbivori dormono per periodi brevi in modo da avere tempo di procacciarsi il cibo e vigilare contro i predatori. Gli animali carnivori, essendo meno in pericolo e procacciandosi più velocemente il cibo, possono dormire più a lungo. Basti pensare che l'animale che presenta la quantità di sonno REM maggiore (circa 200 minuti) è proprio l'animale meno a rischio ambientale: il gatto domestico.
 
Teoria della "pulizia"
Il sistema linfatico è addetto anche alla "pulizia" ed è presente in tutto il corpo, ma non nel cervello. Da recenti studi di alcuni Istituti di Ricerca, tra i quali l'Università di Rochester, USA e l'Università di Copenaghen, (al momento sui topi) è emerso che mentre si dorme il cervello ha un sofisticato sistema di autopulizia, che sfrutta l’espansione in volume di una rete di canali tra i neuroni che permette al liquido cerebrospinale di scorrervi in misura maggiore. Questo processo permette di smaltire prodotti di scarto come le proteine beta-amiloidi e avviene con maggiore efficienza durante il sonno, con una diminuzione delle dimensioni delle cellule fino al 60 per cento, che lascia più spazio ai canali. Questo risultato suggerisce che l'effetto ristoratore del sonno sia legato almeno in parte a questo meccanismo di smaltimento dei prodotti di scarto del metabolismo, con potenziali implicazioni per la il mantenimento della funzionalità cerebrale. Così, infatti, spiega Maiken Nedergaard, neurochirurgo dell’Università di Rochester: ”Il sonno mette il cervello in un altro stato dove si ha la pulizia di tutti i sottoprodotti delle attività del giorno. ” Ecco la ragione del torpore, della stanchezza e di ‘annebbiamento’ che si hanno per la deprivazione di sonno.
 
Si è individuato quale sia la ‘rete’ del drenaggio dell’area cerebrale, chiamata sistema glinfatico, in cui circola liquido cerebrospinale che attraversa il tessuto cerebrale lavandolo dei rifiuti provenienti dal flusso sanguigno, che poi saranno dallo stesso trasportati al fegato per la disintossicazione[2]. Ciò spiega anche la differenza della durata del sonno tra singoli individui e singole specie animali, per cui un elefante dorme in media tre ore al giorno, un uomo circa otto e un gatto almeno dodici, o anche più: in sostanza la durata del sonno è inversamente proporzionale alla grandezza del cervello, per cui un cervello più grande impiegherà meno tempo a pulirsi rispetto ad un uno più piccolo, essendo le cellule già ‘grandi’ e predisposte all’attività di drenaggio del liquido cerebrospinale. La dottoressa Nedergaard spiega perché ciò avviene nel sonno: “Il cervello ha solo un’energia limitata a sua disposizione e pare che debba scegliere tra due diversi stati funzionali, sveglio e consapevole o addormentato a far le faccende”. Il lavoro di pulizia richiede un grosso sforzo al nostro cervello, che non può quindi essere sostenuto contemporaneamente a tutti gli altri compiti svolti durante il periodo di veglia”.
 
 
Il sonno dall'infanzia all'età adulta e all'anziano
Nel neonato il sonno ha un ritmo polifasico: ritmico, ritmico ad onde lente, lento, alternante.
 
Con lo sviluppo il sonno diventa bifasico.
 
Le tre caratteristiche del sonno del neonato sono:
 
Alternanza: il nucleo sovrachiasmatico regola il sonno e la veglia.
Quantità: preminente nella prima fase della vita va man mano a ridursi con lo sviluppo, resta costante durante l'adolescenza per poi diminuire nella vita adulta.
Sonno REM: nelle prime due settimane di vita la sua percentuale sulle ore totali di sonno è del 50%, vista la sua importante funzione integrativa della memoria, in seguito si riduce.
I neonati dormono circa 16-18 ore al giorno ed il loro sonno è equamente distribuito nell'arco delle 24 h.
 
Dal sesto mese di vita il sonno scende intorno alle 14-15 ore al giorno ed inizia ad emergere un pattern diurno. Questa quota giornaliera di sonno rimane praticamente stabile fino all'anno di vita.
 
Un ulteriore graduale passaggio verso le 10-12 ore avviene tra i tre ed i cinque anni di vita. All'età di 10 anni la quantità di sonno giornaliera si aggira intorno alle 10 ore o meno. La quantità di sonno giornaliera continua a decrescere durante l'adolescenza fino a trovare una stabilità nel pattern adulto. Tuttavia la diminuzione complessiva delle ore di sonno nell'adolescenza è accompagnata da un aumento della tendenza ad addormentarsi durante il giorno.
 
I principali stati comportamentali riscontrati nell'adulto sono: lo stato di veglia, lo stato di rilassamento con un andamento più armonioso e lento, la sonnolenza con andamento basso, il sonno, il sonno profondo e lo stato di coma.
 
L'anziano dorme circa 6-7 ore per notte, tuttavia la qualità del sonno è assai diversa da quella del giovane. Il sonno è infatti molto più frammentato da momenti di veglia ed è a volte più suscettibile ai possibili disturbi ambientali. Una possibile interpretazione di questi fatti è che il bisogno di sonno si riduce nelle persone anziane.
 
 


#75 PorNao

PorNao

    Newbie

  • Members
  • Stelletta
  • 8 messaggi
  • Mondo:IT1
  • Personaggio:Pornao
Reputazione: 1

Inviato 12 ottobre 2015 - 01:02

A me risulta invece che siccome per ovvi motivi le avances sessuali in carcere sono vietate, era un modo per segnalare la propria disponibilità. Come molte cose, è diventata popolare solo per il fatto che è "da carcerati" e pertanto da "duri".
Le "divise" dei carcerati sono fatte in modo da non cadere, suppongo abbiano una banda elastica come molti pantaloncini da ginnastica, altrimenti con i pantaloni cascanti ci sarebbero continui problemi anche solo per muovere i detenuti in gruppi da una parte all'altra della prigione.

anche io sapevo la stessa cosa



#76 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 17 ottobre 2015 - 07:25

Il primo film

 

 

Fellini_camera.jpg

La cinematografia, nella sua storia, ha attraversato diverse fasi e periodi, che l'hanno portata dai primi rudimentali "esperimenti" dei fratelli Lumière ai moderni film digitali, ricchi di effetti speciali realizzati principalmente con la grafica computerizzata.
 
Precinema
Exquisite-kfind.png Lo stesso argomento in dettaglio: Precinema.
La cinematografia intesa come proiezione di immagini in movimento ha numerosi antenati, che risalgono fino al mondo antico. In oriente esisteva la rappresentazione delle ombre cinesi, mentre in Europa abbiamo studi ottici sulle proiezioni tramite lenti fin dal 1490, con la camera oscura leonardiana. Fu però dal XVII secolo che nacque l'antenato più prossimo allo spettacolo cinematografico, la lanterna magica, che proiettava su una parete di una stanza buia immagini dipinte su vetro e illuminate da una candela dentro una scatola chiusa, tramite un foro con una lente. Simile, ma opposto per modo di fruizione, era il Mondo nuovo, una scatola chiusa illuminata all'interno dove però si doveva guardare all'interno per vedere le immagini illuminate: tipico degli ambulanti tra XVIII e XIX secolo, rendeva possibile una fruizione anche di giorno, anche all'aperto.
 
Dopo la nascita della fotografia si iniziò a studiare la riproduzione del movimento in scatti consecutivi. Sfruttando i principi dei dispositivi ottici del passato, si iniziarono a cercare modi di proiettare fotografie in successione, in modo da ricreare un'illusione di movimento estremamente realistica: tra le centinaia di esperimenti in tutto il mondo, ebbero buon fine il Kinetoscopio di Thomas Edison (ispirato al "mondo nuovo") e il Cinematografo dei Fratelli Lumière (ispirato alla lanterna magica).
 
I fratelli Lumière e Thomas Edison
Exquisite-kfind.png Lo stesso argomento in dettaglio: Cinema delle attrazioni.
 
I fratelli Louis e Auguste Lumière
L'invenzione della pellicola cinematografica risale al 1885 ad opera di George Eastman, mentre la prima ripresa cinematografica è ritenuta essere Roundhay Garden Scene, cortometraggio di 3 secondi, realizzato il 14 ottobre 1888 da Louis Aimé Augustin Le Prince. La cinematografia intesa come la proiezione in sala di una pellicola stampata, di fronte ad un pubblico pagante, è nato invece il 28 dicembre 1895, grazie ad un'invenzione dei fratelli Louis e Auguste Lumière, i quali mostrarono per la prima volta, al pubblico del Gran Cafè del Boulevard des Capucines a Parigi, un apparecchio da loro brevettato, chiamato cinématographe.
 
Tale apparecchio era in grado di proiettare su uno schermo bianco una sequenza di immagini distinte, impresse su una pellicola stampata con un processo fotografico, in modo da creare l'effetto del movimento. Thomas Edison nel 1889 realizzò una cinepresa (detta Kinetograph) ed una macchina da visione (Kinetoscopio): la prima era destinata a scattare in rapida successione una serie di fotografie su una pellicola 35mm; la seconda consentiva ad un solo spettatore per volta di osservare, tramite un visore, l'alternanza delle immagini impresse sulla pellicola. Ai fratelli Lumière si deve comunque l'idea di proiettare la pellicola, così da consentire la visione dello spettacolo ad una moltitudine di spettatori.
 
Essi non intuirono il potenziale di questo strumento come mezzo per fare spettacolo, considerandolo esclusivamente a fini documentaristici, senza per questo sminuirne l'importanza, tanto che si rifiutarono di vendere le loro macchine, limitandosi a darle in locazione. Ciò determinò la nascita di molte imitazioni. Nello stesso periodo, Edison (negli USA) iniziò un'aspra battaglia giudiziaria per impedire l'uso, sul territorio americano, degli apparecchi francesi, rivendicando il diritto esclusivo all'uso dell'invenzione.
 
Dopo circa 500 cause in tribunale, il mercato sarà comunque liberalizzato. Nel 1900 i fratelli Lumière cedettero i diritti di sfruttamento della loro invenzione a Charles Pathé. Il cinematografo si diffuse così immediatamente in Europa e poi nel resto del mondo.
 
Nel frattempo il cinema registrò alcuni clamorosi successi di pubblico: Assalto al treno (The Great Train Robbery) (1903) dell'americano Edwin Porter spopolò in tutti gli Stati Uniti, mentre il Viaggio nella luna (1902) del francese Georges Méliès, padre del cinema di finzione, ebbe un successo planetario (compresi i primi problemi con la pirateria). Vennero sperimentati i primi effetti speciali prettamente "cinematografici", cioè i trucchi di montaggio (da Méliès, che faceva apparire e sparire personaggi, oggetti e sfondi), le sovrimpressioni (dai registi della scuola di Brighton, ripreso dalla fotografia), lo scatto singolo (dallo spagnolo Segundo de Chomón, per animare i semplici oggetti), ecc. Si delinearono inoltre le prime tecniche rudimentali del linguaggio cinematografico: la soggettiva (George Albert Smith), il montaggio lineare (James Williamson), il raccordo sull'asse, i movimenti di camera.
 
Il cinema narrativo
Exquisite-kfind.png Lo stesso argomento in dettaglio: origini del cinema narrativo.
Il cinema delle origini, detto "delle attrazioni mostrative", serviva per mostrare una storia che veniva necessariamente spiegata da un narratore o imbonitore presente in sala. Inoltre le storie erano spesso disorganizzate, anarchiche, più interessate a mostrare il movimento e gli effetti speciali che a narrare qualcosa. Solo il cinema inglese, legato alla tradizione del romanzo vittoriano, era più accurato nelle storie narrate, prive di salti temporali e di grosse incongruenze.
 
La nascita di un cinema che raccontasse storie da solo è strettamente legata ai cambiamenti sociali dei primi anni del Novecento: verso il 1906 il cinema viveva la sua prima crisi, per il calo di interesse del pubblico. La riscossa però fu possibile grazie alla creazione di grandi sale di proiezione a prezzi molto contenuti rivolte alla classe operaia, come svago economico e divertente: nacquero i "nickelodeon", dove era impensabile usare una persona per spiegare le vicende del film, per questo i film iniziarono ad essere intelligibili automaticamente, con contenuti più semplici ed espliciti e con le prime didascalie.
 
Nascita di una nazione (1915) dell'americano David W. Griffith è da molti considerato il primo vero film in senso moderno in quanto tenta di codificare una nuova "grammatica". Secondo altri critici (soprattutto europei) è Cabiria, Colossal italiano del 1914 diretto da Giovanni Pastrone ad essere considerato il punto più alto di quegli anni e un modello di narrazione (nonostante le aspre critiche, anche fondate, alle didascalie di Gabriele D'Annunzio), fotografia, scenografia, effetti speciali e durata. D'altra parte anche la definizione stessa di Cinema Narrativo va a sovrapporsi in questo e molti altri casi alle definizioni (su cui ancora si dibatte) di film storico totale (Nascita di una nazione), storico (Quo Vadis?), in costume (Cabiria).
 
Va in quegli anni anche a delinearsi una corrente, fino alla fine del cinema muto, che vede nell'inserimento delle didascalie una "sporcatura". L'arte del cinema narrativo pura è spesso rapportata al numero di inserti testuali; meno sono, più il film è intelligibile e ben costruito. In questo caso sono da considerare come capolavori assoluti i film successivi soprattutto espressionisti tedeschi e russi come Aurora, La lettera, La madre.
 
Il cinema muto hollywoodiano
Exquisite-kfind.png Lo stesso argomento in dettaglio: cinema muto a Hollywood.
 
Charlie Chaplin e il piccolo Jackie Coogan
Con i primi grandi successi del cinema muto, fu presto chiaro che la produzione di film poteva essere un affare favoloso, tale da giustificare anche l'investimento di forti somme di denaro: un film che ha successo ripaga di molte volte i costi per crearlo e distribuirlo. D'altra parte sono soldi buttati se non incontra i gusti del pubblico.
 
Quando fu chiaro ai produttori che la gente si affezionava agli attori che vedeva sullo schermo, da una parte favorirono questo attaccamento promuovendo pubblicamente gli artisti che avevano dimostrato di piacere agli spettatori, per renderli ancora più popolari, e dall'altra iniziarono a pagare loro una parte consistente di questi profitti pur di ingaggiarli anche per i film successivi: gli attori cinematografici di successo iniziarono a guadagnare cifre inaudite e nacquero così i primi divi, le prime star.
 
Gli editori radiofonici e giornalistici, dal canto loro, furono ben felici di poter attingere ad argomenti nuovi e di sicuro interesse per i loro lettori: il successo si alimentò da solo e diede inizio all'insieme di attività di promozione detto star system, che non veicolò soltanto i singoli artisti ma anche il loro elevato tenore di vita.
 
Il fatto che un attore cinematografico non dovesse avere (in apparenza) altre doti che piacere al pubblico, e che la nascente industria cinematografica cercasse costantemente nuovi attori e pagasse loro delle vere fortune (ma solo a chi sfondava), e la fama enorme di cui godevano che poteva arrivare all'idolatria (uno su tutti: Rodolfo Valentino), rese il mestiere di attore del cinema un sogno, un miraggio che catturò la fantasia delle masse: tutti volevano diventare attori.
 
Le avanguardie europee
Exquisite-kfind.png Lo stesso argomento in dettaglio: cinema muto d'avanguardia.
Mentre negli Stati Uniti si sviluppava un cinema narrativo classico, destinato a un pubblico vasto, in Europa le avanguardie artistiche svilupparono tutta una serie di film sperimentali che, sebbene limitati nel numero e nella reale diffusione, furono molto importanti per il cinema successivo. Tra gli autori più importanti ci furono l'italiano Anton Giulio Bragaglia, gli spagnoli Luis Buñuel e Salvador Dalí, i russi Dziga Vertov e lo stesso Ejzenstein, i francesi René Clair e Fernand Léger, il danese Carl Theodor Dreyer.
 
Un discorso a parte merita la Germania, dove la presenza di alcuni tra i migliori registi, attori, sceneggiatori e fotografi dell'epoca permise la creazione di opere innovative ma anche apprezzate dal pubblico, oltre che capisaldi del cinema mondiale. I tre filoni principali in Germania furono l'espressionismo, il Kammerspiel e la Nuova oggettività. Tra i registi più famosi vanno segnalati almeno Friedrich Wilhelm Murnau (Nosferatu il vampiro, 1922), Georg Wilhelm Pabst e Fritz Lang (Metropolis, 1927).
 
Introduzione del sonoro
 
Laurel e Hardy
La possibilità di sincronizzare dei suoni alle immagini è vecchia come il cinema stesso: lo stesso Thomas Edison aveva brevettato una maniera per aggiungere il sonoro alle sue brevi pellicole (Dickson Experimental Sound Film, 1895). Ma quando i vari esperimenti raggiunsero un livello qualitativo accettabile, ormai gli studios e la distribuzione nelle sale erano organizzati al meglio per la produzione muta, per cui l'avvento del sonoro venne giudicato non necessario e a lungo rimandato. Lo stato delle cose cambiò di colpo quando la Warner, sull'orlo della bancarotta, giudicò di non avere ormai niente da perdere e rischiò, lanciando il primo film sonoro. Fu Il cantante di jazz nel 1927, e fu un successo ben oltre le aspettative: nel giro di un paio di anni la nuova tecnologia si impose prima a tutte le altre case di produzione americane, e poi a quelle del resto del mondo. La tecnica venne perfezionata ulteriormente nel 1930, creando due nuove attività, il doppiaggio e la sonorizzazione.
 
Questa novità provocò un terremoto nel mondo del cinema: nacquero nuovi contenuti adatti a valorizzare il sonoro (come i film musicali) e nuove tecniche (mancando ormai il sipario della didascalia). Con il sonoro e la musica, la recitazione teatrale a cui si affidavano gli attori del cinema muto risultava esagerata e ridicola: così, dopo alcuni fiaschi le stelle del cinema muto scomparvero in massa dalle scene, e salì alla ribalta una intera nuova generazione di interpreti, dotati di voci più gradevoli e di una tecnica di recitazione più adatta al nuovo cinema.
 
Il cinema classico
Exquisite-kfind.png Lo stesso argomento in dettaglio: cinema narrativo classico.
Dal 1917 in poi, si impone il concetto di film come racconto, come romanzo visivo: lo spettatore viene portato al centro del film e vi partecipa con l'immaginazione, esattamente nello stesso modo in cui, leggendo un libro, si ricostruiscono con l'immaginazione tutti i dettagli non scritti delle vicende narrate. E come nella narrativa, iniziano a emergere anche nel cinema dei generi ben precisi: l'avventura, il giallo, la commedia, etc., tutti con delle regole stilistiche ben precise da seguire.
 
Questo salto qualitativo è reso possibile dall'evolversi delle tecniche del montaggio, le quali, con il montaggio alternato, il montaggio analitico ed il montaggio contiguo, permettono di saltare da una scena all'altra e da un punto di vista all'altro, senza che il pubblico resti disorientato dal cambio d'inquadratura, rendendo quindi le storie molto più avvincenti, e diminuendo i momenti di pausa narrativa. Tutto questo senza introdurre salti troppo bruschi fra le scene. Il cinema americano capisce subito quanto siano importanti la dinamicità e la rapidità, e già verso la fine degli anni trenta un film americano contiene in media 600-700 inquadrature, circa il triplo della media di venti anni prima.
 
Tutte queste Regole del Buon montaggio verranno prescritte nel Codice Hays, codici necessari per l'accettazione delle pellicole da parte degli studios.
 
Intanto il cinema affermava sempre più la sua importanza come mezzo di comunicazione di massa. Persino papa Pio XI volle intervenire nel dibattito sull'utilità del cinema con l'enciclica Vigilanti cura del 29 giugno 1936, sostenendo che gli spettacoli cinematografici non devono «servire soltanto a passare il tempo», ma «possono e debbono illuminare gli spettatori e positivamente indirizzarli al bene»
 
Il cinema e Hollywood
Nella calda e assolata Los Angeles, in California, verso la fine degli anni dieci si riuniscono affaristi desiderosi di investire nel cinema e registi che alla caotica New York preferiscono il clima mite della cittadina californiana per girare pellicole. Nei primi anni venti Los Angeles continua a svilupparsi nel campo industriale e agricolo, e in breve tempo nella zona si riuniscono una serie di case di produzioni cinematografiche, dalla Universal alla MGM, e così nasce Hollywood, e l'area mitica che tutt'oggi la circonda.
 
In breve tempo il cinema diventa un vero e proprio prodotto commerciale: attori e attrici ricoprono le immagini delle riviste e vengono visti dal pubblico quasi come fossero delle divinità (si pensi a Mary Pickford, Rodolfo Valentino e Douglas Fairbanks); registi come David W. Griffith e Cecil B. DeMille, alternano prodotti artistici ad altri comandati dagli Studios. E Charlie Chaplin, indipendente sia come artista che come produttore, realizza le sue comiche prendendosi gioco della società.
 
 
La famosa insegna di Hollywood
Negli anni trenta nasce lo studio system: gli Studios comandano a bacchetta le star, e pur esaltandone l'immagine (si pensi a Greta Garbo e Clark Gable), tendono ad intrappolarli in personaggi stereotipati. Si parlerà del "periodo d'oro del cinema". Intanto generi come la commedia e il dramma romantico impazzano, ma in seguito alla Grande depressione si faranno strada generi più realistici e socialmente critici, come il "gangster-movie" e il noir, genere quest'ultimo sviluppatosi maggiormente durante la Seconda guerra mondiale. Ma in questo decennio è il musical scacciapensieri a far da padrone, con Fred Astaire e Ginger Rogers che allietano spettatori desiderosi di evasione. Parte verso la fine del decennio inoltre la rivoluzione del technicolor, ovvero dei film a colori, come il celeberrimo Via col vento di Victor Fleming.
 
 
Orson Welles
Negli anni quaranta lo studio system finisce a causa delle leggi federali che privano gli Studios della proprietà delle sale cinematografiche, ma durante la Seconda guerra mondiale essi non smettono di far faville continuando a produrre star e film di grande valore. Attori come Cary Grant, James Stewart, Gary Cooper e Henry Fonda diventano in questo periodo veri divi e beniamini del pubblico. Intanto non si perde mai occasione per esaltare i valori dell'"american way of life": a questo ci pensano registi idealisti come Frank Capra, e attori sciovinisti come John Wayne, indimenticabile nei suoi western. Nel 1942 viene girato da Michael Curtiz Casablanca, uno dei film più importanti e celebri della storia del cinema, che pur essendo un film romantico, ha saputo affrontare dignitosamente il problema della guerra, della resistenza partigiana e dell'avanzata nazista e che ha lanciato nello star system Humphrey Bogart e Ingrid Bergman.
 
Nel frattempo però nuovi artisti come Orson Welles stravolgono il normale modo di fare cinema, e negli anni cinquanta anche la concezione del "divismo" cambia, come nel caso dei più sanguigni Marlon Brando e James Dean, che portano sullo schermo un modo più verisimile di rappresentare la realtà. Contemporaneamente esplode, soprattutto grazie a registi quali Billy Wilder e George Cukor, la «commedia all'americana», che ha i suoi capisaldi in capolavori come A qualcuno piace caldo, Scandalo a Filadelfia e L'appartamento.
 
 
Martin Scorsese
Negli anni sessanta e settanta ormai la vecchia Hollywood non è che un ricordo, e il "New Cinema" si fa strada criticando ipocrisie e pudori della vecchia America, per opera di registi audaci come Francis Ford Coppola, Woody Allen, Stanley Kubrick e Martin Scorsese e di attori come Dustin Hoffman, Jack Nicholson, Robert De Niro e Meryl Streep. È una vera e propria rivoluzione all'interno della "vecchia" Hollywood. Film come Easy Rider e Il laureato girati con budget bassi e che fecero registrare incassi inimmaginabili, illuminarono anche le major che poco a poco iniziarono a lasciar perdere le restrizioni stilistiche del Codice Hays che imponeva un codice morale rigido al di fuori del quale i film non venivano prodotti. Semplicemente si resero conto che le nuove generazioni, contrarie alle politiche americane di perbenismo ed espansionismo ipocritamente mascherato, volevano sentir parlare esattamente di quello che era censurato dalla produzione.
 
Negli anni seguenti il cinema come contestazione sarà più una prerogativa del cinema europeo e dopo gli anni '70 a Hollywood si fa strada il cinema come puro intrattenimento, fino all'esaltazione della fantascienza di Incontri ravvicinati del terzo tipo di Steven Spielberg e Guerre stellari di George Lucas . Seppur con un modo diverso di intendere il cinema e le star, Hollywood continua comunque a regalare sogni ed emozioni.
 
Negli anni ottanta e novanta scende in campo una nuova generazione di talentuosi registi, come Quentin Tarantino, Tim Burton e David Lynch che ha saputo creare film interessanti e innovativi, senza mai dimenticare il passato.
 
Il cinema e l'Europa
Se in America Hollywood era la capitale del cinema, in Europa, in seguito alla Seconda Guerra Mondiale nacquero in molte nazioni diverse scuole di cinema, ma tutte accomunate dalla voglia di rappresentare la realtà. Diviene quindi importantissimo il neorealismo italiano e i suoi registi principali: Luchino Visconti, Pietro Germi, Alessandro Blasetti, Roberto Rossellini e Vittorio De Sica. Film come Roma città aperta, Sciuscià e Ladri di biciclette ispirano e affascinano diversi registi nel mondo, come il giapponese Akira Kurosawa. Anche dopo il periodo prettamente neorealista, l'Italia ha potuto vantare una nuova generazione di registi, ugualmente neorealisti, ma in maniera diversa, come Federico Fellini, Mario Monicelli, Ettore Scola, Dino Risi, Luigi Comencini.
 
 
Federico Fellini
Diventano importantissimi gli esperimenti di cinema introspettivo di Marcel Carné, realizzati subito dopo la Seconda Guerra Mondiale, e poi concretizzati in grandi film dai maestri del cinema introspettivo Ingmar Bergman e Michelangelo Antonioni: la realtà non è più analizzata come qualcosa di oggettivo, tutto diventa soggettivo ed ambiguo, il ritmo è lento e le scene sono lunghe e silenziose e i registi si soffermano su particolari prima di allora trascurati. Il cinema comincia a diventare manifesto del subconscio del regista e anche forma di personale contestazione.
 
È tuttavia in Francia che questo tipo di cinema diventa un genere famoso ed apprezzato in tutto il mondo grazie alla Nouvelle Vague. I film cominciano ad essere minimalisti, personalissimi, le problematiche trattate sono intime e non assolute. I film cominciano a ruotare intorno ai problemi, agli interrogativi e ai dubbi di giovani protagonisti e la soggettività diventa un elemento caratterizzante. Iniziano perciò ad affermarsi alcuni nuovi registi indipendenti, già agguerriti critici cinematografici, come François Truffaut con il suo I quattrocento colpi, Alain Resnais con Hiroshima mon amour e Jean-Luc Godard con À bout de souffle, che trovarono nel neonato Festival di Cannes un punto d'incontro e di discussione.
 
Il montaggio è a bella posta discontinuo, sincopato e sovente evita di tagliare i tempi morti della storia, che dal canto suo tralascia di spiegare ogni dettaglio di quel che accade. Può capitare che gli attori guardino direttamente nell'obiettivo della cinepresa, cosa vietatissima nel cinema classico, come accade regolarmente nel cinema di Jean-Luc Godard, Ingmar Bergman o, in tempi più recenti, in Pulp Fiction di Quentin Tarantino.
 
Il cinema tedesco è invece molto più figurativo e pittoresco, introspettivo e con storie talvolta epiche che fuoriescono dal semplice neoralismo, come ad esempio Aguirre, furore di Dio di Werner Herzog. I registi sembrano afflitti da dolori insanabili e assoluti, che quindi toccano punte di pessimismo assoluto leopardiano, e con soluzioni effimere e talvolta inesistenti. È il caso di Rainer Werner Fassbinder. Altri registi, invece, pur trattando forti problematiche, proprie e non, si mostrano più disposti a trovare una soluzione, e anzi girano film pieni di speranza e velato ottimismo. È questo il caso di registi come Wim Wenders e Werner Herzog. Il film tedesco più importante degli ultimi anni è senz'altro Le vite degli altri del 2006, amaro e lucido spaccato della Germania Est e dello strapotere del governo comunista.
 
Il cinema dell'est Europa, ha avuto un rapido sviluppo tra anni '20 e '30 soprattutto grazie ai capolavori del russo Sergej M. Ejzenstejn. I film di quegli anni davano un'esasperata e continua immagine del benessere del governo bolscevico, immagine talvolta falsa ed imposta dalla censura sovietica. Se da un lato Ejzenstejn sforna film sulla rivoluzione russa o su personaggi storici russi, dall'altro altri registi girano film riguardanti il benessere e la felicità delle famiglie nelle campagne russe o film su imprese compiute da Stalin. È solo dopo la Seconda Guerra Mondiale che comincia a nascere una cinematografia più ampia anche all'interno delle nazioni del patto di Varsavia. I film, soprattutto dopo gli anni '60, sono più critici e ribelli e talvolta sono fortemente censurati dal governo rosso. Registi come il polacco Andrzej Wajda sono costantemente promotori di un cinema ribelle e libero dalla censura, che avrà però la piena realizzazione solo dopo il 1989.
 
Dopo anni di censura a causa della dittatura di Francisco Franco, ultimamente è emerso il cinema spagnolo, cinema fresco e giovane disposto ad affrontare ogni tipo di tematica e ad aprirsi verso prospettive sempre nuove.
 
Il cinema digitale
Exquisite-kfind.png Lo stesso argomento in dettaglio: cinema digitale.
Sino ad alcuni anni fa, cinema e televisione erano due media ben distinti: il cinema fondava la sua forza sulla qualità della pellicola e sulla visione dei film in apposite sale dove la proiezione avveniva al buio (favorendo l'attenzione degli spettatori); la televisione risultava imbattibile per la sua capacità di rappresentare l'evento contestualmente al suo verificarsi, pur se la qualità e la definizione delle immagini erano appena sufficienti per una visione su uno schermo domestico.
 
Lo sviluppo dell'elettronica ha mutato questo rapporto. Così come già avvenuto in campo musicale, ove il CD ha soppiantato l'LP analogico (ma non del tutto, visto che molti continuano a preferire il suono dell'LP, giudicato più veritiero in quanto più ricco di frequenze e dunque dotato di maggiore spazialità sonora), anche nel mondo del cinema si sta tentando di imporre sistemi interamente digitali di registrazione-riproduzione.
 
È bene ricordare che un'immagine non è altro che una massa di informazioni. E l'informazione, a sua volta, è qualsiasi oggetto fisico capace di distinguersi, di differenziarsi, di essere diverso da ciò che gli sta vicino. Nel cinema tradizionale, ogni singola informazione dell'oggetto da rappresentare è raccolta in modo analogico: vale a dire che un altro oggetto fisico modifica il suo stato in modo proporzionale con l'oggetto da rappresentare. In particolare l'immagine è ottenuta per mezzo di una emulsione fotosensibile, la quale è una sospensione di minuti cristalli di alogenuri d'argento - sali assai sensibili all'effetto della luce - dispersi in una matrice di gelatina fissata ad un supporto solido.
 
Nel cinema digitale, invece, l'informazione è raccolta da una cifra (in inglese: digit): dato un certo spazio, si può stabilire che al numero "0" corrisponda il bianco, ed al numero "1" il nero. In questo modo, scomponendo un'immagine in punti, è possibile trasformarla in una sequenza numerica. È ovvio che maggiore è la quantità di informazioni numeriche raccolte, maggiore sarà l'accuratezza dell'immagine ottenuta.
 
La registrazione e riproduzione digitale delle immagini comporta due ordini di problemi: il primo riguarda la raccolta di tutte le informazioni necessarie per comporre l'immagine; il secondo attiene alla gestione di queste informazioni; compito, questo, che compete al dispositivo incaricato di trasformare le sequenze numeriche in unità visibili (cd. matrice). Ogni singola unità visibile, che può assumere un unico stato cromatico, si chiama pixel (contrazione dell'espressione picture element).
 
Secondo alcuni studi, l'accuratezza (più nota come risoluzione) massima di una pellicola negativa 35 mm è pari a 6 milioni di pixel (che si abbassa 4 milioni di pixel per le distorsioni introdotte dalle ottiche). Tale misurazione è, tuttavia, da alcuni criticata, in quanto tale definizione verrebbe valutata secondo un parametro estraneo all'immagine chimica e sostituita con la funzione di trasferimento di modulazione o MTF (Modulation Transfer Function) che può essere applicata non necessariamente alla pellicola, ma più in generale ad un sistema ottico, ad esempio il complesso obiettivo-pellicola, e che è una misura della capacità del sistema di catturare il contrasto dell'immagine.
 
Un'immagine digitale, per consentire di distinguere gli stessi dettagli esprimibili da una pellicola 35 mm, dovrebbe essere composta da 4 milioni di pixel. Ma la qualità di un'immagine è data anche da altri fattori, come il contrasto, la luminosità, il numero di colori e la loro pastosità, la gamma dinamica: ecco per quale ragione la semplice misurazione in pixel dell'immagine chimica non appare sufficiente ad esprimere tutte le caratteristiche dell'immagine stessa.
 
Appare chiaro, comunque, che il cinema digitale per eguagliare e superare il cinema chimico ha bisogno di dispositivi di immagazzinamento dati (cosiddetto storage) di eccezionale capienza; e deve, anche, disporre di matrici che non abbiamo meno di due milioni di pixel. La registrazione della enorme massa di informazioni contenuta in un film di circa due ore non costituisce più un problema, grazie alla capienza dei moderni hard disk e di supporti ottici come il DVD, nonché all'impiego degli algoritmi di compressione, i quali consentono di operare un vero e proprio "sunto" delle informazioni.
 
Gli attuali limiti del cinema digitale sono invece a monte e a valle del processo di acquisizione delle immagini. Le telecamere HD (High Definition) non offrono ancora la stessa risoluzione del negativo fotografico, hanno una eccessiva profondità di campo, la latitudine di posa va da 8 a 11 stop (contro gli 11 - 12 delle emulsioni negative).
 
Per quanto riguarda la proiezione, invece, sorgono altri problemi. V'è da notare, innanzi tutto, che l'altissima risoluzione del negativo originale viene perduta durante i vari passaggi (internegativi e stampa del positivo finale), sì che la risoluzione della copia da stampa non supera i due milioni di pixel. Con queste premesse gli attuali videoproiettori con tecnologia Digital Light Processing (DLP) dovrebbero poter reggere il confronto con la proiezione meccanica della pellicola 35 mm. I più sofisticati videoproiettori utilizzano tre microchip DMD (Digital Micromirror Device) per il controllo dell'immagine.
 
All'interno di ogni DMD sono montati dei microspecchi capaci di oscillare indipendentemente gli uni dagli altri, così da riflettere i tre colori primari della luce (verde, rosso e blu) e formare sul grande schermo le immagini cinematografiche. Ogni microspecchio è grande circa un quarto della sezione di un capello umano. Se si pensa che queste macchine impiegano matrici la cui risoluzione è di 1920 righe verticali per 1080 orizzontali pari 2.073.600 pixel (questo standard è detto a 2K in rapporto alla risoluzione orizzontale, ma esistono già matrici a 4K pari 3840 x 2048 pixel) è facile concludere che l'immagine chimica sia stata surclassata. E invece non è così: il "look and feel" della proiezione tradizionale risulta ancora superiore a quella digitale in tutte le proiezioni comparative che sono state effettuate. Le ragioni sono intrinseche alla proiezione tradizionale e non sono misurabili solo in termini di definizione pura.
 
Com'è noto, durante la proiezione vengono offerte allo spettatore 24 immagini per secondo. Nella proiezione digitale ogni informazione dell'immagine ha una posizione costante, essendo generata sempre dallo stesso pixel, il quale muta continuamente il suo stato. Nell'immagine chimica, invece, la disposizione dei singoli cristalli di alogenuri di argento è casuale, sì che le informazioni che si succedono al ritmo di 24 per secondo non hanno una posizione costante: la struttura della grana, in altri termini, è dinamica, mentre quella della matrice è statica. Dunque il confronto tra le due forme di acquisizione delle immagini è molto complesso e non valutabile solo in termini di risoluzione pura.
 
A ciò si deve aggiungere che non soltanto il cinema digitale sta compiendo progressi: anche le aziende produttrici delle pellicole stanno investendo soldi ed energie per proporre al mercato pellicole con un potere risolvente sempre maggiore. Si pensi che le attuali pellicole da stampa hanno un potere risolvente doppio di quello che avevano quindici anni fa. Nello stesso tempo anche i negativi appaiono sempre più sofisticati e ben al di sopra dei limiti fisici delle ottiche (limiti che valgono anche per le acquisizioni digitali).
 
Anche i proiettori meccanici, infine, continuano ad essere oggetto di migliorie utili all'aumento del contrasto e della definizione: si pensi alla trazione diretta elettronica per la guida intermittente dell'alberino di precisione - in luogo della tradizionale croce di malta - trazione la quale elimina l'onda di immagine verticale, con conseguente aumento della stabilità dell'immagine, del contrasto e del fuoco.
 
Allo stato attuale, dunque, non appare così vicino il giorno in cui tutti i film saranno girati e proiettati con tecniche digitali. Per ora i due sistemi sembrano, invero, ben collaborare, considerato che l'elaborazione digitale delle immagini viene adoperata in tutta la fase intermedia tra l'impressione del negativo e la stampa del positivo da proiezione (cosiddetta Digital Intermediate, abbreviato in "DI"). In estrema sintesi, questa è l'attuale lavorazione tipica di un film:
 
sul set si provvede alla ripresa delle immagini per mezzo di una cinepresa tradizionale;
il trasferimento del materiale girato tramite telecinema dei giornalieri avviene come per il procedimento tradizionale
i negativi originali delle scene scelte vengono scanditi ad alta definizione (2k) per poi essere subito archiviati e conservati;
tutto il processo di finalizzazione e post-produzione avviene per mezzo di appositi computer dotati di grande potenza di calcolo;
la sequenza di file risultante viene trasferita su un unico negativo tramite una film recorder;
il negativo o intermediate così originato viene impiegato per ottenere gli interpositivi ed internegativi necessari per la produzione in serie delle copie per proiezione.
In linea teorica, questo sistema potrebbe consentire di ottenere una copia da proiezione con una risoluzione pari a quella del negativo originale (4k); tuttavia, considerato che per motivi di costi si preferisce scandire il negativo con una risoluzione pari a 2k, tale ultimo valore è quello massimo ottenibile dal negativo destinato alla produzione delle pellicole per la proiezione, le quali avranno, a loro volta, una risoluzione leggermente inferiore (ogni processo di copia ottica porta ad una perdita di risoluzione); valore in ogni caso superiore a quello che si otterrebbe se alla copia finale si arrivasse facendo ricorso a copie intermedie analogiche.
 
Verso l'inizio degli anni 2000 si assiste all'avvento del cinema in 3D che ha la sua consacrazione in Avatar di James Cameron, film dagli effetti speciali straordinari e promotore di una nuova era di film in cui tecnologia HD e film sono diventati una cosa sola.
 
 


#77 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 27 ottobre 2015 - 07:23

Psicocinesi
 
psionico_bis.jpg
 
Questa voce o sezione sull'argomento paranormale non cita le fonti necessarie o quelle presenti sono insufficienti.
Puoi migliorare questa voce aggiungendo citazioni da fonti attendibili secondo le linee guida sull'uso delle fonti.
La psicocinesi, (derivante dal greco psyche ovvero mente e kinesis cioè movimento quindi letteralmente "muovere con la mente") nota anche come telecinesi, è quel fenomeno paranormale per cui un essere vivente sarebbe in grado di agire sull'ambiente che lo circonda, manipolando oggetti inanimati, attraverso mezzi fisici invisibili e secondo modalità sconosciute alla scienza. La modalità più intuitiva per definire la psicocinesi è la capacità di spostare oggetti con il pensiero.
 
Origine del termine
Il termine psicocinesi deriva dalle radici greche ψυχή- psico- e κίνησις -cinesi che significano, rispettivamente, anima e movimento. Ha soppiantato il vecchio termine telecinesi, ossia "movimento a distanza". Attualmente i fenomeni legati alla psicocinesi vengono identificati dai parapsicologi nella sigla Pk o, a volte, TK (in riferimento a telekinesis).
 
Il termine telecinesi venne coniato nel 1890 dal ricercatore britannico Frederic William Henry Myers (1843-1901), uno dei fondatori della Society for Psychical Research, in Inghilterra. Tra le altre cose coniò anche il termine telepatia.
Il termine psicocinesi venne usato per la prima volta nel 1914 dall'autore statunitense Henry Holt. Venne presto adottato dal famoso parapsicologo statunitense J. B. Rhine.
 
Forme di psicocinesi
Secondo i parapsicologi esisterebbero numerose forme diverse di psicocinesi (psicocinesi vera e propria, levitazione, apporto, asporto, ectoplasma, materializzazione, smaterializzazione, poltergeist, psicofonia, psicografia, teleplastia). A differenza di fenomeni quali telepatia e chiaroveggenza, rappresenta una forma di medianità fisica.
 
La psicocinesi fa parte della numerosa serie di manifestazioni classificate nella parapsicologia, ma si manifesta anche in altri ambiti che non sono sempre naturali. Analoga manifestazione è quella della bilocazione, cioè la contemporanea presenza in più posti nello stesso momento. Gli ambienti mistici a sfondo religioso di matrice non essenzialmente cristiana sono stati interessati da questa fenomenologia.
 
Esisterebbero due categorie di psicocinesi:
 
Macro-Psicocinesi: interessa fatti che possono essere verificati ad occhio nudo, come la levitazione del medium, lo spostamento di un oggetto.
Micro-Psicocinesi: riguarda fenomeni non direttamente osservabili, come deboli modifiche della temperatura di un corpo o di un campo magnetico, o l'intervento in fenomeni probabilistici.
 
Categorie di Psicocinesi
Psicocinesi è un termine usato per indicare anche vari fenomeni paranormali tra i quali:
 
Telecinesi, ovvero muovere la materia col pensiero (micro e macro: spostare, sollevare, agitare, creare vibrazioni, girare, piegare, spezzare, o frantumare).
Aumentare o rallentare le vibrazioni che esistono naturalmente negli atomi per alterare la temperatura di un oggetto.
Aerocinesi, facoltà di controllare il movimento dell'aria.
Idrocinesi, facoltà di creare e controllare il movimento dell'acqua.
Levitazione, facoltà di sollevare se stessi (od altri oggetti)
Elettrocinesi, facoltà di creare energia elettrica o di modificarla a piacimento.
Geocinesi, facoltà di controllare la terra e la crescita di piante e fiori.
Pirocinesi, facoltà di creare e controllare il fuoco.
Criocinesi, facoltà di creare ghiaccio e correnti d'aria fredda.
Cronocinesi, facoltà di controllare e viaggiare nel tempo.
Deformazione degli Oggetti (soprattutto dei metalli)
Alterazione delle Probabilità
Guarigione
Teletrasporto
Alterazione della Materia (detta anche Alchimia)
Biocinesi (Manipolazione della materia organica)
Atmocinesi (Controllo del clima col pensiero, per esempio la "danza della pioggia" degli indiani d'America)
Magnetismo (Controllo sui campi magnetici)
Fotocinesi o Lumocinesi (Controllo sulla luce)
Metacreatività (proiezione nella realtà di un'immagine tridimensionale presente solo nella mente di una persona, per esempio i tulpa tibetani)
 
Indagini sulla psicocinesi
Occorre notare che da numerosi anni a questa parte non vi sono stati esperimenti che, in condizioni rigorosamente controllate, abbiano avuto esiti eclatanti.
Si sottolinea inoltre che quelle che un tempo potevano essere ritenute 'condizioni controllate', oggi non lo sono più e, inoltre, un esperimento scientifico deve poter essere replicato in condizioni controllate e standard, cosa che con gli esperimenti psicocinetici non avviene.
 
Possibili interpretazioni
Esistono almeno due diverse interpretazioni di questo ipotetico fenomeno, da parte di chi crede nella sua esistenza.
 
Secondo quella spiritica, si hanno fenomeni psicocinetici quando un'entità disincarnata prende possesso di un medium, per esempio durante una seduta spiritica.
Secondo la parapsicologia, la psicocinesi rappresenterebbe una manifestazione delle "energie mentali" del medium senza bisogno di interventi di entità soprannaturali.
A queste due interpretazioni sarebbe legato il fenomeno dei poltergeist, che, in base alle due teorie, potrebbe essere spiegato come un fenomeno di psicocinesi spontaneo causato da una entità spirituale che agirebbe senza un tramite umano o da un soggetto inconsapevole delle proprie capacità psichiche latenti.
 
Persone con presunte capacità psicocinetiche
Daniel Dunglas Home, spiritista scozzese.
Uri Geller, di nazionalità israeliana, famoso per la presunta capacità di piegare un cucchiaio con la mente e di far ripartire orologi fermi.
Nina Kulagina, medium sovietica.
Raimondo di Sangro, alchimista italiano.
Chizuko Mifune (御船千鶴子), chiaroveggente giapponese del periodo Meiji.
Ted Owens, di nazionalità americana, sosteneva di avere acquisito la capacità di predire eventi futuri e di avere poteri psicocinetici dopo essere venuto in contatto con entità aliene.
Ted Serios, medium americano in grado, secondo alcuni, di impressionare una pellicola fotografica con la forza del pensiero.
Paul Twitchell, scrittore statunitense.
Aleister Crowley, fondatore dell'Astrum Argentinum.
Gustavo Adolfo Rol, sensitivo italiano.
Jean-Pierre Girard, telecineta francese.
 
Curiosità
Molti personaggi in vari media usano la telecinesi, tra cui; un personaggio principale della serie Sonic, Silver, uno dei pochi personaggi che usa solo telecinesi e a livelli normali, in modo simile alla realtà.
 
 


#78 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 03 novembre 2015 - 05:16

Ombelico
 
220px-Caribicbauch02.jpg
 
 
La cicatrizzazione subito dopo la nascita
L'ombelico è ciò che rimane della recisione praticata al cordone ombelicale al momento della nascita: la sua forma e dimensione viene determinata dal successivo processo di cicatrizzazione dei tessuti.
 
Posto tra i due muscoli retti dell'addome, ad esso è ancorato il fegato mediante il legamento rotondo, vestigia della vena ombelicale che, dalla placenta, porta al feto sangue con ossigeno e nutrienti.
 
Come si forma l'ombelico
L'ombelico si forma tramite un processo abbastanza lento. Dopo il parto, il cordone ombelicale viene reciso, e al moncone ombelicale viene fatto un nodo e poi viene fasciato. Il moncone ombelicale per cadere deve essiccarsi, quindi è buona norma non inumidirlo in continuazione, ma cambiare solo la garza sterile che lo racchiude. Il moncone dal colore grigio, diventerà verde poiché sta essiccandosi. Quando il moncone sarà totalmente secco, si stacca dall'addome del neonato.
 
Estetica
L'ombelico varia da persona a persona. La sua forma e dimensione non costituiscono però un carattere genetico e, quindi, il suo aspetto può essere utilizzato per distinguere due gemelli monozigoti.
 
Incavato o sporgente
 
Ombelico in una donna incinta
 
Ombelico maschile incavato
L'ombelico è prima di tutto rilevabile in due aspetti:
 
Incavato
Pronunciato
Nel primo caso l'ombelico appare come una depressione, e visto da lontano dà l'impressione di un foro. È l'ombelico più comune sia nelle donne che negli uomini.
 
Nel secondo caso, piuttosto raro, un pezzo del cordone ombelicale tende a fuoriuscire dalla sua cavità. Questo ombelico si può incontrare facilmente nei bambini nei primi anni di vita, per poi rientrare automaticamente con il corso degli anni. Nelle donne in gravidanza tuttavia, a partire dal sesto mese l'ombelico[1] tende all'eversione dalla sua cavità a causa della pressione del feto sul ventre, per poi rientrare normalmente dopo il parto.
 
Il bordo
Il bordo è la parte esterna dell'ombelico che introduce al fondo. Generalmente su questa parte vengono applicati i piercing. Questa parte può essere di due tipi:
 
Liscia
Striata
Il tipo striato è molto comune e si rappresenta con delle piccole torsioni all'inizio e all'interno dell'ombelico.
 
Il fondo dell'ombelico
Il fondo dell'ombelico è la parte meno visibile (nelle persone con ombelico incavato) ma la più delicata in quanto comunica direttamente con milza,stomaco e fegato.[senza fonte] Anche qui si sono rilevati dei gruppi estetici scoprendo che in alcuni tipi il fondo si rappresenta liscio oppure con dei solchi evidenziati oppure lievi. Le torsioni sono delle piccole righe verticali che giacciono sul fondo dell'ombelico. Questo fenomeno dipende sempre dalla cicatrizzazione dei tessuti.
 
Il nodo
 
Il nodo nell'ombelico
Il nodo è la parte centrale del fondo. Non compare in tutti i soggetti. Ha la dimensione di un neo di forma media e talvolta può essere sporgente.
 
La forma
Esistono sempre nuove forme per quanto riguarda l'ombelico. Le più conosciute sono:
 
Rotondo: detto anche "l'ombelico perfetto", solo pochi soggetti lo possiedono.
Ovale: è l'ombelico più comune.
A mandorla: la sua forma ricorda, appunto, quella di una mandorla.
A cappuccio: la parte superiore del cratere è abbassata.
A filo: dà l'impressione di un taglio verticale sull'addome. Poiché è molto stretto, il fondo di questo ombelico non è mai visibile. Questo caso è molto raro.
La profondità
La profondità dell'ombelico si può suddividere in tre categorie:
 
Nessuna: in questo caso l'ombelico è sporgente;
Media: il fondo dell'ombelico appare subito dopo il cratere;
Massima: il fondo dell'ombelico è ben nascosto e non si nota quasi mai. Questa profondità è la più frequente;
La dimensione
L'ombelico può apparire in varie dimensioni; quando è troppo dilatato, esso può apparire sproporzionato rispetto al proprio corpo.
 
È possibile ricorrere a questi interventi attraverso l'Ombelico plastica.
 
Il colore
Solitamente il colore dell'ombelico è roseo e s'intona con tutto il resto del corpo. In alcuni soggetti però il colore può variare dal rosso, marroncino, marrone tendente al nero oppure verdastro.
 
Pratiche connesse
L'ombelico è oggetto di piercing e tatuaggi.
 
Piercing dell'ombelico
 
Piercing all'ombelico
Exquisite-kfind.png Lo stesso argomento in dettaglio: Piercing dell'ombelico.
Il piercing dell'ombelico è molto più pericoloso del tatuaggio in quanto a possibilità di infezione o rigetto. Se eseguiti da personale non competente e con materiale non adeguato, possono entrambe portare a diversi problemi sanitari, tra i quali l'epatite B. Per l'agopuntura, disciplina integrante della medicina tradizionale cinese, questa parte del corpo non deve mai essere punta, ma solo massaggiata delicatamente o scaldata con la moxa.[senza fonte]
 
Tatuaggio dell'ombelico
Exquisite-kfind.png Lo stesso argomento in dettaglio: Tatuaggio.
Sezione vuota
Questa sezione è ancora vuota. Aiutaci a scriverla!
Il copriombelico
 
Copriombelico
Il copriombelico, nato come strumento sanitario, ora è diventato un ausilio estetico.
 
La chirurgia estetica
Oggi, grazie alla chirurgia estetica, è possibile modificare la forma, l'aspetto e la dimensione del proprio ombelico: si tratta dell'"ombelico plastica".
 
L'intervento all'ombelico viene eseguito in anestesia locale e può durare dai 20 minuti ai 30 minuti.
 
Le correzioni per un ombelico più rotondo
Se l'ombelico è "a mandorla" si può operare per farlo diventare più rotondo. Vengono asportate due strisce di cute (sopra, sotto o destra, sinistra a seconda dei casi). L'ombelico apparirà quindi in una forma più tonda. Alla fine dell'intervento il chirurgo con piccole strisce di cerotto chiude i punti e chiude l'intera parte con un tampone di garza sterile.
 
Le correzioni per un ombelico più piccolo
Per rimpicciolire un ombelico grande si effettua un'incisione attorno alla circonferenza dell'ombelico, si asporta un piccolo anello di cute e poi si stringe mediante una sutura continua. Poi si tira il filo e l'ombelico si rimpicciolisce fino alla dimensione desiderata. Il bordo dell'ombelico, nel corso della cicatrizzazione, assume un contorno irregolare che è simile a quello naturale. Alla fine si applicano strisce di cerotti e una garza sterile.
 
Le correzioni per un ombelico più incavato
Se l'ombelico è sporgente, quest'ultimo si può correggere asportando la pelle in eccesso tramite un potente laser che è in grado di vaporizzare la cute al momento del suo passaggio. Alla fine, si medica il tutto con garza sterile e cerotto.
 
Le correzioni per un ombelico più grande
Per ultimo, è possibile anche ingrandire un ombelico piccolo: dopo aver inciso la forma desiderata, si applica un tappo in silicone (modellato) sull'incisione. Questo è l'unico intervento che non necessita di punti. Infatti, dopo che il tappo è stato fissato con il tampone di garza sterile, dopo la cicatrizzazione il tappo viene tirato, asportando così anche il pezzo di tessuto che rendeva l'ombelico più piccolo.
 
I tempi di guarigione
Prima di chiarire i tempi di guarigione è opportuno sapere che dovranno essere necessariamente assunti, dopo l'intervento, dei medicinali antinfiammatori e un antibiotico (4 - 5 giorni).
 
Per quanto riguarda i tempi di guarigione, avviene, per tutti i casi, nel giro di 14 o 15 giorni, fatta eccezione l'intervento per l'ombelico sporgente effettuato con il laser: esso infatti richiede solo 7 giorni.
 
Erotismo
L'ombelico è una zona erogena. Molti infatti (di ambo i sessi), sono attratti dall'ombelico femminile e fin dall'antichità l'ombelico è stato considerato come una delle principali zone che esaltavano la femminilità umana (basti pensare al Cantico dei Cantici, alla danza del ventre, alle danze polinesiane e alla cultura indiana secondo la quale l'energia femminile denominata shakti risiede proprio all'interno dell'ombelico, a tal proposito si ricorda il fatto che è uso e costume fra le donne indiane incastonare monili o gioielli – tecnica differente dal piercing in quanto non c'è perforazione della pelle – all'interno dell'ombelico proprio per esaltare tale parte che viene esposta spesso grazie alla conformazione del sari). Recenti studi affermano che l'ombelico femminile possa essere utilizzato come indicatore dello stato di salute genetico di una persona oltre che come segno di predisposizione alla gravidanza: la preferenza delle persone sarebbe maggiore (ma non assoluta) nei confronti degli ombelichi femminili a forma di ovale verticale e per quelli a forma di T proprio perché sarebbero un segno di fertilità.
 
 


#79 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 11 novembre 2015 - 07:36

Arcobaleno
 
250px-Supernumerary_rainbow_03_contrast.
Questa voce o sezione ha problemi di struttura e di organizzazione delle informazioni.
Motivo: La voce andrebbe resa più organica accorpando le sezioni per attinenza
Risistema la struttura espositiva, logica e/o bibliografica dei contenuti. Nella discussione puoi collaborare con altri utenti alla risistemazione.
L’arcobaleno o iride[1] è un fenomeno ottico e meteorologico che produce uno spettro quasi continuo di luce nel cielo quando la luce del Sole attraversa le gocce d'acqua rimaste in sospensione dopo un temporale, o presso una cascata o una fontana.
 
Visivamente è un arco multicolore, rosso sull'esterno e viola sulla parte interna, senza transizioni nette tra un colore e l'altro. Comunemente, tuttavia, lo spettro continuo viene descritto attraverso una sequenza di bande colorate; la suddivisione tradizionale è: rosso, arancione, giallo, verde, blu, indaco e violetto. Esso è la conseguenza della dispersione e della rifrazione della luce solare contro le pareti delle gocce stesse. In casi più rari è possibile assistere a più arcobaleni, tipicamente due, di cui uno appare bianco e più attenuato.
 
In rari casi un arcobaleno lunare, o notturno, può essere visto nelle notti di forte luce lunare. Ma, dato che la percezione umana dei colori in condizioni di poca luminosità è scarsa, gli arcobaleni lunari sono percepiti come bianchi.
 
Arcobaleno tipico
 
Gli arcobaleni possono anche formarsi dalla nebbia, come in una cascata
Gli arcobaleni possono essere osservati ogni qualvolta ci siano gocce di acqua nell'aria e luce solare proveniente da dietro l'osservatore ad una bassa altezza. L'arcobaleno più spettacolare si può vedere quando metà del cielo è ancora scuro per le nuvole di pioggia e l'osservatore si trova in un punto con il cielo pulito sopra. L'effetto dell'arcobaleno è anche comune vicino alle cascate o alle fontane. A volte si possono vedere frange di arcobaleno ai bordi delle nuvole illuminate da dietro e come bande verticali nella pioggia distante o nelle virghe. L'effetto si può anche creare artificialmente disperdendo goccioline di acqua nell'aria durante un giorno soleggiato.
 
L'aspetto di un arcobaleno è provocato dalla dispersione ottica della luce solare che attraversa le gocce di pioggia. La luce viene prima rifratta quando entra nella superficie della goccia, riflessa sul retro della goccia e ancora rifratta uscendo dalla goccia. L'effetto complessivo è che la luce in arrivo viene riflessa in una larga gamma di angoli, con la luce più intensa riflessa con un angolo di 40°–42°. L'angolo è indipendente dalla dimensione della goccia, ma dipende dal suo indice di rifrazione. L'acqua del mare ha un indice più alto di quella della pioggia, quindi il raggio di un arcobaleno negli spruzzi di acqua di mare è più piccolo di quello di un arcobaleno di pioggia. Questo è visibile a occhio nudo dal disallineamento di questi due archi.
 
La quantità di luce che viene rifratta dipende dalla sua lunghezza d'onda, e quindi dal suo colore. La luce blu (onde più corte) viene rifratta ad un angolo più grande di quella rossa, ma siccome l'area nel retro di una gocciolina ha un punto focale al suo interno, lo spettro lo attraversa, e così la luce rossa appare più alta nel cielo, formando i colori esterni dell'arcobaleno. La luce dietro alle gocce di pioggia non va in riflessione interna totale e un poco di luce emerge dal retro; tuttavia, la luce che viene fuori dal retro della goccia non crea un arcobaleno tra l'osservatore e il sole perché lo spettro emesso dal retro non ha un massimo di intensità, come hanno gli altri arcobaleni visibili, e quindi i colori si mescolano tra loro piuttosto che formare un arcobaleno.
 
 
Raggi di luce entrano in una goccia di pioggia da una direzione (tipicamente una linea diritta dal sole), si riflette dietro alla goccia, e esce lasciando la goccia. La luce che se ne va dall'arcobaleno si sparge in un largo angolo, con la massima intensità di 40,6°–42°.
 
La luce bianca si separa in diversi colori (lunghezze d'onda) quando entra nella goccia poiché la luce rossa viene rifratta di un angolo minore rispetto alla luce blu. Lasciando la goccia, i raggi rossi hanno deviato di un angolo maggiore rispetto a quelli blu, producendo un arcobaleno.
Un arcobaleno non è qualcosa di concreto che abbia esistenza effettiva in una particolare posizione del cielo. Si tratta solo di un fenomeno ottico la cui posizione apparente dipende dal punto in cui si trova l'osservatore e dalla posizione del sole. La posizione di un arcobaleno nel cielo è sempre dalla parte opposta rispetto al sole, e l'interno è sempre leggermente più luminoso dell'esterno. Tutte le gocce di pioggia rifrangono la luce solare nello stesso modo, ma solo la luce di alcune di esse raggiunge l'occhio dell'osservatore. Questa luce è quella che costituisce l'arcobaleno per quel determinato osservatore.
 
 
Una porzione di un arcobaleno di 360 gradi, vista da un aereo
L'arco è centrato sull'ombra della testa dell'osservatore, apparendo ad un angolo di 40°–42° rispetto alla linea tra la testa dell'osservatore e la sua ombra. Come risultato, se il sole è più alto di 42°, allora l'arcobaleno si trova sotto l'orizzonte e non può essere visto siccome di solito non ci sono abbastanza goccioline di pioggia tra l'orizzonte (che è l'altezza degli occhi) e la terra per contribuirvi. Eccezioni avvengono quando l'osservatore si trova sopra la terra, per esempio su di un aeroplano (vedi figura), su di una montagna o su di una cascata. Un arcobaleno può essere generato utilizzando uno spruzzino da giardino, ma perché vi siano abbastanza gocce, esse devono essere molto fini.
 
È difficile fotografare l'arco completo di un arcobaleno, poiché questo richiede un angolo visivo di 84°. Con una fotocamera formato 35 mm, è necessaria una lente con una lunghezza focale di 19 mm, mentre la maggior parte delle fotocamere compatte è dotata di lenti con focale minima di 28 mm. Un sistema per aggirare questo limite è l'utilizzo di appositi programmi, facilmente reperibili in rete, che permettono di fare un "collage" di più immagini. Da un aeroplano, si ha l'opportunità di vedere un cerchio intero di arcobaleno, con l'ombra dell'aereo nel suo centro. Questo fenomeno potrebbe essere confuso con il fenomeno gloria, ma un gloria è solitamente molto più piccolo, coprendo solo 5°–20°.
 
Forma
La forma circolare dell'arcobaleno deriva dal fatto che l'angolo che massimizza l'intensità dei raggi solari riflessi dalle gocce d'acqua risulta essere costante, di circa 42° rispetto all'osservatore.
 
Varianti
A volte un arcobaleno secondario, più scuro e più grosso, è visibile all'esterno dell'arco primario. Gli arcobaleni secondari sono provocati da una doppia riflessione della luce solare dentro le gocce di pioggia, e appare ad un angolo di 50°–53°. Come risultato della seconda riflessione, i colori dell'arcobaleno secondario sono invertiti in confronto a quelli del primario, con il blu all'esterno e il rosso all'interno. L'area scura di cielo non illuminato posta tra l'arcobaleno primario e quello secondario viene chiamata banda di Alessandro, da Alessandro di Afrodisia che la descrisse per primo.
 
Un po' di luce si riflette due volte all'interno della goccia prima di uscire verso l'osservatore. Quando la luce incidente è molto luminosa, questa può essere vista come arcobaleno secondario, più luminoso a 50°–53°.
 
Un arcobaleno doppio ha i colori inversi nell'arco esterno (secondario), con la banda di Alessandro più scura tra i due archi.
 
Una fotografia a contrasto aumentato di un arcobaleno "supernumeroso", con alcuni archi verdi e violetti in più all'interno dell'arco primario.
 
L'arcobaleno primario e il secondario sono visibili, come anche un primario riflesso ed un appena visibile arco secondario riflesso
Un terzo, o triplo, arcobaleno si può vedere in rare occasioni, e pochissimi osservatori hanno riportato l'avvistamento di arcobaleni quadrupli, nei quali l'arco più esterno, molto più fioco, aveva un aspetto increspato e pulsante. Questi arcobaleni apparirebbero dallo stesso lato nel cielo dove si trova il sole, rendendoli molto difficili da avvistare.
 
Altre volte può essere osservato un altro meraviglioso fenomeno di arcobaleno, consistente in diversi deboli arcobaleni nel lato interno dell'arco primario e, molto raramente, anche all'esterno di quello secondario. Sono leggermente separati ed hanno bande di colori pastello che non entrano nello schema classico. Questi sono conosciuti come arcobaleni "supernumerosi", e non è possibile spiegare la loro esistenza utilizzando la geometria ottica classica. I fiochi archi alternati sono provocati da interferenze tra i raggi di luce che seguono percorsi leggermente diversi con lunghezza d'onda leggermente diverse all'interno delle gocce di pioggia. Alcuni raggi sono in fase rinforzandosi l'un l'altro attraverso una interferenza costruttiva, creando una banda molto luminosa; altri sono fuori fase fino a mezza lunghezza d'onda, cancellandosi a vicenda attraverso interferenza distruttiva, creando un buco. Data la differenza tra gli angoli di rifrazione per raggi di diversi colori, i modelli dell'interferenza sono leggermente diversi per questi ultimi, così ogni banda luminosa è differenziata nel colore, creando un arcobaleno in miniatura. Gli arcobaleni supernumerosi sono meglio visibili quando le gocce di pioggia sono piccole e di dimensioni simili. L'esistenza reale di tale tipo di arcobaleno è stato storicamente un primo indizio della natura ondulatoria della luce e la prima spiegazione fu fornita da Thomas Young nel 1804.
 
Altre varianti di arcobaleno vengono prodotte quando la luce solare si riflette su una massa di acqua. Là dove la luce si riflette sull'acqua prima di raggiungere le gocce di pioggia, si produce un arcobaleno di riflesso. Questi arcobaleni condividono gli stessi punti finali del normale arcobaleno ma hanno un arco molto più grande quando tutto esso è visibile. Sia l'arco primario che quello secondario riflessi possono essere osservati.
 
 
Formazione di un arcobaleno secondario. A destra (7) la formazione dell'arcobaleno primario, il raggio di luce bianca (6) subisce una rifrazione (4) sulla superficie della gocciolina sferica (1) in sospensione (12), poi una riflessione interna (2) infine esce dalla gocciolina formando l'arcobaleno primario (3). A sinistra (8) il raggio di luce bianca (6) dopo la rifrazione (4) subisce una doppia riflessione (2) generando l'arcobaleno secondario (5).
Un arcobaleno riflesso, in contrasto, viene prodotto quando la luce che è stata prima riflessa dentro le gocce viene riflessa da una massa di acqua prima di raggiungere l'osservatore. Un arcobaleno riflesso non è una immagine specchiata dell'arco primario, ma è posizionata ad un angolo dipendente dall'altezza del sole. Entrambi i tipi si possono vedere nell'immagine a destra.
 
Il filosofo greco Alessandro di Afrodisia nel II-III secolo descrive il fenomeno che si verifica quando si hanno due archi di arcobaleno: la zona di cielo al di sotto dell'arco principale, l'inferiore, appare più luminosa di quella al di sopra.
 
Si pensa che sia stato Qutb al-Din al-Shirazi (1236–1311), o forse il suo allievo Kamal al-din al-Farisi (1260–1320), ad aver dato per primo una descrizione abbastanza accurata del fenomeno dell'arcobaleno.
 
Nella prima metà del XIII secolo Ruggero Bacone misura l'angolo tra la luce incidente del Sole e la luce diffusa dai due archi ottenendo 138° e 130°.
 
Nel XIV secolo Teodorico di Freiberg ipotizza che il fenomeno dipenda dalla riflessione della luce solare e conduce esperimenti sopra bocce sferiche riempite d'acqua.
 
Marcantonio de Dominis pubblica nel 1611 l'opera Tractatus de radiis visus et lucis in vitris, perspectivis et iride sul telescopio e sull'arcobaleno: di questo dà una spiegazione convincente. Egli dichiara anche di aver condotto esperimenti simili a quelli di Teodorico di Freiberg, ma è fondato il sospetto che conoscesse antiche opere sull'argomento.
 
Cartesio, a partire dalle leggi di rifrazione che portano il suo nome (fra l'altro è sua la dotta dimostrazione matematica del perché l'arcobaleno ha forma semicircolare utilizzando il calcolo infinitesimale) presenta Les Météores del 1637 una spiegazione simile a quella di de Dominis senza citarlo, forse per non incorrere nella disubbidienza alla Damnatio memoriae pronunciata dalla Chiesa nei confronti dell'ex arcivescovo dalmata.
 
Isaac Newton riprende l'argomento nella sua opera Optics dando credito a de Dominis di aver spiegato il fenomeno per primo e in autonomia.
 
Storia degli studi sugli arcobaleni
 
Schizzo di René Descartes su come si formano l'arcobaleno primario e quello secondario
L'astronomo persiano Qutb al-Din al-Shirazi (1236–1311), o forse il suo allievo Kamal al-din al-Farisi (1260–1320), si pensa che abbiano dato per primi una spiegazione ragionevolmente dettagliata per il fenomeno dell'arcobaleno.[4] Il lavoro di Roberto Grossatesta sulla luce fu continuato da Ruggero Bacone, che scrisse nel suo Opus Majus del 1268 sugli esperimenti con la luce che passa attraverso cristalli e goccioline di acqua che mostrano i colori dell'arcobaleno. Teodorico di Freiberg è anche conosciuto per aver dato una spiegazione teorica accurata di entrambi gli arcobaleni, quello primario e quello secondario, nel 1307. Egli spiegò l'arcobaleno primario, notando che "quando la luce solare cade sulle singole gocce di umidità, i raggi subiscono due rifrazioni (una all'ingresso ed una all'uscita) ed una riflessione (sul retro della goccia) prima di essere trasmessa all'occhio dell'osservatore".[5] Spiegò l'arcobaleno secondario attraverso un'analisi simile che coinvolgeva due rifrazioni e due riflessioni.
 
Descartes, nel 1637, migliorò ulteriormente questa spiegazione. Sapendo che la dimensione delle gocce di pioggia non sembrava interessare l'arcobaleno osservato, egli sperimentò il passaggio di raggi di luce attraverso una grande sfera di vetro riempita di acqua. Misurando gli angoli dei raggi emergenti, egli concluse che l'arco primario era causato da una singola riflessione interna all'interno della goccia e che il secondario poteva essere causato da due riflessioni interne. Fu in grado di dedurre questo con una derivazione della legge della rifrazione (successivamente, ma indipendentemente da Snell) e calcolò correttamente gli angoli di entrambi gli archi. La sua spiegazione per i colori, tuttavia, era basata su una versione meccanica della teoria tradizionale secondo la quale i colori erano prodotti da una modifica della luce bianca.
 
Isaac Newton fu il primo a dimostrare che la luce bianca era composta dalla luce di tutti i colori dell'arcobaleno, che potevano essere separati in uno spettro completo di colori da un prisma di vetro, respingendo la teoria che i colori fossero prodotti da una modifica della luce bianca. Egli mostrò anche che la luce rossa veniva rifratta meno della luce blu, il che portò alla prima spiegazione scientifica delle principali caratteristiche dell'arcobaleno. La teoria corpuscolare di Newton non fu in grado di spiegare gli arcobaleni supernumerosi, ed una spiegazione soddisfacente non fu trovata prima che Thomas Young capisse che in certe condizioni la luce si comporta come un'onda, e può interferire con sé stessa.
 
Il lavoro di Young fu perfezionato nel 1820 da George Biddell Airy, che spiegò come la forza dei colori dell'arcobaleno dipendesse dalla dimensione delle gocce di acqua. Le descrizioni fisiche moderne sono basate sullo Scattering Mie, un lavoro pubblicato da Gustav Mie nel 1908. I continui progressi nei metodi computazionali e nella teoria ottica portare ad una comprensione sempre più completa del fenomeno degli arcobaleni. Per esempio, una visione moderna dell'arcobaleno è stata offerta dal fisico brasiliano Herch Moysés Nussenzveig.
 
La fine di un arcobaleno
Exquisite-kfind.png Lo stesso argomento in dettaglio: Shekhinah.
L'arcobaleno ha avuto un posto nelle leggende a causa della sua bellezza ed alla difficoltà nello spiegare il fenomeno, anche dopo gli studi antichi e prima che Galileo studiasse le proprietà della luce, anche se Teodorico di Freiberg aveva dato una spiegazione soddisfacente nel XIII secolo).
 
In Genesi 9,13, l'arcobaleno è un segno del Patto tra Dio e l'umanità: dopo che Noè sopravvive al diluvio universale nella storia dell'Arca di Noè Dio inviò un arcobaleno per promettere che non avrebbe mai più inondato la terra. L'arcobaleno è anche diventato il simbolo per un movimento moderno nella religione ebraica chiamato B'nei Noah (figli di Noè). I B'nei Noah sono coloro, al contrario degli attuali e maggioritari seguaci del fariseismo, che continuano a professare nel modo del loro antenato Noè. Il movimento di Noè ha le sue radici nella tradizione ebraica, specificamente nel Talmud.
 
 
Un intaglio in legno colorato dai Racconti di Norimberga che mostra un arcobaleno con i 12 segni dello zodiaco
Il Corpo di Arcobaleno è un concetto importante nel buddhismo tibetano.
 
Nella mitologia indiana l'arcobaleno è chiamato Indradhanush, con il significato di arco di Indra, il dio del fulmine e del tuono.
 
Nella mitologia greca, l'arcobaleno era considerato un fenomeno atmosferico affascinante e legato alle divinità: si tratta infatti di un sentiero creato dalla messaggera Iris tra terra e paradiso.
 
Nella mitologia cinese, l'arcobaleno era una spaccatura nel cielo sigillata dalla dea Nüwa con pietre di sette colori differenti.
 
Nella mitologia norrena, un arcobaleno chiamato Ponte di Bifröst collega i regni di Ásgarðr e Miðgarðr, che sono rispettivamente le dimore delle divinità e degli umani
 
Nella mitologia irlandese, il nascondiglio segreto del leprechauno, una sorta di folletto, è una pentola piena di oro, che viene generalmente posta alla fine dell'arcobaleno, un posto praticamente impossibile da raggiungere.
 
Arcobaleni nell'arte e nella fotografia
Molti pittori hanno rappresentato l'arcobaleno. Frequentemente questi hanno una importanza simbolica o programmatica. (Vedi, per esempio, la Melencolia I di Albrecht Dürer). In particolare, l'arcobaleno appare spesso nell'arte religiosa (Vedi L'offerta di ringraziamento di Noè di Joseph Anton Koch e il Giudizio Finale di Roger van der Weyden mostrate sotto). Tuttavia, i pittori di paesaggi del Romanticismo come William Turner e John Constable si sono preoccupati maggiormente nel registrare gli effetti momentanei della luce (Vedi ad esempio la Cattedrale di Salisbury dai Prati di Constable). Altri esempi degni di nota appaiono in lavori di Hans Memling, Caspar David Friedrich e Pieter Paul Rubens.
 
L'arcobaleno è il soggetto preferito dei fotografi, fino ad un limite tale per cui i fotografi di arcobaleni sembrano più ordinari degli stessi arcobaleni. A volte, una foto di arcobaleno è sorprendentemente artistica e bella, come l'"Harpe de Lumière" di Georges Noblet mostrata sotto.
 
 
Offerta di Ringraziamento di Noè (c.1803) di Joseph Anton Koch. Noè costruisce un altare al Signore dopo essere stato trasportato dal Diluvio; Dio manda l'arcobaleno come un segno del suo patto. (Genesi 8-9).
 
Cristo seduto nel giorno del giudizio su di un arcobaleno nel Giudizio Finale(Hôtel-Dieu, Beaune) di Roger van der Weyden. Questo particolare aspetto della scena è una descrizione del verso nell'Apocalisse di Giovanni (4,3: "… e ci fu un arcobaleno attorno al trono, visibile come sopra uno smeraldo").
 
La Ragazza cieca, dipinto ad olio (1856) di John Everett Millais. L'arcobaleno – una delle bellezze della natura che la ragazza cieca non può vedere – viene utilizzato per sottolineare il pathos della sua condizione.
 
Paesaggio con personaggi (c.1632-5), dipinto a olio da Peter Paul Rubens
 
Harpe de Lumière
Arcobaleni in letteratura
Virginia Woolf nel To the Lighthouse (Verso il faro) evidenzia la caducità della vita e la mortalità dell'Uomo attraverso il pensiero della signora Ramsey: "Era tutto effimero come un arcobaleno".
 
Una poesia di William Wordsworth del 1802, "My Heart Leaps Up When I Behold The Rainbow" ("Il mio cuore batte più forte quando intravedo l'arcobaleno"), comincia così:
 
In contrasto con questa visione c'è Richard Dawkins, che parlando del suo libro Unweaving the Rainbow: Science, Delusion and the Appetite for Wonder (Disfare l'arcobaleno: scienza, illusione e l'appetito per la meraviglia), scrisse:
 
"Il mio titolo viene da Keats, il quale credeva che Newton avesse distrutto tutta la poesia dell'arcobaleno riducendolo ai colori prismatici. Keats non avrebbe potuto essere più in errore, e il mio scopo è guidare tutti coloro che sono tentati da una simile visione dei fatti verso la conclusione opposta. La scienza è, o dovrebbe essere, l'ispirazione per grandi poemi".
The Rainbow (L'Arcobaleno) è il titolo di una favola del 1915 dell'autore britannico David Herbert Lawrence;
 
L'alba ed il tramonto erano i piedi dell'arcobaleno che misuravano il giorno, e lei vide la speranza, la promessa.
Gli arcobaleni nella cultura di massa
 
Rainbow of Hearts. Nella cultura popolare i colori dell'arcobaleno vengono a volte scambiati.
 
Attuale versione della bandiera del Gay pride
 
La bandiera della pace
L'arcobaleno è stato usato anche in contesti più contemporanei, come nella canzone Over the Rainbow o nel film musicale Il mago di Oz, la canzone The Rainbow Connection dal Film dei Muppet, e nella vendita dei "Lucky Charms" (un cereale per la colazione) alludendosi pesantemente alla mitologia del leprechaun.
 
Il gruppo fondato da Ritchie Blackmore, storico chitarrista dei Deep Purple, dopo aver abbandonato la band madre, è chiamato proprio Rainbow, che ha usato spesso l'arcobaleno nelle sue copertine.
 
La nave di Greenpeace, la Rainbow Warrior (letteralmente Guerriero dell'Arcobaleno) fu battezzata da una profezia dei Nativi Americani Cree che diceva "Quando il mondo sarà malato e morente, la gente si alzerà come Guerrieri dell'Arcobaleno…".
 
La Rainbow Coalition è un gruppo di azione sociale nato a Chicago in Illinois da Jesse Jackson dal quale egli lanciò la sua piattaforma nazionale di riforme politiche e sociali.
 
I Rainbow Gathering (Raduni Arcobaleno), sono raduni di hippie che si incontrano su terreni pubblici con la missione di esporre le idee di pace, amore, libertà e comunione. Negli anni '60, artisti come Peter Blake fecero uso dei colori dell'arcobaleno in stampe iconiche come Babe Rainbow, e successivamente, Bobbie Rainbow.
 
Storicamente, una bandiera arcobaleno fu usata nella Guerra dei contadini tedesca nel XVI secolo come segno di una nuova era, di speranza e cambiamento sociale. Le bandiere arcobaleno sono anche state usate come simbolo del movimento Cooperativo; come un simbolo di pace, specialmente in Italia; per rappresentare il Tawantin Suyu, o il territorio Inca, in Perù ed in Ecuador; da alcune comunità Drusi nel Medio Oriente; e dallo Oblast autonomo ebraico.
 
Il Sudafrica, dopo la fine del regime di apartheid, venne denominato Rainbow Nation ("nazione arcobaleno", ovvero "nazione abitata da persone di diversi colori").
 
L'arcobaleno è diventato il simbolo universale di lesbiche, gay, bisessuali e transessuali (LGBT), che sono anche conosciuti come le "persone arcobaleno", un riferimento alla loro "diversità". L'arcobaleno appare nella bandiera del Gay pride, disegnata da Gilbert Baker per la Celebrazione della Libertà dei Gay a San Francisco del 1978. I colori dell'arcobaleno sono disegnati come strisce orizzontali, con il rosso in cima e il violetto in basso.
 
L'arcobaleno è presente anche nella bandiera della pace, che vede disposti i sette colori in fasce orizzontali con il violetto in alto e il rosso in basso.
 
Il prisma che rifrange un raggio bianco di luce nei colori dell'arcobaleno è il soggetto di una delle copertine discografiche più famose di ogni tempo, quella di The Dark Side of the Moon dei Pink Floyd.
 
Gli arcobaleni svolgono un ruolo fondamentale all'interno del videogioco Rainbow Islands della Taito, in cui vengono usati dai protagonisti sia come arma sia come mezzo per arrampicarsi sulle piattaforme che costituiscono i livelli.
 
Spettro e sequenza di colori
Un arcobaleno abbraccia uno spettro continuo di colori (non ci sono bande, anche se normalmente vengono stabiliti degli intervalli approssimati per ciascun colore). La discretezza apparente è un artefatto dovuto ai fotopigmenti presenti nell'occhio umano ed al trattamento neurale degli output dei fotorecettori nel cervello. Visto che la risposta di picco dei recettori di colore umani varia da persona a persona, individui diversi vedranno colori leggermente differenti, e le persone con daltonismo vedranno un insieme ridotto di colori. Tuttavia generalmente si pensa che i colori elencati di seguito possano essere rappresentativi di come una persona con normale visione dei colori veda l'arcobaleno.
 
Isaac Newton, originariamente (1672), distinse solo cinque colori primari: rosso, giallo, verde, blu e violetto.
 
Rosso Giallo Verde Blu Violetto
 
Solo più tardi introdusse l'arancione e l'indaco, dando sette colori in analogia con il numero di note in una scala musicale.
 
Rosso Arancione Giallo Verde Blu Indaco Violetto
 
Attualmente gli scienziati che si occupano di ottica tendono a non riconoscere l'indaco come una divisione separata e classificano come violetto lunghezze d'onda più corte di circa 450 nm(secondo Hardy e Perrin la lunghezza d'onda dell'indaco è fra i 446 e i 464 nm).
 
I colori visibili nell'arcobaleno non sono puri colori spettrali. Ci sono sbavature spettrali dovute al fatto che per ogni lunghezza d'onda particolare, vi è una distribuzione di angoli di uscita, piuttosto che un angolo invariabile singolo.
 
 


#80 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 18 novembre 2015 - 06:42

Forza di coriolis
 
Coriolis_effect09.png
 
In fisica, la forza di Coriolis è una forza apparente, a cui risulta soggetto un corpo quando si osserva il suo moto da un sistema di riferimento che sia in moto circolare rispetto a un sistema di riferimento inerziale.
 
Descritta per la prima volta in maniera dettagliata dal fisico francese Gaspard Gustave de Coriolis nel 1835,[1][2] la forza di Coriolis dipende, anche come direzione, dalla velocità del corpo rispetto al sistema di riferimento rotante.[3] È alla base della formazione dei sistemi ciclonici o anticiclonici nell'atmosfera e ha effetti non trascurabili in tutti i casi in cui un corpo sulla Terra si muova ad alta velocità su lunghi percorsi, come per esempio nel caso di proiettili o di missili a lunga gittata.
 
Meno comunemente il manifestarsi di questa forza apparente è indicato anche con l'espressione effetto Coriolis.
 
In termini matematici, la forza di Coriolis ha la forma seguente, che segue dalla definizione dell'omonima accelerazione nel teorema di Coriolis e dal principio di proporzionalità di Newton:
 
\mathbf{F}_C = m \mathbf{a}_C=- 2 m\,\boldsymbol{\omega} \times \mathbf{v}
Le lettere in grassetto sono quantità vettoriali. FC è la forza di Coriolis, m è la massa del corpo che si muove con velocità v rispetto al sistema di riferimento non inerziale rotante,  \times  rappresenta il prodotto vettoriale e ω è la velocità angolare del sistema non inerziale, misurata rispetto ad un sistema inerziale. Esplicitando la dipendenza dall'angolo \phi formato dall'asse di rotazione del sistema di riferimento con la direzione della velocità del corpo, l'intensità della forza vale:
 
F_c = 2 \, m \omega v |\mathrm{sen} \, {\phi}|
 
Nel sistema di riferimento inerziale (parte superiore della figura), l'oggetto nero si muove con traiettoria rettilinea. Per contro, l'osservatore (punto rosso) che si trova nel sistema di riferimento rotante (parte inferiore della figura) vede l'oggetto muoversi con traiettoria curvilinea.
L'animazione a destra è una rappresentazione schematica dell'effetto Coriolis, in cui un oggetto si muove rispetto ad un disco rotante senza che vi sia attrito tra le due parti. In assenza di forze esterne, il corpo si muoverà di moto rettilineo uniforme, se osservato da un sistema di riferimento inerziale, svincolato dal disco; se osservato da un sistema di riferimento solidale con il disco in rotazione, invece, sembrerà percorrere una traiettoria curva. In questo secondo caso, l'osservatore concluderà che sull'oggetto agisce una forza. L'effetto è lo stesso che si produrrebbe con l'applicazione di una forza trasversale alla direzione del moto, per questo motivo si parla di forza di Coriolis. Si tratta di una "forza apparente", poiché dipendente unicamente dal moto dell'osservatore rispetto al riferimento inerziale, e non dall'azione di qualche altro oggetto o di un campo di forze.
 
È anche possibile interpretare il fenomeno come un "ritardo" del moto dell'oggetto rispetto a quello del disco: per un osservatore in un sistema di riferimento inerziale, la velocità tangenziale del disco aumenta in misura proporzionale alla distanza dal centro, mentre la velocità dell'oggetto rimane costante. Sulla Terra la situazione è analoga per un corpo in moto in direzione latitudinale (Nord-Sud): la distanza dall'asse terrestre (l'analogo dell'asse di rotazione del disco nell'esempio precedente) è nulla ai poli e massima all'equatore. Dato che la Terra ruota da ovest verso est, se dal Polo Nord oppure dal Polo Sud ci dirigiamo inizialmente verso l'Equatore, finiremo per essere "in ritardo" sulla rotazione e dunque il nostro moto acquisterà una componente verso ovest. Se, viceversa, dall'equatore andiamo verso uno dei due poli, saremo "in anticipo" e acquisiremo una componente del moto verso est. Precisiamo che, al di là di questa rappresentazione intuitiva e parziale dal fenomeno, la forza di Coriolis si manifesta anche se inizialmente il moto non è longitudinale (e, nel caso del disco, anche se non è radiale).
 
Fenomenologia
 
Dimostrazione della formazione di una superficie parabolica su un fluido in rotazione
Per rappresentare adeguatamente l'effetto Coriolis si può utilizzare uno specchio di mercurio rotante, come quelli realmente impiegati in astronomia. La superficie di una vasca di mercurio rotante assume la forma di un perfetto specchio parabolico. Ogni particella di mercurio è in uno stato di equilibrio dinamico in cui la forza centrifuga è proporzionale alla distanza dal centro. Tutto il mercurio ruota con lo stesso periodo, come un'unica massa. Un oggetto che galleggi ovunque sul mercurio si collocherebbe anch'esso in equilibrio dinamico, trascinato in rotazione dal metallo. Questo è ottimale per il manifestarsi dell'effetto Coriolis.
 
 
Rappresentazione schematica in sezione di oscillazione armonica su una superficie parabolica
Per prima cosa si consideri la situazione in cui un oggetto, per esempio un piccolissimo hovercraft, sia sospeso sulla superficie del mercurio senza attrito, supponendo trascurabile anche l'attrito dell'aria. L'oggetto, non interagendo con la superficie non ne è trascinato, quindi consideriamo solamente il profilo del mercurio, non la sua rotazione. Dal punto di vista di un sistema inerziale, quando l'hovercraft è lasciato andare da una posizione prossima al bordo della vasca, esso comincerà ad oscillare da un lato all'altro della superficie (che ricordiamo ha forma concava).
 
Il moto dell'hovercraft è formato da due moti oscillatori indipendenti lungo assi ortogonali, per esempio nord/sud ed est/ovest, dello stesso periodo della rotazione del mercurio. A seconda delle condizioni iniziali (posizione e velocità con cui l'hovercraft è lasciato libero), il moto risultante seguirà una traiettoria della forma di un segmento, di un'ellisse o, nel caso di una perfetta simmetria, di un cerchio. Considerare la traiettoria ellittica come combinazione di due moti armonici aiuta a comprendere la fisica sottostante al fenomeno e a visualizzare la velocità non costante dell'oggetto nel seguire una traiettoria ellittica.
 
Dimostrazione del moto dell'hovercraft
La superficie del mercurio è equipotenziale perciò, per ogni volumetto di mercurio sulla superficie si deve avere che il potenziale generalizzato per unità di massa (somma del potenziale della forza centrifuga Uc e della forza gravitazionale Ug) sia costante:
 
U_{sup}=U_c+U_g+c=\left[-\frac{1}{2}\omega^2(x^2+y^2)\right] + \left[ gz \right]+c=0
Ponendo a 0 la costante c, che equivale a porre a 0 la quota alla quale l'energia potenziale gravitazionale è nulla, ed esplicitando rispetto alla quota z, otteniamo il profilo della superficie:
 
\displaystyle{}z(x,y)=\frac{\omega^2}{2g}(x^2+y^2)
Notiamo che è una superficie radiale, corrispondente ad un paraboloide di rotazione con vertice nell'origine e diretto verso l'alto. Per un corpo sospeso sulla superficie, l'energia potenziale gravitazionale è data da:
 
\displaystyle{}U_g=mgz=\frac{1}{2}m\omega^2(x^2+y^2)
Dato che la forza di gravità è l'unica ad agire sull'hovercraft, essa è data dal gradiente dell'energia potenziale cambiato di segno:
 
\vec F(x,y)=-\vec \nabla U
\begin{cases}F_x=-m\omega^2x \\
F_y=-m\omega^2y\end{cases} \qquad \Rightarrow \begin{cases}
\ddot x=-\omega^2x \\
\ddot y=-\omega^2y \end{cases}
Risolvendo le due equazioni differenziali del secondo ordine si ottengono due moti armonici disaccoppiati lungo gli assi:
 
\begin{cases}
x(t)=A\cos{(\omega t+\varphi)} \\
y(t)=B\cos{(\omega t+\psi)} \end{cases}
dove A e B sono le ampiezze dei moti e φ e ψ sono le fasi, da determinare dalle condizioni iniziali.
 
Moto libero di Coriolis
Si consideri la situazione in cui l'hovercraft si muova lungo la traiettoria ellittica con un periodo identico a quello di rotazione del mercurio. In questo caso l'unica forza che influenza il moto è la forza centripeta prodotta per effetto dell'inclinazione della superficie.
 
Analisi delle diverse posizioni, vedi testo.
Quando l'hovercraft si trova in una delle posizioni B"', la sua velocità è inferiore a quella per la quale si avrebbe, per quella distanza dal centro di rotazione, l'equilibrio tra forza centripeta e centrifuga. Si ha quindi una prevalenza di forza centripeta che accelera l'hovercraft verso il centro del disco. Alla posizione B l'hovercraft sta guadagnando velocità e la forza centripeta sta compiendo lavoro consistente nell'incremento dell'energia cinetica di rotazione dell'hovercraft. In posizione C l'hovercraft si muove più velocemente della velocità di equilibrio per quella distanza da centro, per cui si ha un difetto di forza centripeta e l'hovercraft, non più trattenuto, tende ad allontanarsi dal centro. Nelle posizioni D l'hovercraft risale l'inclinazione perdendo velocità ed energia cinetica, che viene convertita in energia potenziale.
 
Dal punto di vista di una telecamera solidale al disco rotante, l'unico movimento percepibile è quello dovuto alla differenza tra l'orbita circolare e l'orbita ellittica. L'hovercraft appare muoversi su una piccola traiettoria circolare in prossimità del punto in cui è stato rilasciato. Per ogni rivoluzione del sistema rotante l'hovercraft compie due rotazioni. Dal punto di vista matematico questa traiettoria circolare può essere ottenuta sottraendo una traiettoria circolare da una ellittica concentrica. La dinamica dell'eccentricità di una traiettoria ellittica è chiamata dinamica di Coriolis.
 
La forza che compie il lavoro è diretta parallelamente all'asse di rotazione dello specchio rotante. Nell'esempio descritto si tratta della forza gravitazionale terrestre. L'espressione forza di Coriolis in questo caso è una semplificazione di termini che riassume una dinamica complessa.
 
Facendo una analogia tra la dinamica di Coriolis su uno specchio parabolico e sulla terra, ovvero se fosse possibile sospendere un oggetto sulla superficie terrestre senza alcun attrito, cosa accadrebbe? È stato calcolato come esempio che alla latitudine di 43° si avrebbe un moto circolare su un'orbita di 100 km in quasi 14 ore, ad una velocità di 10 m/s.
 
Interazione tra i sistemi, aggiunta dell'attrito
Si consideri ora il caso in cui siano presenti degli attriti. I due sistemi coinvolti sono il sistema di riferimento inerziale ed il sistema rotante. La direzione in cui si manifesta la forza di inerzia è determinata dalla direzione dell'accelerazione rispetto al sistema di riferimento inerziale, che è un punto di riferimento non rotante. Nel caso specifico il sistema rotante è il mercurio con l'oggetto in contatto con la sua superficie. Normalmente il vettore della forza d'inerzia e quello di trascinamento prodotto dall'attrito puntano nella stessa direzione, ma non quando sia implicato un sistema in rotazione.
 
Quando alla dinamica del sistema viene aggiunto un attrito tra mercurio ed hovercraft, l'orbita ellittica si riduce progressivamente ad una forma circolare.
 
Per l'osservatore solidale con il sistema rotante, l'orbita circolare di prima diventa un moto a spirale verso il centro. Si ha interazione tra i due sistemi: il trascinamento cambia un equilibrio dinamico, l'orbita ellittica, in un altro equilibrio dinamico, l'orbita circolare.
 
Dinamica di Coriolis applicata ai vortici
Si ipotizzi ora che un dispositivo co-rotante prelevi una quantità di mercurio, creando un abbassamento locale di livello. Il mercurio inizierà naturalmente a fluire da ogni direzione per colmare il vuoto.
 
Definiamo ora nord il centro del disco, sud il bordo, ovest il senso orario e est il senso antiorario.
 
Il mercurio che inizialmente fluisce in senso radiale in direzione nord diminuisce la sua velocità tangenziale (Velocità tangenziale=ω*R dove ω è la velocità angolare e R il raggio ovvero la distanza dall'asse di rotazione) e deflette quindi verso destra. Viceversa il liquido che fluisce verso sud incrementa la sua velocità tangenziale e deflette verso la sua destra. Questo caso corrisponde al modello della sedia rotante precedentemente descritta in cui le masse vengono avvicinate o allontanate per effetto di una forza radiale.
 
Schema delle forze agenti nell'intorno ad un vortice. Il gradiente di pressione è rappresentato dalle frecce blu, mentre l'effetto Coriolis, sempre perpendicolare alla velocità, è rappresentata dalle frecce rosse
Il fluido in movimento verso est, nel senso di rotazione del disco, si sta muovendo ad una velocità superiore alla velocità di equilibrio, per cui tende a risalire verso sud per allargare la sua traiettoria ed il risultato è una deflessione verso destra. Il fluido in movimento verso ovest ha una velocità inferiore a quella di equilibrio e tende perciò ad avvicinarsi al nord ed ancora si ha una deflessione verso destra. Questo caso equivale all'esempio della sedia rotante in cui viene applicato un momento dall'esterno, in questo caso costituito dal gradiente di livello del fluido.
 
Questa serie di eventi porta a quello che in meteorologia è la legge di Buys-Ballot. Il risultato è che il mercurio intorno alla depressione tende ad assumere un movimento a spirale. Se il bacino ruota in senso antiorario, allora anche il vortice ruota in senso antiorario. (Nell'esempio precedente di moto non vincolato, la rotazione antioraria si rifletteva in una apparente rotazione oraria dell'oggetto rispetto al sistema rotante).
La forza causata dalla depressione nel mercurio provoca la deflessione verso sinistra, mentre senza questo effetto sarebbe verso destra.
 
Se il vortice si contrae, come imposto dalle forze centripete descritte, allora la velocità angolare aumenta. L'attrito tende a frenare il vortice, ma la presenza delle forze che causano la contrazione ha l'effetto di mantenere alta la velocità di rotazione.
 
Per avere un moto circolare stabile rispetto al riferimento inerziale, l'intensità della forza centripeta deve essere: F = mωv (dove ω è la velocità angolare).
 
Nel caso del vortice sul mercurio ruotante, l'intensità della forza inerziale è determinata dalla velocità reale rispetto al sistema inerziale. Quando questa è espressa relativamente al sistema rotante, la forza è data da: F = 2mωv. (dove ω è la velocità angolare e v è la velocità della massa rispetto al sistema rotante).
 
L'effetto sull'atmosfera
 
Formazione di un ciclone nell'emisfero boreale
L'effetto Coriolis ha un ruolo molto importante nella dinamica atmosferica e sulla meteorologia, poiché influisce sui venti, sulla formazione e rotazione delle tempeste, così come sulla direzione delle correnti oceaniche (spirale di Ekman).
 
Masse d'aria si riscaldano all'equatore, diminuiscono in densità e salgono, richiamando aria più fredda che scorre sulla superficie terrestre verso l'equatore. Poiché non c'è abbastanza attrito tra la superficie e l'aria, questa non acquisisce la velocità necessaria per mantenersi in co-rotazione con la terra.
 
L'uragano Ivan al di sopra di Cuba e lo Yucatan
Nella parte superiore dell'atmosfera l'attrito ha scarsa influenza sui venti e le particelle di aria sono soggette esclusivamente alla forza dovuta al gradiente di pressione ed all'effetto Coriolis.
 
Come descritto nella sezione relativa alla dinamica dei vortici, queste due forze tendono a compensarsi, e per questo motivo le correnti d'aria ad alta quota tendono a scorrere parallelamente alle isobare. I venti generati con questa dinamica sono chiamati geostrofici.
 
I venti che normalmente scorrerebbero verticalmente dai poli verso l'equatore sono quindi deviati dalla forza di Coriolis e danno origine a quei venti costanti noti con il nome di alisei. Nell'emisfero nord questi venti soffiano da nord-est verso sud-ovest e nell'emisfero sud soffiano da sud-est verso nord-ovest. I flussi d'aria che si sollevano all'equatore non giungono fino ai poli, poiché la forza di Coriolis costringe le correnti d'aria a muoversi in circolo intorno alle regioni polari.
 
Nell'emisfero settentrionale un sistema di bassa pressione ruota in senso antiorario, mentre un sistema di alta pressione ruota in senso orario, come stabilito dalla legge di Buys-Ballot; l'opposto avviene nell'emisfero meridionale.
 
Per ricordare il senso di rotazione del fenomeno si può ricordare questo semplice schema (valido nell'emisfero settentrionale)
 
Anticiclone (alta pressione) - Senso orario
Ciclone (bassa pressione) - Senso antiorario
Misuratore di flusso ad effetto Coriolis
Exquisite-kfind.png Lo stesso argomento in dettaglio: Flussimetro § Misuratori a effetto Coriolis.
Una applicazione tecnologica dell'effetto Coriolis si ha nel flussimetro, uno strumento che misura l'entità del flusso di fluido che scorre in un tubo. Il principio di funzionamento fu applicato nel 1977 dalla Micro Motion, Inc.
 
Il sistema funziona applicando una vibrazione al tubo e quindi rilevando ed analizzando gli effetti inerziali prodotti dall'interazione tra le vibrazioni e lo scorrimento della massa fluida.
 
Effetto Eötvös
Il principale impatto pratico della forza di Coriolis è dovuto alla componente della forza parallela al terreno, ma c'è un altro effetto dovuto alla forza di Coriolis, cioè l'effetto Eötvös, dovuto all'altra componente della forza, quella verticale. A prescindere dall'emisfero in cui si trovano, oggetti in moto da ovest verso est subiscono una forza diretta verso l'alto (che indebolisce leggermente l'effetto della forza di gravità: gli oggetti sono più leggeri), mentre gli oggetti in moto nella direzione opposta subiscono una forza diretta verso il basso (sono più pesanti). L'effetto è massimo all'equatore e nullo ai poli, ma l'effetto è comunque troppo piccolo rispetto alle altre forze coinvolte (gravità, reazioni vincolari ecc.) per avere un'importanza significativa in fenomeni dinamici.
 
Altre manifestazioni del fenomeno
Una conseguenza notevole dell'effetto Coriolis è espressa dal teorema di Taylor-Proudman: in un sistema idrodinamico in rotazione in cui la forza di Coriolis è un termine dominante (ovvero in cui i flussi avvengono su scale confrontabili col moto di rotazione, corrispondente ad un basso valore del numero di Rossby, Ro) ed in cui gli attriti dovuti alla viscosità sono trascurabili (corrispondente ad un alto numero di Reynolds, Re), tutte le soluzioni stabili delle equazioni di Navier-Stokes hanno la caratteristica che la velocità del fluido è costante lungo ogni linea parallela all'asse di rotazione.
 
Spesso negli oceani si verificano situazioni che soddisfano le condizioni del teorema (negli oceani Re è universalmente piccolo, e valori comuni come 0,1 m/s per la velocità tipica del flusso, 4 km per la profondità e dunque in approssimazione di acqua bassa,[6] e un valore per f di 10−4 s−1 corrispondono ad un valore per Ro di circa 0,25, che è trascurabile): in quei casi si possono osservare le cosiddette colonne di Taylor,[7] in cui la velocità dell'acqua è identica in tutti i punti su una verticale.
 
Più in generale, il teorema di Taylor-Proudman è largamente impiegato quando si ha a che fare con i flussi atmosferici, in astrofisica (vento solare, dinamica di Giove) e problemi industriali come per esempio la progettazione di turbine.
 
Effetti della forza si manifestano anche in fisica atomica. Nelle molecole poliatomiche, il moto molecolare può essere descritto come una rotazione rigida più una vibrazione delle parti attorno alla posizione di equilibrio. Gli atomi risultano così in movimento relativamente ad un sistema di riferimento rotante (la molecola). Una forza di Coriolis è quindi presente e induce gli atomi a muoversi in una direzione perpendicolare rispetto all'oscillazione iniziale. Questo produce una particolare confusione nello spettro molecolare, tra i livelli rotazionali e vibrazionali.
 
Gli insetti del gruppo dei ditteri e dei lepidotteri utilizzano due minuscole strutture vibranti sui fianchi del corpo per percepire gli effetti della forza di Coriolis. Questi organi svolgono un ruolo chiave nell'abilità degli insetti nel volo acrobatico.
 
Effetto sugli scarichi dei lavandini
È un'idea diffusa che l'effetto Coriolis determini il senso di rotazione dei vortici che si creano quando si stappa lo scarico di un lavandino: nell'Emisfero boreale la rotazione sarebbe in un senso (antiorario), mentre sarebbe opposta nell'Emisfero australe (orario). In alcuni Paesi a cavallo dell'Equatore viene a volte presentato ai turisti un esperimento che dimostrerebbe come spostandosi di pochi metri a nord o a sud della linea equatoriale cambierebbe il senso di rotazione di un vortice in una vaschetta.[10]
 
Si tratta in realtà di una leggenda metropolitana: l'effetto che si ottiene calcolando l'azione della forza di Coriolis in un sistema ideale è infatti diversi ordini di grandezza inferiore rispetto a molti altri contributi, come la geometria della vasca e dello scarico, l'inclinazione del piano e soprattutto il movimento che aveva inizialmente l'acqua (è facile trarre in inganno i turisti di cui sopra imponendo un leggero movimento rotatorio nel senso desiderato muovendo opportunamente ed impercettibilmente la vaschetta). Ripetere più volte l'esperimento su un singolo lavandino può trarre in inganno, in quanto esiste un errore sistematico dovuto alla geometria specifica della vasca.
 
Se si prende una vasca piatta e circolare, con uno scarico piccolo e liscio, avendo cura di attendere che l'acqua sia perfettamente ferma e stappando con cura, è possibile comunque osservare l'influenza della forza di Coriolis. Tuttavia, data la grandezza del fenomeno, bisognerebbe lasciare a riposo l'acqua per alcuni giorni, in una stanza sigillata e lontano dal passaggio di mezzi pesanti, perché le correnti d'aria barometriche, i moti vorticosi interni del liquido e le vibrazioni indotte da un camion hanno all'incirca lo stesso ordine di grandezza del fenomeno che si vorrebbe osservare.
 
Altri utilizzi
La forza di Coriolis deve essere considerata nel calcolo delle traiettorie di razzi, proiettili di artiglieria e anche di pallottole a lungo volo, dove per queste ultime l'effetto, sebbene spesso trascurabile, è anche in grado di produrre una deviazione di pochi centimetri su obiettivi distanti un chilometro.
 
 






Anche taggato con informazione, cultura, guinness, scienza

2 utente(i) stanno leggendo questa discussione

0 utenti, 2 visitatori, 0 utenti anonimi