Vai al contenuto


Le cose più strane e curiose nel mondo

informazione cultura guinness scienza

  • Per cortesia connettiti per rispondere
187 risposte a questa discussione

#161 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 06 giugno 2017 - 06:26

Ferro
 
1024px-Iron_electrolytic_and_1cm3_cube.j
 
Le prime prove di uso del ferro vengono dai Sumeri e dagli Ittiti, che già 4000 anni prima di Cristo lo usavano per piccoli oggetti come punte di lancia e gioielli ricavati dal ferro recuperato da meteoriti.
 
In alchimia, durante il medioevo, il ferro era associato a Marte.
 
La storia dell'impiego e della produzione del ferro è comune a quella delle sue leghe ghisa e acciaio.
 
Caratteristiche
Il ferro è il metallo più abbondante all'interno della Terra (costituisce il 16% della massa del nostro pianeta) ed è il sesto elemento per abbondanza nell'intero universo. La concentrazione di ferro nei vari strati della Terra varia con la profondità: è massima nel nucleo, che è costituito probabilmente da una lega di ferro e nichel e decresce fino al 4,75% nella crosta terrestre. La grande quantità di ferro presente al centro della Terra non può essere tuttavia causa del suo campo magnetico, poiché tale elemento si trova con ogni probabilità ad una temperatura elevata, dove non esiste ordinamento magnetico nel proprio reticolo cristallino (tale temperatura è detta temperatura di Curie). Il suo simbolo Fe è una abbreviazione della parola ferrum, il nome latino del metallo.
 
Il ferro è un metallo che viene estratto dai suoi minerali, costituiti da composti chimici del ferro stesso (prevalentemente, ossidi). Infatti, sulla crosta terrestre, il ferro non si rinviene mai allo stato elementare, cioè metallico (ferro nativo), ma sempre sotto forma di composti, nei quali è sempre presente allo stato ossidato. Per ottenere ferro metallico, è necessario procedere ad una riduzione chimica dei suoi minerali. Il ferro si usa solitamente per produrre acciaio, che è una lega a base di ferro, carbonio ed altri elementi.
 
Il nucleo di ferro ha la più alta energia di legame per nucleone, perciò è l'elemento più pesante che è possibile produrre mediante fusione nucleare di nuclei atomici più leggeri e il più leggero che è possibile ottenere per fissione: quando una stella esaurisce tutti gli altri nuclei leggeri e arriva ad essere composta in gran parte di ferro, la reazione nucleare di fusione nel suo nucleo si ferma, provocando il collasso della stella su sé stessa e dando origine ad una supernova.
 
Secondo alcuni modelli cosmologici che teorizzano un universo aperto, vi sarà una fase dove, a seguito di lente reazioni di fusione e fissione nucleare, tutta la materia sarà convertita in ferro.
 
Forme allotropiche del ferro
Esistono quattro forme allotropiche del ferro, denominate:
 
ferro alfa
ferro beta
ferro gamma
ferro delta.
Come si può vedere dal seguente diagramma di fase del ferro puro, ognuna di tali forme allotropiche esiste in un determinato intervallo di temperatura:
 
il ferro alfa esiste a temperature inferiori a 768 °C; magnetico.
il ferro beta esiste a temperature comprese tra 768/770 °C e 910 °C; presenta una perdita delle caratteristiche magnetiche e alta duttilità.
il ferro gamma esiste a temperature comprese tra 910 °C e 1 394 °C; scioglie carbonio.
il ferro delta esiste a temperature comprese tra 1 394 °C e 1 538 °C.
Le varie forme allotropiche del ferro sono differenti dal punto di vista strutturale: il ferro alfa, beta e delta presentano un reticolo cubico a corpo centrato con 9 atomi (con una costante di reticolo maggiore nel caso del ferro delta), mentre il ferro gamma presenta un reticolo cubico a facce centrate con 14 atomi.
 
Le soluzioni solide interstiziali del carbonio nel ferro assumono nomi differenti a seconda della forma allotropica del ferro in cui il carbonio è solubilizzato:
 
ferrite alfa: carbonio in ferro alfa;
austenite: carbonio in ferro gamma;
ferrite delta: carbonio in ferro delta.
 
 


#162 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 13 giugno 2017 - 06:50

Nave
 
260px-Lazio_02-06-2006_cagliari_%284%29.
 
Nell'antico linguaggio della marineria, all'epoca della propulsione a vela, la nave era un veliero con tre alberi a vele quadre e bompresso. In presenza di un quarto albero a vele auriche veniva detta "a palo". Analogamente, un veliero con due alberi a vele quadre era un brigantino, che se dotato di un terzo albero a vele auriche diventava "brigantino a palo".[1] Poi la nomenclatura che una nave militare poteva avere dipendeva anche dalle funzioni che essa svolgeva. Per esempio, secondo il sistema di classificazione delle navi della Royal Navy, una nave con meno di 20 cannoni comandata da un tenente comandante (Lieutanant Commander) era una corvetta, indipendentemente che fosse armata a nave o brigantino a palo. Gli altri paesi non riconoscevano la classificazione britannica, per cui una nave francese da 22 cannoni poteva essere designata come corvetta pesante, mentre nella classificazione inglese sarebbe stata una fregata di sesto rango.[2]
 
Altri tipi di velieri erano, ad esempio, la polacca, il mistico[3], la tartana, lo sciabecco, per restare alla marineria europea, ma anche i dhow arabi e le giunche cinesi, alcune delle quali di dimensioni imponenti, con oltre 1000 tonnellate di stazza.
 
Dal 1762 i britannici cominciarono a foderare le carene di lastre di rame per evitarne il deterioramento dovuto alle teredini.
 
Nel 1821 l'inglese Aaron Manby progettò e fece costruire la prima nave con struttura interamente metallica: un piroscafo che prese il nome del suo progettista. L'Aaron Manby fu varato nel 1822 nel Tamigi, ma navigò prima sulla Senna e poi sulla Loira, fino alla demolizione avvenuta nel 1855[4]
 
Nel 1824 sir Humphry Davy inventò la protezione catodica che riparava lo scafo in metallo dalla corrosione[5]. Quest'invenzione favorì il passaggio dai velieri in legno alle navi in metallo spinte dal motore a vapore. Dopo la seconda guerra mondiale i motori a vapore hanno lasciato il posto ai motori diesel.
 
Definizione
Le dimensioni esatte sopra le quali un'unità navigante diventa nave, è spesso definita in maniera diversa a seconda delle leggi e dei regolamenti nazionali. Nell'ordinamento italiano si parla di navi da passeggeri quando la stazza delle unità destinate a quel tipo di servizio raggiunge le 50 tonnellate[6]. Unità di stazza più esigua al di sotto di questo limite vengono definite "mezzi nautici per il trasporto passeggeri". Se non per servizio passeggeri si parlerà di navi destinate a un particolare servizio quando la stazza lorda di queste unità sarà maggiore di 151 tonnellate.
 
Il codice della navigazione, divide le unità naviganti anche per tipo di navigazione alla quale esse sono destinate. Quindi, a seguito di quanto detto, annovera il naviglio maggiore, che è quello abilitato alla navigazione alturiera, e naviglio minore ovvero quello abilitato alla navigazione costiera[7].
 
La teoria della nave è quella parte dell'architettura navale che ne studia la geometria, l'equibrio e i movimenti. Pertanto, in base a tale premessa, per nave si intende: una costruzione che per forme, dimensioni e sistemazioni deve essere idonea a muoversi sull'acqua con i propri mezzi e con la necessaria sicurezza per trasportare persone e/o merci o per scopo di rimorchio, pesca, diporto o altro scopo.
 
Caratteristiche[modifica | modifica wikitesto]
Schema nave.svg
Una nave si compone dei seguenti elementi[8]:
 
lo scafo, cioè il guscio della nave, composto dall'involucro esterno, che assicura il galleggiamento, e dalle strutture interne di rinforzo. È la parte della nave dotata di proprietà nautiche, distinto dalla linea di galleggiamento in:
opera viva o carena, che è la parte immersa, a costante contatto con l'acqua;
opera morta, che è invece la parte emersa, a contatto con l'acqua solo occasionalmente per effetto dei moti nave e delle onde;
la zona compresa tra i galleggiamenti estremi (caratterizzati da diversi assetti e dislocamenti) prende inoltre il nome di bagnasciuga.
le sovrastrutture, cioè tutti gli elementi costruiti sullo scafo per gli scopi più svariati, come alberature, fumaioli, gru e locali destinati alla vita di bordo;
l'apparato propulsore, gli organi di governo e di stabilità, che spesso si possono trovare sommati in elementi polivalenti, che garantiscono la funzionalità marinara della nave; tra i principali abbiamo: il motore principale, timoni, eliche (di propulsione e/o di manovra), pod, vele, alette antirollio, pinne girodinamiche antirollio[9];
le attrezzature per la navigazione, la fonda e l'ormeggio, quali le ancore, i verricelli, la fanaleria, i radar, i sistemi di navigazione, cavi e cordame vario;
l'allestimento tipico, cioè l'insieme di impianti destinati alla funzionalità operativa per la quale la nave è stata destinata in esercizio, quali ad esempio gli impianti per il carico dei liquidi, delle merci o dei mezzi, gli alloggi e le aree ricreative per i passeggeri, e così via.
Tipi di navi[modifica | modifica wikitesto]
Le unità naviganti di notevole grandezza, conducibili da una comunità più o meno grande chiamata equipaggio, assumono la denominazione di "nave". Si hanno quindi navi da passeggeri, motonavi, navi da crociera, navi traghetto, navi petroliere, navi da carico, navi portacontenitori e navi da diporto le quali a norma del regolamento per la nautica da diporto, sono quelle unità naviganti a scopo lussorio di lunghezza superiore ai 24 metri[10].
 
Sono definite invece imbarcazioni i mezzi navali e/o nautici di esigue dimensioni conducibili anche se a motore da una sola persona (vedi imbarcazioni di salvataggio, imbarcazioni per il servizio per le navi in rada, imbarcazioni degli ormeggiatori, imbarcazioni da pesca, imbarcazioni da diporto le quali a norma del regolamento per la nautica da diporto sono quelle unità di lunghezza inferiore a 24 metri).
 
In italiano nave è un termine generico, ed ha mutato il suo significato nel tempo, nel Cinquecento nave era un sinonimo di unità navigante complessa, ovvero bastimento, un termine generico riferibile a qualsiasi naviglio, nel Settecento invece erano definite "navi" solo i bastimenti, ovvero i vascelli[11], ovvero le unità naviganti di notevole grandezza dotate di tre alberi (trinchetto, maestra e mezzana, oltre ovviamente al bompresso) formati ognuno da almeno tre "pezzi", ovvero fuso maggiore, albero e alberetto; dalla metà dell'Ottocento invece si tende a distinguere le navi oltre che per tipo di armamento velico anche per la loro capacità commerciale nel caso di navi mercantili e per la loro capacità di fuoco per le navi da guerra. La capacità commerciale era espressa dalla stazza ovvero il volume degli spazi interni della nave espressi in tonnellate di stazza le quali erano a loro volta corrispondenti a 100 piedi cubi ed a 2,832 metri cubi. Per le navi da guerra erano in uso le definizioni vascello, fregata, corvetta, sloop, accompagnate dal numero dei cannoni trasportati[12]. Per identificare una nave di linea si usava definirla nel modo seguente: Vascello con 112 pezzi d'artiglieria.
 
Navi mercantili
Exquisite-kfind.png Lo stesso argomento in dettaglio: Nave mercantile.
Una nave mercantile è una nave adibita al trasporto di merci e passeggeri[13], che quindi costituiscono il carico utile della nave stessa.
 
Navi da guerra
Exquisite-kfind.png Lo stesso argomento in dettaglio: Unità militari navali.
Nome Descrizione Immagine
Aviso Aviso-colonial-1.jpg
Cacciamine Il cacciamine o dragamine è una nave militare appositamente progettata per localizzare e distruggere le mine navali. Talvolta la stessa nave può essere utilizzata per posizionare delle mine in acqua. Minenjagdboot Grömitz.JPG
Cacciatorpediniere (DD) Un cacciatorpediniere è una nave da guerra veloce e manovrabile, dotata comunque di grande autonomia, progettata per scortare vascelli di dimensioni maggiori di una flotta o gruppo di battaglia e difenderli contro attaccanti più piccoli ed a corto raggio d'azione (originariamente le torpediniere, successivamente sottomarini e aerei). All'inizio del XXI secolo i cacciatorpediniere sono la nave di superficie di dimensioni maggiori in uso generale. USSSpruanceDD-963.jpg
Cacciatorpediniere lanciamissili (DDG) Unità dotata di missili antinave che hanno dapprima affiancato e poi sostituito il cannone come arma principale antinave, entrate in servizio negli anni cinquanta USS Arleigh Burke Mediterranean.jpg
Cacciatorpediniere conduttore (DL) Unità più grossa dei normali cacciatorpediniere, con appositi locali in grado di ospitare lo stato maggiore di un comando di flottiglia, in uso fino agli anni cinquanta; molti esploratori negli anni trenta vennero riclassificati come caccia conduttori, ma in realtà essendo evidente la differenza diventavano un bersaglio privilegiato. USS Mitscher (DDG-35) underway at sea in the 1970s.jpg
Cacciatorpediniere scorta (DE) I cacciatorpediniere di scorta furono navi più piccole come dimensioni dei caccia di squadra (che scortavano appunto le squadre da battaglia) e più lente, adatte alla scorta delle navi mercantili o a compiti antisommergibili. Il nome era usato soprattutto nella US Navy, che distingueva queste unità con la sigla DE (Destroyer Escort) seguita dal numerale, mentre gli inglesi utilizzarono inizialmente in questo ruolo cacciatorpediniere obsoleti, per poi sostituirli con fregate e corvette. USS Dealey (DE-1006).jpg
Cannoniera Il termine cannoniera ha indicato diversi tipi di navi, secondo l'epoca in cui è stato usato: generalmente è una piccola imbarcazione armata con cannoni. nell'età della vela una cannoniera fu solitamente un piccolo vascello privo di ponte con un singolo cannone a canna liscia a prua. Durante la guerra civile americana indica un battello a pale, generalmente corazzato, armato con una dozzina o più di cannoni, a volte di grosso calibro. Alla fine del XIX secolo e all'inizio del XX secolo venne usato per indicare i più piccoli vascelli armati. Norwegian gunboat KNM Frithjof 1900.jpg
Corazzata / Nave da battaglia Con nave da battaglia (o corazzata) si indicano le più potenti navi da guerra delle marine militari, dalla seconda metà del XIX secolo, protette da pesanti corazze in acciaio (o inizialmente ferro) che avevano come ruolo principale l'ingaggio di navi da guerra nemiche con il fuoco diretto o indiretto di un arsenale di cannoni. Uss iowa bb-61 pr.jpg
Corazzata tascabile Definizione data dalla Royal Navy delle navi da battaglia tedesche classe Deutschland: la Admiral Graf Spee, Admiral Scheer e Deutschland. Bundesarchiv DVM 10 Bild-23-63-06, Panzerschiff "Admiral Graf Spee".jpg
Corvetta La corvetta è una piccola nave militare con elevate capacità di manovra e dotata di armamento leggero e di armamento antisommegibile, di dimensioni intermedie tra la fregata ed il pattugliatore. Dupleix 1856-1887.jpg
Dragamine Il cacciamine o dragamine è una nave militare appositamente progettata per localizzare e distruggere le mine navali. Talvolta la stessa nave può essere utilizzata per posizionare delle mine in acqua. M5501 Abete.jpg
Esploratore L'esploratore era una nave militare di medie dimensioni, generalmente più grande di un cacciatorpediniere e più piccola di un incrociatore, con caratteristiche di elevata velocità e manovrabilità e con una potenza di fuoco sufficiente a fronteggiare per breve tempo navi similari. Ruolo principale dell'esploratore era la ricognizione in avanscoperta alla flotta, in un'epoca in cui la ricognizione aerea ancora non esisteva o era inefficiente. Fu reso obsoleto e scomparve dalle flotte con l'affermarsi dell'aviazione negli anni venti. Esploratore Quarto 1925.jpg
Fregata (FF) Attualmente una nave da guerra destinata a proteggere altre navi da guerra o navi mercantili in ruolo di scorta (per esempio in ruolo antisommergibile). Nel periodo della vela fu una nave più piccola di un vascello utilizzata per compiti di pattuglia e scorta. USS McCandless (FF-1084).jpg
Fregata missilistica (FFG) 080713-N-7949W-084 - USS Rodney M. Davis (FFG-60).jpg
Incrociatore Storicamente il più piccolo tipo di navi da guerra capace di azioni indipendenti (i cacciatorpediniere richiedono solitamente l'appoggio di navi esterne), ma in epoca moderna questa differenza è scomparsa. Il termine inizialmente si riferiva al ruolo assegnato a una nave (compiti di pattuglia e missioni di durata prolungata), piuttosto che a un tipo specifico di nave. USS Port Royal CG-73.jpg
Incrociatore corazzato Un incrociatore corazzato fu un tipo di incrociatore protetto da una corazzatura su tutti i fianchi, così come sui ponti e sulle postazioni dei cannoni. Questo tipo di navi fu utilizzata all'incirca a partire dal 1875 fino a metà della prima guerra mondiale ed in ruoli ausiliari negli trenta ed anche nella seconda guerra mondiale. General-Admiral armored cruiser.jpg
Incrociatore da battaglia Gli incrociatori da battaglia furono grandi navi da battaglia della prima metà del XX secolo, che occupano un'area intermedia tra gli incrociatori e le navi da battaglia. Generalmente sono di costruzione e armamento simile a quello di una nave da battaglia, ma dotati di una corazzatura inferiore, per essere più veloci. Furono progettati per dare la caccia a navi da guerra più piccole (che superavano in armamento) e sfuggire a quelle più grosse, troppo armate per essere affrontate. USS Alaska (CB-1) off the Philadelphia Navy Yard on 30 July 1944.jpg
Incrociatore leggero (CL) Con incrociatore leggero si indica una tipo di incrociatore, di grandi dimensioni, definito formalmente dal trattato navale di Londra come una nave dal dislocamento inferiore a 10.160 t e armato con cannoni dal calibro pari o inferiore a 6,1 pollici (155 mm). Incrociatore Eugenio di Savoia.jpg
Incrociatore missilistico (CG) USS Ticonderoga CG-47.jpg
Incrociatore pesante Con incrociatore pesante si indica una tipo di incrociatore, di grandi dimensioni e ben armato, definito formalmente dal Trattato navale di Londra come una nave dal dislocamento inferiore a 10.160 t e armato con cannoni dal calibro superiore a 6,1 pollici (155 mm). Incrociatore Zara - Punta Stilo.jpg
Incrociatore protetto Un incrociatore Protetto fu un tipo di incrociatore usato alla fine del XIX secolo. Il nome è dovuto all'ammontare minimo di corazzatura utilizzata in confronto agli incrociatori "corazzati" esistenti. Verso il 1910 quando le placche corazzate cominciarono a migliorare di qualità ed i motori divennero più leggeri furono sostituiti dagli incrociatori incrociatore leggeri e pesanti. USS Atlanta 1884.jpg
Landing Helicopter Assault (LHA) Nave con ampio ponte attrezzato per operazioni anfibie con sbarco di truppe e materiali da elicotteri. Come ruolo secondario, questa nave può eseguire limitate operazioni di proiezione della forza e controllo del mare USS Tarawa (LHA-1).jpg
Landing Helicopter Dock (LHD) Nave con ampio ponte attrezzato per operazioni anfibie con sbarco di truppe e materiali da elicotteri ed un bacino di sbarco allagabile che contenga e permetta di operare con mezzi da sbarco. USS Wasp (LHD 1).jpg
Landing Platform Dock (LPD) USS Trenton LPD-14 fleetweek2004.jpg
Landing Platform Helicopter (LPH) USS Iwo Jima (LPH-2), portside view.jpg
Nave appoggio idrovolanti Nave dotata di installazioni per operare idrovolanti, furono il primo tipo di portaerei utilizzato e comparvero poco prima dell'inizio della prima guerra mondiale. LeFoudre.jpg
Nave d'assalto anfibio Termine generico che comprende navi anfibie con un ponte di grandi dimensioni, come le LPH, LHA e LHD. Questa terminologia non include le Landing Platform Dock (LPD) e le Landing Ship Dock (LSD) anche se colloquialmente usato per riferirsi ad esse. Amphibious assault ship USS Belleau Wood (July 7 2004).jpg
Pattugliatore Unità leggera di dimensioni variabili, adatto a pattugliare spazi di mare in aree costiere o di altura, attualmente in ambito NATO contrassegnate dalla lettera P seguita da un numerale ma in uso sotto varie sigle in molte marine militari. MM Sirio (P 409).jpg
Portaelicotteri (CVH) Tipo di incrociatore non tutto-ponte capace di imbarcare più di 4 elicotteri medi. Jeanne D Arc DN-ST-87-01219.JPEG
Portaerei (CV) Nave da guerra di grandi dimensioni il cui ruolo principale è il trasporto in zona di operazioni, lancio e recupero di aeroplani, agendo in effetti come una base aerea capace di muoversi sui mari. Si considerano portaerei quelle navi di oltre 40.000 ton capaci di missioni di proiezione di potenza. Enterprise Cruising.JPG
Portaerei di scorta (CVE) USS Charger CVE-30.jpg
Portaerei leggera (CVL) USS Independence (CVL-22) in San Francisco Bay on 15 July 1943 (80-G-74436).jpg
Portaeromobili (CVS) Nave da guerra di medie dimensioni il cui ruolo principale è il trasporto in zona di operazioni, lancio e recupero di aeroplani, agendo in effetti come una base aerea capace di muoversi sui mari. Si considerano portaeromobili quelle navi di 12.000/20.000 ton capaci di missioni di difesa della forza navale. DN-SC-95-01012.JPEG
Posamine Il cacciamine o dragamine è una nave militare appositamente progettata per localizzare e distruggere le mine navali. Talvolta la stessa nave può essere utilizzata per posizionare (posamine) delle mine in acqua. HMS Älvsborg (M02).jpg
Sottomarino Un sottomarino è un mezzo navale adatto a navigare prevalentemente sott'acqua. USS Sea Owl;0840501.jpg
Sommergibile Un sommergibile è un mezzo navale in grado di compiere operazioni subacquee, ma che naviga prevalentemente in superficie. USS Piranha;0838902.jpg
Sommergibile portaerei Surcouf FRA.jpg
Torpediniere Il termine "torpediniera" ha identificato diversi tipi di navi, tutte create con lo scopo di contrastare corazzate e altre unità grandi, pesanti e potentemente armate, sfruttando la maggiore velocità ed agilità. Alla loro comparsa nel 1873 si trattava di navi relativamente piccole e veloci, progettate per lanciare siluri contro navi di superficie di dimensioni maggiori. Successivamente nei primi del novecento, in risposta alla comparsa dei primi cacciatorpediniere, le torpediniere aumentarono di dimensioni ed armamento, a scapito della velocità. Anche per questo motivo vennero affiancate da un secondo tipo di torpediniere, piccole e velocissime (MAS italiani, Schnell-boote tedeschi, MTB inglesi e PT-boats americani), più simili a grossi motoscafi e perciò note anche come "motosiluranti". RN perseo.jpg
Navi storiche
Nome Descrizione Immagine
Brigantino Veliero con due alberi a vele quadre (di trinchetto verso prua e di maestra a poppa) e bompresso. Sull'albero di maestra era ordinariamente inferita anche una randa. Quando vi era un terzo albero (di mezzana con vele auriche) si parlava di brigantino a palo. Falado.jpg
Caravella Tipo di nave in legno, introdotta nel 1441 dai portoghesi. Era più piccola della caracca, ma più robusta e veloce. Rimase in uso per tutto il XV secolo, e diede un grande impulso alla navigazione di quell'epoca. Caravela Vera Cruz no rio Tejo.jpg
Clipper I Clipper furono veloci navi a vela a tre alberi adibite al trasporto delle merci su rotte oceaniche che furono utilizzate sul finire del XIX secolo. Il nome in inglese indica andare veloci o andare di bolina. Il primo vascello di questo tipo ad essere varato è forse stato il Baltimore, realizzato negli USA. Nella foto il Cutty Sark, ormeggiato a Greenwich, nelle prossimità di Londra. The Cutty Sark 2005-01-24.jpg
Cocca La cocca fu una grande nave medievale, di forma rotonda, che poteva raggiungere una stazza di 1.000 tonnellate. Essa può essere considerata la più importante delle grandi navi a vela che seguirono il periodo della navi a propulsione mista – remi e vele. Kieler Hansekogge 2007 vorne.jpg
Corvetta La corvetta era una nave con un solo ponte di batteria, di piccolo tonnellaggio (da 150 a 400 tonnellate), usata per servizi di scorta ai convogli e incursioni contro il traffico costiero avversario. Astrolabe Urville.png
Fregata Questo termine è stato utilizzato per una varietà di navi di ruoli e dimensioni differenti. Durante il periodo dell'utilizzo delle vele come mezzo di locomozione, è stato usato per una nave più piccola e più veloce di un vascello, dotata di un solo ponte di batteria e con un numero di cannoni fino a 44 per le più pesanti fregate costruite. In alcuni casi vascelli obsoleti vennero modificati eliminando i cannoni del ponte di coperta (tecnicamente rasate) e trasformati in fregate pesanti. USS Boston (1799).jpg
Galea La galea o galera è una tipologia di nave da guerra che fu usata nel Mediterraneo per oltre duemila anni; il suo uso declinò a partire dal XVII secolo, quando venne soppiantata dal galeone. Trireme ugglan.gif
Galeone Il galeone è un poderoso veliero da guerra progettato per affrontare la navigazione oceanica, molto diffuso nel XVI e XVII secolo. Rispetto alla caracca il galeone aveva dimensioni maggiori, in genere lunghezza tripla rispetto alla larghezza, la quale era doppia rispetto all'altezza. Mauritius - Detail uit Het uitzeilen van een aantal Oost-Indiëvaarders van Hendrick Cornelisz Vroom (1600).jpg
Goletta La goletta è un'imbarcazione a vela, ovvero un bastimento, fornita di due alberi leggermente inclinati verso poppa ed armati con vele auriche; presenta il bompresso, ossia l'albero inclinato protendente dalla prua dell'imbarcazione. Goletta Oloferne
Trireme La trireme era un'antica nave fenicia, greca e romana che utilizzava come propulsione, oltre alla vela, tre file di rematori disposti sulle due fiancate dello scafo. Vi era un solo albero e la vela era rettangolare (e qualche volta triangolare). Trireme 1.jpg
Vascello Nave da guerra sviluppata a partire dal XVII secolo e che divenne la principale nave da battaglia delle marine militari, unica a trovare posto nella linea di fila. Inizialmente soltanto su due ponti, verso la fine del XVIII secolo venivano costruiti vascelli a tre o quattro ponti, con 100 o più cannoni. Verso la fine del secolo cadde progressivamente in disuso a causa dei suoi costi di gestione e della maggiore flessibilità d'uso della più piccola ma agile fregata che man mano lo rimpiazzò nell'uso operativo, pur venendo questa dotata di un'artiglieria più potente, sull'esempio delle fregate pesanti statunitensi. Victory Portsmouth um 1900.jpg
Nave a vapore o piroscafo Imbarcazione mossa da una macchina a vapore con trazione a ruota o a elica. Cincinnati.jpg
 
 
 


#163 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 20 giugno 2017 - 05:16

Cellulite
 
202px-Dimpled_appearance_of_cellulite.jp
 
La cosiddetta cellulite (chiamata anche “lipodistrofia ginoide”, ” pannicolopatia edemato fibrosa” , “adiposis edematosa”, “pannicolopatia edemato-fibro-sclerotica”, “dermopanniculosis deformans”, “status protrusus cutis”, “liposclerosi”, ” pelle a buccia d'arancia”, ” pelle a trapunta”) è una manifestazione topografica della pelle associata a depressioni o introflessioni, frequenti nella zona pelvica e addominale, nei fianchi, sui glutei e nelle cosce. Può manifestarsi anche associata a noduli nel tessuto adiposo sottocutaneo e in casi più rari ad un sospetto stato infiammatorio.
 
Il termine "cellulite", ormai globalmente utilizzato, fu introdotto in Francia nel 1922 da Alquier e Paviot descrivendola come inestetismo [4] creando però una potenziale ambiguità e confusione con il termine cellulitis con cui nella letteratura medica inglese si descrive una infezione cancrenosa dei tessuti sottocutanei. Alquier e Paviot descrivevano una distrofia dei tessuti mesenchimiali senza alcun elemento flogistico
 
Circa una decina di anni dopo Laguese la descrisse come una malattia dell'ipoderma caratterizzata da edema interstiziale e aumento del grasso sottocutaneo[6]. Nürnberger e Müller, da una ampia indagine istologica, 150 autopsie e 30 soggetti viventi, non rilevarono alcun fenomeno di edema o di fibrosi associato alla cellulite
 
La grande confusione sul nome da dare alla cellulite riflette la difficoltà di comprendere correttamente la natura del fenomeno. "Nonostante il grande interesse nel trattamento di questa condizione e l'enorme mercato per trattamenti topici volti a migliorare il suo aspetto, la cellulite è ancora una condizione enigmatica e un non-argomento di importanza minore, ammesso che ne abbia qualcuna, per i ricercatori medici”[8]. “La grande quantità di nonsensi pseudoscientifici che circolano in relazione alla cellulite rendono il soggetto poco attraente per ogni serio gruppo di studio”
 
Una revisione delle ricerche scientifiche pubblicate nel periodo dal 1978 ad aprile 2011 conclude che si tratta di un “fenomeno fisiologico o con basi fisiologiche, caratteristico della donna, di origine multicausale che molti fattori possono scatenare, perpetuare o peggiorare”.[9] L'opinione medica prevalente, specie nel mondo anglosassone, è che nel complesso si tratti di una “condizione normale di molte donne”.
 
Malattia o non malattia?
La cellulite è stata considerata un tipico caso di "Disease mongering". Già nel 1978 uno dei primi studi scientifici pubblicato aveva l'emblematico titolo:” La cosiddetta cellulite: una malattia inventata”[7]. Recentemente è stata definita da de Godoy ” la non-malattia più investigata” L'alta incidenza (80-90%) nella popolazione femminile in età post puberale  oltre al fatto che al di là dell'inestetismo si presenta generalmente come asintomatica la fanno considerare una normale condizione fisiologica.
 
Può essere invece considerata all'interno di un quadro patologico notando che è una condizione normale per moltissime donne ma non per tutte[14] e che nelle sue forme più gravi si manifesta con noduli dolenti alla palpazione che fanno sospettare processi infiammatori, inoltre è generalmente associata ad un eccessivo accumulo di tessuto adiposo sottocutaneo di cui non è chiara la relazione positiva o negativa con il rischio cardiovascolare.
 
Cause
Sono state ipotizzate decine di cause diverse
 
Disturbi del metabolismo
disordini nutrizionali
specifiche architetture sottocutanee
alterazioni della struttura del tessuto connettivo
fattori ormonali
fattori genetici
disturbi del sistema microcircolatorio
alterazioni nel sistema linfatico
alterazioni nella matrice extracellulare
infiammazioni.
Tutte le principali ipotesi formulate sulle cause della cellulite sono oggetto di controversia con argomenti pro e contro e si è portati a pensare che “la cellulite sia dovuta dalla combinazione di tutti i fattori discussi includendo ormoni, genetica, microcircolo, tessuto adiposo”.
 
Classificazione
La cellulite si può manifestare a diversi stadi in diverse aree corporee anche nello stesso soggetto.
 
Viene normalmente classificata con la scala Nürnberger e Müller che la divide in 4 stadi,
 
0 = assenza di segni di cellulite
1 = la pelle affetta risulta liscia, ma compaiono segni di cellulite pinzando la pelle o contraendo i muscoli
2 = le introflessioni della cellulite sono presenti e visibili anche senza sollecitare la pelle
3 = presenza delle alterazioni dello stadio 2 in maggior numero e su un'area più estesa, accompagnate dalla presenza di noduli.
Sono state introdotte altre classificazioni dove la severità dell'inestetismo e delle alterazioni topografiche può essere misurata in densità, dimensioni, profondità oltre che considerando la lassità dei tessuti ed altri parametri fisiologici
 
Nell'ipotesi che considera la cellulite una pannicolopatia edemato-fibro-sclerotica i diversi stadi rappresentano il percorso eziopatogenico della cellulite, dove lo stadio edematoso precede gli stadi successivi considerati una evoluzione/degenerazione del fenomeno
 
Viene così caratterizzata come:
 
Edematosa: Associata ad un edema cioè accumulo di liquidi , soprattutto intorno alle caviglie, ai polpacci, alle cosce e alle braccia.
Fibrosa: Associata a fibrosi, cioè con un aumento delle strutture trabecolari e dei setti di tessuto connettivo che ripariscono in diversi lobi il tessuto adiposo sottocutaneo. È caratterizzata da piccoli noduli non percepibili al tatto se non come rugosità sottocutanea e dalla cute a buccia d'arancia.
Sclerotica: Dove forma una sclerosi, così un indurimento dei tessuti associati a noduli di grandi dimensioni e placche . Può essere molto dolente.
Fattori aggravanti
Vi sono molti fattori considerati aggravanti della cellulite come:
 
Vita sedentaria o dimagrimento eccessivamente rapido: il tessuto muscolare cede e quindi si aggrava la situazione visiva della cellulite. Per avere meno problemi di cellulite bisogna essere sempre in movimento, il moto infatti aiuta a mantenere efficiente muscolatura, circolazione e metabolismo aiutando a bruciare i grassi e a prevenire la stasi circolatoria.
Causa un'alimentazione sbagliata, cioè troppo piena di calorie e di cibi ricchi di grassi e di sale, si forma un accumulo di adipe localizzato, ritenzione dei liquidi.
Postura sbagliata e con gambe accavallate, contribuisce ad aggravare la circolazione sanguigna e quindi la cellulite perché comprime i vasi.
Troppo tempo in piedi immobili causa una cattiva circolazione sanguigna, perché il sangue fa fatica a risalire dagli arti inferiori, con conseguente stasi circolatoria.
L'abbigliamento troppo stretto causa cattiva circolazione perché comprime i vasi.
Scarpe troppo strette o con tacco troppo alto, ostacolano il ritorno venoso e linfatico e impediscono il corretto funzionamento dell'importantissima "pompa venosa”.
Stress e fumo sono altri fattori che aggravano lo stato della cellulite perché: Lo stress aumenta il livello degli ormoni dello stress e invece il fumo ha un'azione vasocostrittrice e aumenta i radicali liberi che peggiorano il microcircolo e aiutano ad accelerare l'invecchiamento cutaneo.
Essere in sovrappeso o affetti da obesità
Prevenzione e rimedi
Diversi accorgimenti possono aiutare a prevenire la cellulite. Alcune attenzioni nell'alimentazione, un'attività fisica costante, l'uso di abiti confortevoli e non troppo stretti, scarpe con tacchi non eccessivamente alti e modificazioni della postura sono i rimedi più facili da attuare per prevenire questo fastidioso disturbo della pelle
 
Possibili rimedi coadiuvanti
Attività fisica aerobica.
Astensione da alcool e fumo.
Evitare la stipsi cronica.
Correggere i difetti dell'appoggio plantare.
Non utilizzare scarpe con il tacco alto o scarpe da tennis per tempi prolungati.
Non utilizzare indumenti stretti che possano limitare il ritorno veno-linfatico.
Possibili trattamenti
Nell'enorme mercato dei trattamenti per ridurre la cellulite si va dai prodotti topici alla liposuzione. ” Molti di questi trattamenti mancano di prove di efficacia”.
 
Prodotti topici.
Massaggi.
Pressoterapia.
Mesoterapia.
Emulsiolipolisi: una terapia farmacologica realizzabile per via iniettiva distrettuale con fosfolipidi ipotalamici, carnitina, aminofillina, lidocaina 2%, soluzione fisiologica.
Liposuzione.
Lipoapoptosi: una terapia farmacologica realizzabile per via iniettiva distrettuale con vitamina C, ferro trivalente, lidocaina 2%, acqua per preparazioni iniettabili.
Carbossiterapia.
Lipoclasia osmotica.
Ossigenoclasia.
Ultrasuonoterapia.
Laserterapia.
Diatermia.
 
 


#164 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 04 luglio 2017 - 04:19

Jolly
 
209px-Joker_black_02.svg.png
 
Il jolly nasce negli Stati Uniti nel XIX secolo. La carta era inizialmente chiamata "The Best Bower", e più tardi "The Little Joker" oppure "The Jolly Joker", ossia il "gioioso giullare". In inglese la carta è rimasta nota quindi col solo nome di "Joker" (il giullare), mentre "Jolly" ne è diventato il nome italiano. La scelta del giullare come figura è chiaramente da correlarsi alle altre figure, che rappresentano ruoli di corte. La motivazione di questa scelta probabilmente è legata a due fattori; da una parte, il giullare suggerisce l'idea di un'alternativa rispetto alle regole standard del gioco (il giullare era l'unico personaggio che avesse il potere di deridere il re e in generale di comportarsi in modo anomalo rispetto alle regole di etichetta). Dall'altra, il jolly si può storicamente ricondurre alla figura del matto (o del folle o follo) presente in diversi mazzi di carte antichi e ancora oggi presente nei tarocchi.
 
Significati metaforici
In molti giochi non di carte l'immagine del jolly è stata ripresa, associata sempre a uno speciale vantaggio concesso a un giocatore. Due esempi in questo senso sono Giochi senza frontiere (in cui la squadra che dichiarava di voler "giocare il jolly" in una certa prova aveva diritto a raddoppiare i punti ottenuti con quella prova) e Rischiatutto (dove le caselle del tabellone che rappresentavano un jolly fornivano un punto "franco" al giocatore, che evitava per quel turno di dover rispondere a una domanda del quiz).
 
In molti altri contesti, il termine jolly viene usato metaforicamente per indicare qualcosa che può sostituirsi liberamente ad altro o anche, in linea generale, per indicare una opportunità extra, una chance in più. In informatica, per esempio, i metacaratteri nelle espressioni regolari vengono talvolta chiamati informalmente "caratteri jolly". Nelle compagnie teatrali, il jolly è colui il quale interpreta un personaggio già assegnato ad un altro attore, nel caso in cui quest'ultimo sia assente per motivi di malattia e simili.
 
L'avversario di Batman, il Joker, riprende nell'aspetto la figura del "jolly" (e non semplicemente quella del giullare).
 
Nel linguaggio delle fabbriche, il jolly è un operaio polifunzionale addetto allo svolgimento di diversi tipi di lavoro.
 
Nel calcio e in diversi altri sport si identifica con jolly un giocatore capace di giocare in più ruoli.
 
Curiosità
Nei mazzi di carte internazionali ci sono due jolly per ogni mazzo: in genere uno rosso e uno nero. Solitamente tali colori sono ininfluenti per le regole dei giochi in cui il jolly viene usato. Una eccezione a questa "regola" è rappresentata dal gioco "Spac ù mazz".
 
 


#165 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 11 luglio 2017 - 05:27

Fiammiferi
 
Streichholz.JPG
 
Il fiammifero è un oggetto relativamente moderno, la cui prima produzione industriale perfezionata dal chimico inglese John Walker risale al 1827. Un lavoro pionieristico in questo campo era già stato svolto da Robert Boyle negli anni 1680 con l'utilizzo di fosforo e zolfo, ma gli sforzi dell'inventore non furono coronati dalla realizzazione di un prodotto dotato di una qualche utilità pratica. Un secolo e mezzo dopo, invece, Walker scoprì che una miscela di solfato di antimonio (III), clorato di potassio, gomma e amido aveva il potere di accendersi e prendere fuoco grazie al violento calore generato dall'attrito della miscela sfregata su una superficie ruvida. Questi primi fiammiferi avevano tuttavia una serie di problemi: l'accensione era troppo brusca e violenta e produceva lanci di scintille anche a grandi distanze, la fiamma era instabile e l'odore prodotto dalla combustione risultava particolarmente sgradevole.
 
Nel 1831 il chimico francese Charles Sauria pensò di aggiungere del fosforo bianco alla miscela per eliminare il cattivo odore: questi nuovi fiammiferi, nonostante dovessero essere tenuti sigillati per non esporre a lungo la miscela all'aria, ebbero buona diffusione sebbene il fosforo sprigionato dalla combustione si rivelò tossico per gli operai addetti alla produzione dei fiammiferi, per cui seguì una pressante campagna a favore dell'abolizione di questo modello di fiammiferi.
 
Nel 1836, l'ungherese János Irinyi, al tempo studente di chimica, rimpiazzò il clorato di potassio con ossido di piombo ottenendo fiammiferi capaci di accendersi dolcemente. Egli vendette l'invenzione al produttore di fiammiferi Istvan Rómer. Rómer, ricco farmacista ungherese che viveva a Vienna, comprò dal povero studente Irinyi l'invenzione ed i diritti di produzione per 60 fiorini. Grazie a questo affare Rómer divenne ancora più ricco producendo e vendendo fiammiferi, mentre Irinyi morì povero ed abbandonato.
 
Proibizione del fosforo bianco
I primi fiammiferi, inclusi quelli di Irinyi, erano pericolosi sia per i fabbricatori che per gli utilizzatori a causa della tossicità del fosforo bianco. La ricerca di un suo sostituto che fosse innocuo portò all'invenzione dei cosiddetti fiammiferi di sicurezza discussi più sotto.
 
Tuttavia la produzione dei fiammiferi di sicurezza era più costosa rispetto a quella dei fiammiferi basati sul fosforo bianco, che pertanto continuarono ad essere i più venduti fino a che non vennero approvate leggi che li proibirono. La Finlandia vietò i fiammiferi al fosforo bianco nel 1872; la Danimarca nel 1874; la Svezia nel 1879; la Svizzera nel 1881 e i Paesi Bassi nel 1901.
 
Nel 1906 a Berna, in Svizzera, fu raggiunto un accordo, la Convenzione di Berna, per proibire l'uso di fosforo bianco nei fiammiferi. Questo accordo portò ogni paese a varare leggi che vietassero l'uso di tale sostanza nei fiammiferi. Gli Stati Uniti non vararono una legge in tal senso, ma introdussero nel 1913 una tassa punitiva sui fiammiferi basati sul fosforo bianco. India e Giappone li misero al bando nel 1919, la Cina nel 1925.
 
Fiammiferi di sicurezza
 
Fiammiferi svedesi
I fiammiferi svedesi o di sicurezza furono inventati nel 1844 da Gustaf Erik Pasch e migliorati da Johan Edvard Lundström circa dieci anni dopo. Questo tipo di fiammifero era più sicuro poiché gli ingredienti che formavano la miscela combustibile erano separati, essendo in parte situati nella capocchia e in parte su una superficie appositamente preparata per sfregarvi il fiammifero per accenderlo. Tale superficie era costituita di vetro polverizzato e fosforo rosso e la capocchia conteneva solfuro di antimonio e clorato di potassio. Lo sfregamento trasformava il fosforo rosso in bianco tramite il calore dovuto all'attrito, il fosforo bianco si infiammava, accendendo così la capocchia del fiammifero. La sicurezza derivava sia dall'aver sostituito il pericoloso fosforo bianco con il più innocuo fosforo rosso, sia dal fatto che il fiammifero si accendeva solo se sfregato sulla apposita superficie presente sulla scatola.
 
Fiammiferi accendibili ovunque
I chimici francesi Savene e Cahen svilupparono un altro tipo di fiammiferi di sicurezza, denominati fiammiferi accendibili ovunque (in inglese strike-anywhere match, letteralmente fiammifero striscia-ovunque) utilizzando sesquisolfuro di fosforo. Essi dimostrarono che tale sostanza non era velenosa, poteva essere utilizzata per produrre fiammiferi accendibili per sfregamento su una qualsiasi superficie ruvida e che l'accensione di tali fiammiferi non avveniva in maniera violenta: brevettarono il loro composto, basato su sesquisolfuro di fosforo e clorato di potassio, nel 1898. La sicurezza, ancora una volta, era dovuta al fatto che non veniva utilizzato il fosforo bianco: comunque, a differenza dei fiammiferi svedesi che non possono autoaccendersi visto che una parte della miscela combustibile è sulla superficie esterna alla scatola, i fiammiferi accendibili ovunque sono autosufficienti e quindi in grado di produrre l'imprevista accensione della scatola.
 
Fiammiferi controvento
I fiammiferi controvento sono fiammiferi concepiti per continuare a produrre la fiamma anche in presenza di forte vento: il bastoncino è rivestito per due terzi con la miscela di clorato di potassio e solfuro di antimonio e la sua fiamma è in grado di resistere a forti soffi d'aria. Normalmente presentano un rivestimento in cera impermeabilizzante (sia il fiammifero sia la scatola) per renderli resistenti anche all'umidità.
 
Brevetti e produttori
 
Fiammifero acceso
Gli svedesi detennero a lungo un monopolio virtuale mondiale sui fiammiferi di sicurezza, con la loro industria situata principalmente a Jönköping. Essi vendettero il loro brevetto per la Francia alla Coigent père & Fils di Lione, ma Coigent contestò il pagamento alla corte francese sulla base del fatto che l'invenzione fosse già conosciuta a Vienna prima che Lundström la brevettasse. Il produttore inglese di fiammiferi Bryant and May visitò Jönköping cercando di ottenere un approvvigionamento di fiammiferi di sicurezza ma non ci riuscì. Nel 1862 costruì la sua fabbrica di fiammiferi di sicurezza comprando i diritti per il brevetto inglese da Lundström.
 
Nel 1899 Albright e Wilson svilupparono un metodo sicuro per produrre grandi quantità di sesquisolfuro di fosforo e cominciarono a venderlo ai produttori di fiammiferi nel Regno Unito. Nel 1901 cominciarono a produrlo per il mercato statunitense in un impianto vicino alle Cascate del Niagara, ma i produttori statunitensi continuarono ad usare principalmente fosforo bianco. Nel 1913 Albright e Wilson cominciarono a produrre anche fosforo rosso.
 
Storia dei fiammiferi in Italia
In Italia si distinsero soprattutto i fiammiferi di cera e di legno prodotti dal Commendatore Grand'Ufficiale Ambrogio Dellachà. Lo stabilimento di Dellachà si trovava sulle colline di Moncalieri, a 10 km da Torino. Fondato nel 1860, era formato di un fabbricato a tre piani, il cui fronte era di 120 metri di lunghezza, e di due corpi laterali di 60 metri ciascuno. L'area fabbricabile era di 3000 m². La sua marca era conosciuta in tutta Europa, in America, e specialmente nella Repubblica Argentina (dove nel 1880 impiantò un grande stabilimento). La produzione raggiunse nel 1896 le 2500 grosse al giorno, ossia 360.000 scatole. La tassa governativa pagata per quell'anno in Italia raggiunse l'importante cifra di 940.000 lire, cioè la settima parte della complessiva tassa incassata dal Governo. Lo stabilimento fornì il completo macchinario a diverse fabbriche che si sono impiantate in quegli anni in Messico e in Venezuela e con le quali la Ditta ebbe interessi per la fornitura di diverse materie di prima necessità, e soprattutto di scatole vuote in fototipia, specialità della Ditta. Gli operai che occupavano lo stabilimento alla fine dell'Ottocento erano 700, tutti associati alla Cassa di mutuo soccorso dello stabilimento. In quarant'anni di lavoro con il cavalier Dellachà non si verificò mai uno sciopero.
Numerosi sono i riconoscimenti ricevuti per la bellezza delle scatole, la robustezza del cerino, la buona accensione del fiammifero e la sua inalterabilità nelle regioni piovose.
 
 


#166 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 18 luglio 2017 - 05:20

Zanzara
 
220px-Aedes_aegypti_biting_human.jpg
 
 
I più importanti interventi, applicati in passato, consistono nella bonifica idraulica, ovvero nel prosciugamento e nella regimazione delle acque delle aree umide (stagni, paludi, suoli idromorfi, ecc.). In Italia, gli interventi di bonifica idraulica si sono svolti in diverse epoche in comprensori di estensione limitata e, più estesamente sull'intero territorio nazionale, a partire dalla fine del XIX secolo fino a raggiungere la sua massima espressione nel corso del ventennio fascista, con l'applicazione del Testo Unico sulla bonifica integrale del 1933. Interventi di bonifica della stessa portata o addirittura superiore, hanno riguardato diverse regioni della Terra (es. Stati Uniti d'America, Paesi Bassi, Russia, ecc.).
 
Il ruolo della bonifica idraulica, propriamente detta o integrata, nella lotta contro le zanzare è quello di togliere a questi insetti ampi territori che rappresentano importanti focolai di proliferazione. L'importanza di queste opere, di grande portata, è tale che, unitamente ad altri interventi, hanno permesso non solo la colonizzazione di aree malsane e inabitabili, ma anche l'eradicazione della malaria in alcune aree del Nordamerica e del Mediterraneo. Limitatamente all'aspetto della lotta alle zanzare, la bonifica idraulica va comunque considerata come un sottoinsieme degli interventi di modifica dell'ambiente tesi a sfavorire la proliferazione dei Culicidi.
 
 
L'irrorazione del DDT in una zona umida in una foto d'epoca.
Alla bonifica idraulica subentrò, in sostituzione o come intervento integrativo o collaterale, la lotta chimica. L'impossibilità di applicare su larga scala mezzi di lotta adulticida, la lotta chimica a scopo eradicante si è orientata esclusivamente sugli interventi larvicidi. Questi interventi, a prescindere dalla loro efficacia, si sono evoluti a partire dall'impiego di composti chimici di alto impatto come i sali dell'arsenico e gli oli minerali
 
Un notevole impulso alla lotta chimica ci fu tuttavia a partire dagli anni quaranta con l'avvento degli insetticidi clororganici e in particolare del DDT. A dispetto della sua triste fama, il DDT è ritenuto il principale artefice dell'eradicazione della malaria negli Stati Uniti d'America, in Italia, in Grecia e di un iniziale trend di contenimento in altre regioni, a cui seguì una recrudescenza dell'emergenza malaria a partire dagli anni sessanta. L'uso massiccio del DDT, finalizzato ad eradicare la malaria su scala planetaria, causò tuttavia l'emergenza ecologica dovuta all'accumulo nell'ambiente, aprendo un'accesa e mai sopita disputa sul rapporto beneficio-costo di questo principio attivo. A favore di questi prodotti depone la tesi della priorità dell'emergenza sanitaria di breve periodo (malaria) su quella di lungo periodo (intossicazione cronica, cancerogenesi, ecc.).
 
Dopo la messa al bando del DDT, la lotta chimica larvicida si basò sull'impiego di insetticidi fosforganici di relativa persistenza, tuttavia l'impatto ambientale di questi prodotti ha sempre sostenuto la disputa fra i fautori e i contrari alla lotta chimica. A sostegno delle tesi ambientaliste va detto che gli insetticidi di terza generazione, in particolare quelli ad azione neurotossica per inibizione dell'acetilcolinesterasi, hanno un alto impatto ambientale sugli ecosistemi acquatici perché attivi anche nei confronti dei vertebrati e spesso si sono resi responsabili dell'insorgenza di fenomeni di resistenza.
 
 
Punture di zanzara
Dagli anni novanta in poi l'indirizzo generale è stato quello di contenere l'impatto ambientale della lotta chimica con il ricorso a piani di controllo integrato che prevedono l'uso di tecniche più sostenibili, la bonifica dei focolai di proliferazione, il ricorso alla lotta biologica. In alcuni Paesi, come ad esempio in Francia nel 2005, si è giunti a bandire l'impiego di prodotti chimici tossici nella lotta larvicida. L'orientamento verso un controllo di tipo integrato è stato però favorito dall'acquisizione una più ampia conoscenza dell'ecologia e dell'etologia dei Culicidi, delle dinamiche degli ecosistemi acquatici e della fisiologia degli insetti. Ciò ha permesso anche l'introduzione degli insetticidi di quarta generazione, a basso impatto sui vertebrati in quanto interferiscono specificamente con la fisiologia degli artropodi o perché dotati di una minore tossicità intrinseca, e, soprattutto, con la costituzione di ceppi di Bacillus thuringiensis attivi anche sulle larve dei Nematoceri.
 
L'evoluzione delle tecniche di controllo contro le zanzare ha finora ridimensionato le emergenze di carattere ambientale associate alla lotta chimica, permettendo in linea di massima un contenimento dell'emergenza zanzare nelle regioni in cui il principale problema è rappresentato dalla molestia. Periodicamente il dibattito sulla lotta ai Culicidi si accende in casi, più o meno estesi, di recrudescenza della molestia causata dai culicomorfi o in occasione della comparsa di casi, più o meno isolati, relativi a patologie notoriamente trasmesse da culicidi. In Italia, ad esempio, il dibattito si riaccese in occasione della comparsa di diversi casi di chikungunya in Emilia-Romagna nel 2007, facendo tornare in auge il confronto fra emergenza sanitaria ed emergenza ambientale. Al di là dei contesti locali relativi ai paesi industrializzati, spesso amplificati dai media, il problema dei Culicidi in ambito planetario è ancora ad un livello di emergenza sanitaria, tale da motivare l'intensa attività della ricerca scientifica in questo settore dell'Entomologia applicata.
 
Distribuzione
La famiglia è rappresentata in tutte le regioni zoogeografiche della Terra, con una maggiore concentrazione di specie nelle regioni tropicali. In Europa sono presenti oltre un centinaio di specie. In Italia è segnalata la presenza di poco più di 60 specie, anche se alcune soggette a reintroduzioni periodiche. I generi più rappresentati sono Culex, Anopheles, Ochlerotatus e Aedes, ai quali si affiancano Coquillettidia, Culiseta, Orthopodomidyia e Uranotaenia.
 
Importanza medico-sanitaria
 
Mappa del rischio di contrazione della malaria:
 
I Culicidae sono considerati il raggruppamento sistematico di maggiore importanza, sotto l'aspetto medico-sanitario, nell'ambito della classe degli Insetti, soprattutto per l'ampia diffusione della famiglia, la stretta correlazione di alcune specie con l'Uomo e l'emergenza sanitaria, su scala planetaria, rappresentata da alcune malattie di larga diffusione i cui agenti patogeni sono trasmessi proprio da specie appartenenti a questa famiglia. Le zanzare sono tristemente associate ad aree umide di difficile antropizzazione e considerate malsane proprio in virtù della maggiore incidenza delle malattie trasmesse da questi insetti, al punto di determinare l'evoluzione, nella specie umana, di emopatie congenite quali l'anemia falciforme, le talassemia, il favismo. Queste malattie, a base ereditaria, si sono diffuse in aree interessate dalla malaria come mezzo naturale di difesa e restano diffuse con una elevata frequenza nel germoplasma della popolazione anche dopo l'eradicazione del Plasmodium falciparum, come ad esempio è successo per l'anemia mediterranea e il favismo in alcune aree del Mediterraneo. La peculiarità di queste forme di anemia congenita risiede nel fatto di presentarsi in forma grave in omozigosi recessiva e in forma lieve in eterozigosi, offrendo in quest'ultimo caso una maggiore resistenza al plasmodio della malaria. La diffusione del gene, nelle popolazioni delle aree interessate dalla malaria, rappresenta una difesa genetica che compensa il costo biologico rappresentato dalla comparsa dell'affezione grave in condizioni di omozigosi, ma nel contempo costituisce una tara genetica gravissima allorché ne viene eradicata la causa ancestrale.
 
La puntura delle zanzare non è di per sé particolarmente dannosa: la saliva provoca infatti un effetto rubefacente e una reazione allergica cutanea che si manifesta sotto forma di irritazione cutanea di gravità variabile secondo il grado di sensibilità dell'individuo. Nelle regioni non interessate dalle malattie trasmesse, come ad esempio l'Europa e parte del Nordamerica, l'importanza delle zanzare è limitata alla trasmissione di malattie a carico degli animali domestici (ad esempio la Dirofilariasi del cane) e alla molestia arrecata all'Uomo, ma resta sempre uno dei principali settori d'intervento, in ambito sanitario, nei rapporti tra l'Uomo e gli insetti.
 
Per i motivi sopra esposti, la lotta alle zanzare ha dunque rappresentato uno dei principali obiettivi della bonifica idraulica delle aree umide e rappresenta tuttora uno dei più importanti settori dell'Entomologia applicata. In generale, fra le zanzare rientrano specie responsabili della trasmissione di malattie, a carico dell'uomo o di animali domestici, i cui agenti eziologici si collocano fra i virus, fra i protozoi del genere Plasmodium e fra i nematodi della famiglia dei Filariidae (filarie). Un quadro riassuntivo delle affezioni di maggiore importanza trasmesse dai Culicidi è riportato nella seguente tabella.
 
Affezione Agente eziologico Tassonomia Vettore Ambito di interesse principale Principali aree coinvolte
Chikungunya Alphavirus Virus Aedes, Mansonia Medico Africa, Asia meridionale
Dengue Flavivirus Virus Aedes Medico America latina, Africa centrale e meridionale, Asia meridionale, Oceania, Queensland
Encefalite californiana Orthobunyavirus Virus Aedes Medico USA
Encefalite della Valle del Murray Flavivirus Virus Culex Medico Queensland, Nuova Guinea
Encefalite di Saint-Louis Flavivirus Virus Culex Medico Nordamerica
Encefalite equina orientale Alphavirus Virus Culiseta Medico e veterinario USA, America centrale
Encefalite equina occidentale Alphavirus Virus Culex, Culiseta Medico e veterinario USA, America latina
Encefalite equina venezuelana Alphavirus Virus Ochlerotatus, Culex Medico e veterinario America latina
Encefalite giapponese Flavivirus Virus Culex Medico Cina, Giappone, Corea, Asia meridionale, Queensland, Nuova Guinea
Encefalite La Crosse Orthobunyavirus Virus Ochlerotatus, Aedes Medico Stati Uniti d'America
Febbre della Rift Valley Phlebovirus Virus Aedes e altri Veterinario[10] (Ruminanti) Africa, Arabia
Febbre gialla Flavivirus Virus Aedes, Haemagogus, Sabethes Medico Sudamerica, Africa
Filariasi linfatica Filariidae Nematodi Culex, Anopheles, Aedes, Mansonia, Coquillettidia Medico e veterinario America latina, Africa, Asia meridionale, Oceania
Malaria Plasmodium Protozoi Anopheles Medico America latina, Africa, Asia meridionale
O'nyong'nyong Alphavirus Virus Anopheles Medico Africa
Poliartrite epidemica Alphavirus Virus Culex, Aedes Medico Nuova Guinea, Queensland, Nuovo Galles del Sud
Virus del Nilo occidentale Flavivirus Virus Culex Medico e veterinario Africa, Medio Oriente, India, Europa, Nordamerica
Virus Zika Flavivirus Virus Aedes Medico Micronesia, Indonesia, America latina, Africa centrale e meridionale
 
 

 



#167 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 25 luglio 2017 - 06:44

Balbuzie
 
LewisCarrollSelfPhoto.jpg
 
 
 
Da secoli il fenomeno balbuzie si distingue considerevolmente nella società in generale. A causa dei suoni inusuali emessi dai balbuzienti, ma anche dei comportamenti e degli atteggiamenti che vi sono associati, la balbuzie è stata oggetto di interesse scientifico, curiosità, discriminazione e ridicolizzazione. La balbuzie è stata, e in linea di massima ancora è, un enigma con una lunga storia di interesse e speculazioni sulla sua causa e sulle possibili cure. Di balbuzienti si possono trovare tracce nella storia come il caso di Demostene, che provò a controllare la sua disfluenza parlando con dei sassolini nella bocca.[61] Il Talmud interpreta alcuni passaggi della Bibbia indicativi del fatto che anche Mosè era un balbuziente: la sua balbuzie era stata causata da un carbone ardente posto nella sua bocca che aveva reso “lenta ed esitante la sua parola” (Libro dell'Esodo 4, 10)
 
Le teorie umorali di Galen ebbero grande influenza in Europa durante il Medioevo e anche oltre. In questa teoria la balbuzie era attribuita a squilibri nei quattro umori corporei: la bile gialla, il sangue, la bile nera, e la flemma. Geronimo Mercuriali, scrittore del sedicesimo secolo, propose dei metodi per correggere questo squilibrio come una cambio di dieta, la riduzione nell'attività sessuale (solo per gli uomini) e le purghe. Credendo che la paura aggravasse la balbuzie, egli suggerì tecniche per superarla. La manipolazione umorale continuò a essere il trattamento dominante della balbuzie fino al diciottesimo secolo.[62] In parte a causa di una percepita scarsa intelligenza dovuta alla sua balbuzie, l'uomo che diventò l'Imperatore Romano Claudio fu inizialmente nascosto in società e escluso dagli uffici pubblici.
 
Nel diciottesimo e diciannovesimo secolo, in Europa erano raccomandati interventi chirurgici contro la balbuzie compresi il taglio della lingua con le forbici, la rimozione di una zeppa triangolare posta nella parte posteriore della lingua, il taglio di nervi, e dei muscoli del collo e delle labbra. Altri raccomandavano di accorciare l'ugola o di rimuovere le tonsille. Tutti questi interventi furono abbandonati a causa del forte rischio di andare incontro a emorragie mortali e per il loro palese fallimento nel curare la balbuzie. Meno drasticamente, Jean Marc Gaspard Itard posizionò una piccola placca biforcuta d'oro sotto la lingua per sostenere la “debolezza” dei muscoli.
 
 
Notker Balbulus, in un manoscritto medievale.
Il patologista italiano Giovanni Morgagni attribuì la balbuzie a una deviazione dell'osso ioide, una conclusione a cui arrivò per via autoptica.[62] [56] Il benedettino Notker I di San Gallo (ca. 840-912), soprannominato Balbulus (“il balbuziente”), descritto dai suoi biografi come “delicato nel corpo ma non nella mente, balbuziente di lingua ma non di intelletto, audacemente rivolto alle cose di Dio”, è stato invocato contro la balbuzie.
 
Altri famosi inglesi che balbettavano furono il re Giorgio VI (alla cui vicenda è ispirato il film Il discorso del re di Tom Hooper) e il Primo Ministro Winston Churchill, che condussero il Regno Unito nella seconda guerra mondiale. Giorgio VI si sottopose per anni a terapie per la parola per correggere la sua balbuzie. Churchill sosteneva, forse non parlando direttamente di sé, che “a volte una leggera e non sgraziata balbuzie o qualche impedimento sono di aiuto per catturare l'attenzione del pubblico...”.[63] Comunque, coloro che conoscevano Churchill e parlavano della sua balbuzie sostenevano che era stato per lui un problema importante. Il suo segretario Phyllis Moir nel suo libro del 1941 “I was Winston Churchill's Private Secretary” sosteneva che “Winston Churchill era nato e cresciuto con la balbuzie”. Moir scrisse inoltre di un episodio, quando balbettò “è s-s-semplicemente s-s-splendido' come faceva sempre quando era eccitato”. Louis J. Alber che lo aiutò a organizzare un tour di conferenze negli Stati Uniti, scrisse nel volume 66 di “The American Mercury” (1942) che “Churchill si sforzava di esprimere i suoi sentimenti ma la sua balbuzie lo prendeva alla gola e la sua faccia diventava rossa” e che “nato con la balbuzie e con un difetto di pronuncia, il sigmatismo, entrambi causati in larga misura da un difetto del suo palato, Churchill fu in un primo momento fortemente ostacolato nei suoi discorsi in pubblico. È segno della sua perseveranza se, nonostante il suo handicap, è diventato uno dei più grandi oratori di tutti i tempi”.
 
Per secoli furono utilizzate “cure” quali bere costantemente dell'acqua dal guscio di una lumaca per il resto della propria vita, “colpire un balbuziente in faccia quando il tempo è nuvoloso”, rinforzare la lingua alla stregua di un muscolo, e vari rimedi a base di erbe.[64] Allo stesso modo, nel passato sono state avvalorate teorie sulle cause della balbuzie che oggi sono considerate bizzarre. Tra queste ci sono: solleticare troppo i neonati, mangiare in modo inappropriato durante l'allattamento, permettere a un neonato di guardarsi allo specchio, tagliare i capelli del bambino prima che abbia pronunciato la sua prima parola, avere una lingua troppo piccola, o l'”opera del diavolo”.
 
 


#168 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 01 agosto 2017 - 05:29

Reggiseno
 
220px-Brassiere-white.jpg
 
Gli antichi romani apparentemente non apprezzavano la vista dei seni femminili troppo grandi quindi le signore adottavano una serie di accorgimenti atti a ridurre il seno:
 
il mammillare era una fascia di cuoio che serviva per appiattire e contenere la crescita,
lo strophium sosteneva senza comprimere, mentre, per seni più abbondanti, si ricorreva al cestus, un corpetto di cuoio morbido, o addirittura ad una specie di corsetto, che dall'inguine arrivava alla base del petto (il mito narra che fu Venere ad inventarlo e a consigliarlo a Giunone, notoriamente prosperosa, al cui nome si deve l'aggettivo giunonico).
Il primo esempio documentato di reggiseno, nella sua concezione odierna, è stato ritrovato nel 2008 nel castello di Lengberg, in Tirolo, e risale alla metà del XV secolo.[1]
 
Il primo reggiseno moderno viene brevettato negli Stati Uniti d'America da Caresse Crosby, nel 1914.[2]
 
Nel tempo il reggiseno si è evoluto fino a diventare un elemento di eleganza, design e moda. Viene immesso nel mercato nipponico la prima versione di reggiseno maschile nel 2008.[3]
 
Misura e coppa
I sistemi di misura per i reggiseni sono diversi nei diversi paesi.
 
Tutti i sistemi di misura si basano su due misure:
 
la "circonferenza del torace", presa sotto il seno
la "circonferenza del seno", cioè la circonferenza toracica al livello dei seni, effettuata quando la persona è in posizione eretta, respira normalmente, e ha le braccia lungo il corpo.
In quasi ogni paese, la misura del reggiseno viene indicata da un valore numerico che dipende dalla circonferenza del torace, e da una lettera che indica la dimensione del seno.
 
Valore numerico
Nel Regno Unito e negli USA il valore numerico, espresso in pollici, è ottenuto aggiungendo 5 pollici (equivalenti a 12,5 cm) alla circonferenza del torace.
 
In Francia e in Spagna, il valore numerico è espresso in centimetri, ed è ottenuto aggiungendo 15 cm alla circonferenza del torace.
 
In Italia il valore numerico è dato da numeri ordinali, ed è il numero ottenuto dalla formula: circonferenza del torace meno 60 cm, fratto 5, arrotondato al numero intero più vicino.
 
Secondo lo standard europeo EN 13402, entrato in vigore nel 2007, il valore numerico delle misure dei reggiseni venduti in tutta Europa, deve essere la circonferenza del torace approssimata al multiplo di 5 cm più vicino.
 
La seguente tabella sintetizza le varie convenzioni
 
Europa 65 cm 70 cm 75 cm 80 cm 85 cm 90 cm 95 cm 100 cm
UK & USA 30 32 34 36 38 40 42 44
Francia e Spagna 80 85 90 95 100 105 110 115
Italia I II III IV V VI VII VIII
Coppa
La dimensione della "coppa", identificata da una lettera, si riferisce al volume del seno che l'indumento deve contenere e sostenere e si ottiene con la seguente formula: "circonferenza del seno" - ("circonferenza del torace" + 12,5 cm). Il motivo dell'aggiunta della misura di 12,5 cm (ossia 5 pollici nel sistema anglosassone) è facilmente intuibile: indipendentemente dalla misura del seno, la circonferenza toracica, misurata sotto il seno, sarà comunque inferiore alla misura presa più in alto, proprio per la naturale conformazione a "V" del torace stesso. La lettera associata alla coppa è pressoché uniforme in tutti i paesi. Quindi se le due misure sono uguali la coppa è "AA". Se differiscono per 2,5 cm (1 pollice) la coppa è "A", per 5 cm (2 pollici) è "B", per 7,5 cm (3 pollici) è "C", per 10 cm (4 pollici) è "D", se 12.5 cm (5 pollici) è una "DD" e così via. Generalmente la gamma disponibile di reggiseni comprende le coppe A-B-C-D-E, ma può arrivare anche alla coppa KK-L per modelli particolari destinati a donne con seni particolarmente grandi che necessitano di un "contenimento". Tuttavia, dato che ogni produttore di reggiseni ha un design proprietario e particolare, una generalizzazione commerciale delle misure non risulta agevole. La serie risulta essere grossomodo la seguente (le "coppe" riportate si riferiscono alle misure della UK, che differiscono da quelle degli USA):
 
0 cm 2,5 cm 5 cm 7,5 cm 10 cm 12,5 cm 15 cm 17,5 cm 20 cm 22,5 cm 25 cm 27,5 cm 30 cm 32,5 cm 35 cm 37,5 cm
AA A B C D DD E F FF G H HH J JJ K KK
Ad esempio, una donna che ha una circonferenza del torace di 76 centimetri e una circonferenza di seno 98 risulta avere una misura di reggiseno pari ad una III/34 D, infatti {\displaystyle 98-(76+12,5)=98-88,5=9,5} 98-(76+12,5)=98-88,5=9,5 cm (4 pollici circa).
 
Ad esempio, una donna che ha una circonferenza del torace di 80 centimetri e una circonferenza di seno 98 risulta avere una misura di reggiseno pari ad una IV/36 B, infatti {\displaystyle 98-(80+12,5)=98-92,5=5,5} 98-(80+12,5)=98-92,5=5,5 cm (2,2 pollici circa).
 
Altri sistemi di misura
Nei paesi non anglosassoni è ancora molto in uso un sistema di taglie più semplice, basato su soli numeri, che vanno generalmente dalla 1ª taglia sino alla 10ª; tale sistema può avere un'unica misura di coppa per taglia, corrispondente alla "coppa B", oppure prevedere la differenziazione della coppa (in questo caso le lettere seguono lo stesso criterio del sistema anglosassone, dal quale sono state ereditate).
 
Da ciò deriva che un sistema molto pratico, anche se approssimativo, per il calcolo della taglia sul mercato italiano è il seguente:
 
le misure con "coppa B" corrispondono ad un seno medio, rappresentante la "normalità" per quella misura (ad esempio una terza B corrisponde esattamente alla misura che viene normalmente fornita come terza, sia per quanto riguarda la fascia sottoseno, sia per quanto riguarda la coppa);
le misure caratterizzate da "coppa A" (seno scarso) corrispondono ad una misura di reggiseno che per quanto riguarda il sottoseno è identica alla B, mentre la coppa coincide con quella della misura inferiore (ad esempio una "terza coppa A", per quanto riguarda la fascia sottoseno, corrisponde esattamente alla misura che viene normalmente fornita come terza, mentre la coppa è grande come quella della "seconda misura coppa B");
le misure con "coppa C" (seno forte) corrispondono ad una misura di reggiseno che per quanto riguarda il sottoseno è identica alla B, mentre la coppa coincide con quella della misura superiore (ad esempio una "terza coppa C" corrisponde esattamente alla misura che viene normalmente fornita come terza, per quanto riguarda la fascia sottoseno, mentre la coppa è grande come quella della "quarta misura coppa B");
via via, la "coppa D" coincide con la "coppa B" di due misure superiori etc.
Struttura
La parte fondamentale di un reggiseno è costituita dalle cosiddette "coppe", cioè due manufatti di tessuto (e/o altri materiali) di forma approssimativamente triangolare o a mezzaluna, modellati in modo da essere convesse; esse sono destinate a ricoprire e sostenere i seni. L'effetto di convessità può essere reso attraverso cuciture oppure una particolare lavorazione del tessuto detta "preformatura".
 
Le coppe possono contenere inferiormente un ferretto ricurvo di rinforzo che serve a conferire all'indumento una maggiore rigidità e a migliorare le caratteristiche di sostegno e di modellazione dei seni; questo componente, però, rende l'indumento più scomodo da indossare.
 
Le coppe possono inoltre essere imbottite con materiale sintetico espanso (tipo neoprene o gommapiuma) oppure con più strati di tessuto di grosso spessore.
 
Le coppe sono unite tra di loro in corrispondenza di uno degli angoli; talvolta si sovrappongono per una piccola porzione, formando un incrocio che viene detto "effetto Criss Cross" dal nome del primo prodotto (commercializzato dalla Playtex) in cui è stata utilizzata questa particolare lavorazione, al fine di migliorare la capacità del reggipetto di alzare e separare i seni.
 
In quasi tutti i reggipetti le coppe vengono sostenute verticalmente e trattenute in posizione dalle "spalline", cioè da bretelle più o meno sottili che passano sopra le spalle; generalmente le spalline sono elasticizzate e regolabili nella lunghezza. Orizzontalmente, invece, le coppe sono congiunte e trattenute da una fascia orizzontale anch'essa elasticizzata, collegata ai due lati esterni delle coppe. Tale fascia cinge il busto passando orizzontalmente sulla schiena; ad essa si congiungono a loro volta, nella parte posteriore, le spalline.
 
Quasi sempre la fascia orizzontale di sostegno è apribile al centro della schiena per consentire all'indumento di essere indossato agevolmente; i due segmenti risultanti della banda sono detti "code del reggiseno". In corrispondenza dell'apertura le due code vengono allacciate con uno, due, tre o, talvolta, più gancetti di metallo su corrispondenti serie di occhielli, che sono posizionati a distanze diverse (di solito da due a quattro posizioni), permettendo di regolare così la misura del "sottoseno".
 
Il reggiseno è tipicamente prodotto con un tessuto elasticizzato, che può essere di cotone, seta, fibra sintetica, ma contiene una percentuale significativa di fibre come l'elastam che conferiscono elasticità al tessuto, migliorando la vestibilità dell'indumento e le sue potenzialità di contenimento e modellazione.
 
Modelli e varianti
 
Un reggiseno in un'immagine degli anni settanta
A seconda della forma delle coppe si definisce il modello del reggiseno. Innanzitutto vanno distinti i reggiseni "a triangolo" da quelli "a balconcino".
 
I reggiseni "a triangolo" hanno le coppe di forma, appunto, triangolare e coprono gran parte del seno; sono generalmente piuttosto confortevoli e possono essere destinati ad uso sportivo o contenitivo.
 
I reggiseni "a balconcino" sono chiamati così perché, grazie ad una forma delle coppe a mezzaluna e al punto di attacco anteriore delle spalline molto laterale, espongono e lasciano scoperta gran parte della metà superiore dei seni. Meno confortevoli del modello a triangolo, di solito sono destinati ad una funzione di valorizzazione estetica delle forme, oltre ad essere considerati generalmente più provocanti.
 
In alcuni reggiseni (piuttosto raramente) l'allacciatura si trova sul davanti, tra le coppe, al fine di facilitare l'allacciatura. Infine, in alcuni particolarissimi modelli di reggipetto (destinati per lo più ad essere indossati con abiti da sera che lasciano la schiena scoperta) le code effettuano un doppio giro, incrociandosi dietro la schiena e girando verso il basso, si allacciano nella parte anteriore, circa all'altezza dell'ombelico. L'allacciatura in alcuni casi può essere realizzata, invece che con gancetti, con una fibbia a scatto in plastica, da alcune donne ritenuta più pratica, ma che non consente differenti regolazioni.
 
Alcuni reggiseni, di solito del tipo a balconcino, non hanno spalline, oppure le stesse sono amovibili e riposizionabili al fine di non essere visibili sotto abiti con scollature particolari (es. possono passare parallelamente sulle spalle, essere incrociate davanti o dietro oppure consistere in una sola bretellina che gira dietro al collo e congiunge così le due coppe ma non le stesse con le bande posteriori). In questi modelli di reggipetto normalmente le code hanno, all'interno, una o più strisce di materiale siliconico che, sfruttando l'attrito sulla pelle, impediscono al reggiseno di scendere lungo il torace sotto il peso delle mammelle; in questo caso normalmente sui fianchi sono anche inserite due corte stecche (una per lato), al fine di mantenere l'altezza delle code anche sotto l'effetto della trazione una volta che esse siano allacciate.
 
Tutti i reggipetti a balconcino e parte di quelli a triangolo contengono, nel bordo inferiore delle coppe, il ferretto (vedi paragrafo precedente). Entrambi i modelli possono avere coppe con un solo strato di tessuto (dette anche semplici o "morbide") oppure imbottite.
 
La funzione più classica del reggiseno, quella di sostenere e "contenere" le mammelle è particolarmente enfatizzata nei modelli per seni "forti", detti "reggiseni contenitivi" o "minimiser"; essi hanno generalmente una forma a triangolo e, attraverso una particolare costruzione delle cuciture e l'uso di tessuti robusti ed elasticizzati comprimono i seni (generalmente spostando parte del volume degli stessi sul fianco del tronco) e ne limitano altresì l'oscillazione verticale e orizzontale durante il movimento (ad es.mentre la donna cammina), rendendoli così meno visibili. Un seno molto "forte", in questo modo, diviene meno evidente, facilitando la scelta e la portabilità degli abiti e risultando meno imbarazzante per le donne che, loro malgrado, devono convivere con forme molto generose; un buon reggiseno contenitivo, in gran parte dei casi, è ancora oggi una valida alternativa a interventi chirurgici (sempre traumatici, dolorosi, oltre che costosi) di "mastoplastica riduttiva" La funzione contenitiva è particolarmente efficace nei modelli detti "a bustino", che coprono e contengono il tronco della donna fino alla vita o addirittura sotto la stessa, svolgendo di fatto una funzione cui di solito sono deputati altri indumenti, come guaine, busti e modellatori. I reggiseni a bustino sono quasi sempre caratterizzati da una lunga allacciatura sulla parte posteriore o su quella anteriore, con dieci o più gancetti ed eventualmente una cerniera lampo di rinforzo; possono essere predisposti per essere agganciati, attraverso delle asole, ad una guaina indossata contemporaneamente.
 
Ma il reggiseno può essere anche destinato a correggere quelle situazioni in cui il seno è reputato essere troppo piccolo. Infatti, alcuni reggiseni contengono imbottiture, disegnate per aumentare il comfort e fornire una silhouette più liscia e continua, ma soprattutto per far apparire più grande il seno. Normalmente queste imbottiture sono delle piccole semilune di materiale espanso (neoprene), gel di silicone o olio che, posizionate sotto il lato inferiore della coppa la riempiono spingendo la mammella verso l'alto.
 
In particolare i cosiddetti Push Up, sono disegnati per migliorare il décolleté; essi, grazie a una particolare costruzione delle cuciture delle coppe e a un'imbottitura relativamente modesta, realizzano un effetto di spinta verso l'alto delle mammelle che le fa apparire decisamente più voluminose. D'altra parte, secondo alcuni, con questo tipo di reggiseno, il seno perde molta della sua naturalezza e del suo fascino.
 
Esistono anche imbottiture rimovibili per il seno (dette anche "pesciolini") che, indossate all'interno del reggiseno servono anch'esse ad aumentare ulteriormente il volume dei seni; ovviamente questo richiede che il reggiseno sia di almeno una taglia maggiore rispetto a quella corretta.
 
I cosiddetti "reggiseni sportivi" garantiscono un migliore sostegno al seno proteggendolo e impedendone movimenti eccessivi e strappi durante le attività sportive, in particolare nella corsa; questo tipo di reggipetto risulta particolarmente necessario per le atlete che, avendo un seno particolarmente generoso, sono maggiormente soggette a questo tipo di traumi. Una variante ulteriore usata dalle atlete per gli sport di contatto è il cosiddetto paraseno.
 
Il cosiddetto "Reggiseno sottoseno" o "Reggiseno carioca" è un reggiseno a balconcino in cui le coppe sono talmente ridotte da lasciare quasi totalmente scoperti i seni, compresi i capezzoli e le areole; essi hanno principalmente una funzione "decorativa" e sono destinati a essere usati come indumenti sexy.
 
Il reggiseno ad acqua è un reggiseno la cui coppa è imbottita con l'acqua, come un normale push up. Può essere imbottito anche con olio o con altri materiali come il silicone. Quindi, per far apparire il seno più grande, il reggiseno viene imbottito con piccole semilune di olio, acqua o silicone che, posizionate sotto il lato inferiore della coppa la riempiono spingendo la mammella verso l'alto.
 
Esistono anche reggiseni appositamente ideati per donne in periodo di allattamento. Questi possono essere dotati di coppette assorbilatte, per evitare che i vestiti si bagnino; oppure possono avere la parte anteriore sollevabile in modo da poter allattare il neonato evitando di togliere il reggiseno.
 
 


#169 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 08 agosto 2017 - 06:49

Pentagramma
 
500px-Pentagram_green.svg.pngBoely_-_Moderato_op._44_no_7.png
 
Nella notazione musicale, il pentagramma o rigo musicale è un piano cartesiano che ha il tempo in ascissa e la frequenza in ordinata. Esso è costituito da cinque linee parallele. Le linee individuano quattro spazi. Sulle linee e negli spazi si scrivono le note. Il nome deriva dalle parole greche penta (cinque) e "gramma" (lettera, scrittura).
 
La sua storia parte dal IX secolo d.C. con il passaggio dalla notazione adiastematica (senza rapporto esatto di intervalli) a un primo esempio di notazione diastematica (dove le altezze sono determinate) con la breve parentesi della notazione daseiana e, in seguito, l'introduzione di una linea tirata a secco - cioè incisa a pressione sulla pergamena - e poi disegnata. In seguito le linee divennero due, contraddistinte dalle lettere C (DO) e F (FA), colorate rispettivamente in rosso e giallo, per poi passare alle quattro del tetragramma (quattro linee e tre spazi) introdotto poco dopo l'anno Mille dal teorico Guido Monaco.
 
Caratteristiche
Il pentagramma può essere:
 
semplice: per la voce umana e per gli strumenti musicali di limitata estensione fonica, come archi e fiati, la cui gamma (o estensione) abbraccia o il registro acuto, o centrale, o basso;
Pentagramma singolo.png
 
doppio: formato da due pentagrammi uniti da una graffa, usato da strumenti come il pianoforte, l'arpa, l'harmonium, la fisarmonica e la celesta, la cui gamma comprende anche i suoni degli strumenti citati in precedenza; i due pentagrammi permettono di distinguere i suoni da prodursi al pianoforte con la mano destra (rigo superiore) da quelli da prodursi con la mano sinistra (rigo inferiore), ciò tuttavia con molte eccezioni;
Pentagramma doppio.png
 
triplo: usato prevalentemente per la notazione delle musiche d'organo; due pentagrammi per la/le tastiera/e e uno per le note affidate alla pedaliera;
Boely - Moderato op.
 
multiplo: serve per le partiture dei complessi strumentali, vocali strumentali e dell'orchestra.
Nella prima misura di ogni pentagramma viene specificata la chiave, seguita dall'armatura di chiave. L'indicazione del metro avviene soltanto ad inizio brano (salvo cambiamenti).
 
 
Pentagramma (geometria)
 
Pentagramma
 
Pentagramma inscritto in un pentagono
Il pentagramma (dal greco pente, "cinque" e gramma, "linea") è un poligono, intrecciato e stellato, una stella a cinque punte, formata da cinque segmenti intersecantisi. Può essere regolare o irregolare.
 
Un pentagramma regolare può essere formato da un pentagono regolare o estendendo i suoi lati, o disegnando le sue diagonali. La figura risultante contiene varie lunghezze correlate dalla proporzione aurea. Si tratta del più semplice poligono stellato unicursale.
 
Il pentagramma come simbolo
Fu una forma geometrica molto cara ai pitagorici, forse anche perché le congiunzioni di Venere col Sole disegnano un pentagramma nel cerchio dello zodiaco, detto "pentagramma di Venere".
 
In forma irregolare è uno dei simboli bahai.
 
Pentagramma irregolare bahai
In Italia, negli anni di piombo, il pentagramma, che compariva tra la lettera "B" e la lettera "R", bianca su sfondo rosso, o scura su sfondo chiaro, è stato il simbolo delle Brigate Rosse.
 
Il Marocco e l'Etiopia hanno pentagrammi come loro simboli naziona

 

 

 

indice



#170 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 15 agosto 2017 - 06:19

Mimo
 
220px-PANTOMIME-PABLO.jpg
 
Il mimo è una rappresentazione di azioni, caratteri e personaggi che si serve solamente della gestualità invece che della parola. Spesso è confuso con la pantomima, che è una piccola storia raccontata attraverso tecniche di mimo.
 
La parola "mimo" indica in italiano anche l'esecutore della rappresentazione mimica.
 
La parola è usata inoltre con una connotazione neutra, come sinonimo di "imitazione muta", ma la connotazione prevalente nell'immaginario dei parlanti italiani prende l'accezione più specifica di azione artistica di rappresentazione teatrale senza parole e relativo attore.
 
Tale forma teatrale affonda le sue radici nell'antichità greca e romana.
 
Mimo greco
Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Mimo greco.
La pantomima era una farsa popolaresca dei dori di Sicilia rielaborata artisticamente da Sofrone di Siracusa (V secolo a.C.), per poi trasformarsi presso i romani in una rappresentazione buffonesca nella quale l'attore poteva anche recitare senza la maschera e in cui le parti femminili, contrariamente alla consuetudine teatrale antica, potevano essere sostenute da donne.
 
Mimo latino
Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Mimo latino.
La più antica attestazione di un mimo latino risale indietro almeno al III-II secolo a.C. e riguarda la figura di Protogene citato da un'epigrafe latina da Preturo/Amiternum, contenente un epitaffio in forma metrica.
 
Il mimo fu nobilitato nel I secolo a.C. ad opera di Publilio Siro e Decimo Laberio, che lo fece divenire una scena dialogata, ricca di ironia, realismo, comicità e satira.
 
Statue viventi
Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Statua vivente e Tableau vivant.
Le cosiddette statue viventi, anche molto suggestive, sono impropriamente annoverate tra le forme di mimo. La natura di questa pratica di intrattenimento è più prossima ai tableau vivant, per l'assenza di sequenze d'azioni a fine narrativo (fossero anche nonsense). I riposizionamenti periodici (con pagamento di monetina) delle statue viventi, e i cenni minimali, non possono dirsi sequenze narrative e quindi l'efficacia di questa forma è basata solo sulla presenza. Quando invece la statua vivente accede alla sintassi dei movimenti per strutturare un racconto d'azione sequenziale allora diviene mimo. L'immobilità, di per sé, non è arte mimica.
 
 
 


#171 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 22 agosto 2017 - 08:11

Punto G
 
Senza+titolo.png
 
 
Già nella cultura orientale era creduta l'esistenza di una particolare zona del corpo femminile che, oltre al clitoride, sarebbe stata determinante per il raggiungimento del suo pieno piacere sessuale: negli antichi testi filosofico-religiosi quest'area era definita "punto del sole" o "punto del piacere". In occidente, nella seconda metà del XVII secolo, un medico e speziale olandese, Reigner de Graaf (1641-1693), in un suo trattato di medicina - poi andato perduto, ma ricordato negli scritti di vari autori suoi contemporanei - riferì la presenza di un'area, in prossimità della vagina, di elevata sensibilità erogena.
 
Il punto G vero e proprio venne per la prima volta descritto nel 1982 da Alice Lada e Beverly Whipple, le quali travisarono alcune frasi di un articolo di Ernst Gräfenberg (che per inciso non descrisse alcun punto vaginale sensibile) per creare il mito del punto G.[5] In realtà la dottoressa Alice Kahan Ladas ha scritto un libro intitolato "il punto G", come riportato sotto nella bibliografia, nel quale ne fa menzione e porta tutta una serie di riscontri a favore della teoria.
 
Studi scientifici
Molteplici ricerche mediche hanno smentito l'esistenza del punto G, riportando di come non vi sia alcuna zona della vagina a maggiore innervazione rispetto ad altre.
 
Test eseguiti su alcune donne, che hanno esaminato l'innervazione della parete vaginale, dimostrerebbero l'inesistenza di un'area o un punto di maggiore innervazione o di maggior densità di terminazioni nervose. Lo studio ha esaminato con metodo scientifico ben 110 biopsie ricavate da 21 donne, concludendo che un sito di maggior innervazione o di maggior densità di innervazione è assente nella vagina umana.[7] Per questo motivo in ambito scientifico si ritiene che il punto G non esista.
 
Altre ipotesi
Secondo la ricercatrice australiana Helen O'Connel, il punto G sarebbe in realtà la parte terminale della struttura interna della clitoride, che può raggiungere, all'interno del corpo femminile, una complessiva lunghezza di 10 centimetri.
 
Nel febbraio del 2008 il professor Emmanuele Jannini, docente di Sessuologia Medica presso l'Università degli studi dell'Aquila, ha pubblicato, sulla rivista The Journal of Sexual Medicine, un controverso studio teso a dimostrare la presenza - seppur solo in alcune donne - del fantomatico punto G.[8] Questo studio, però, è stato molto criticato dalla comunità scientifica poiché dalle ecografie mostrate nell'articolo non si evince alcuna struttura anatomica da identificarsi con il punto G.[5] Difatti, molti ginecologi considerano le ricerche del prof. Jannini in materia una bufala.
 
 


#172 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 29 agosto 2017 - 06:02

I dinosauri
 
250px-DMSN_dinosaurs.jpg
 
 
I dinosauri (Dinosauria Owen, 1842) sono un gruppo di sauropsidi diapsidi molto diversificati comparsi durante il Triassico superiore (circa 230 milioni di anni fa) molto probabilmente nel super-continente Gondwana, nella parte che oggi è l'America Meridionale. Furono gli animali dominanti durante l'Era mesozoica ma la maggior parte delle specie si estinse alla fine di tale era. Oggi il clade Dinosauria è rappresentato dagli uccelli neorniti, diffusi in tutto il mondo.
 
I dinosauri sono un gruppo di animali molto diversificato: i soli uccelli censiti contano oltre 9 000 specie. Basandosi sui fossili i paleontologi hanno identificato oltre 500 generi distinti e più di 1 000 specie di dinosauri non aviani. I dinosauri sono rappresentati su ogni continente sia da specie fossili sia da specie attuali (gli uccelli). Alcuni dinosauri erano erbivori, altri carnivori. Molti di essi erano bipedi, mentre altri erano quadrupedi o semibipedi. Molte specie possiedono elaborate strutture “da parata”, come corna e creste (tra i gruppi maggiori ci sono Cerapoda, Ceratosauria, Ornithomimosauria e moltissimi uccelli odierni), e alcuni gruppi estinti svilupparono anche modificazioni scheletriche come armature d'osso e spine (Thyreophora e Marginocephalia). I dinosauri aviani sono i vertebrati volanti dominanti fin dall'estinzione degli pterosauri e le prove suggeriscono che tutti i dinosauri costruissero nidi e deponessero uova, così come fanno gli uccelli odierni. I dinosauri variavano molto in taglia e peso: i più piccoli teropodi adulti erano lunghi meno di un metro, mentre i più grandi dinosauri sauropodi potevano raggiungere lunghezze di quasi cinquanta metri ed erano alti decine di metri.
 
Nonostante la parola dinosauro significhi lucertola terribilmente grande, il nome è piuttosto fuorviante: i dinosauri infatti non erano lucertole, ma un gruppo separato di rettili con una particolare postura eretta che non si riscontra nelle vere lucertole.[3] Il termine dinosauro è anche usato estensivamente, ma non correttamente sul piano tassonomico, per indicare ogni grande rettile vissuto nel Paleozoico e nel Mesozoico, come il pelicosauro Dimetrodon, gli pterosauri alati e gli acquatici ittiosauri, plesiosauri, mosasauri. Fino alla prima metà del Novecento gran parte della comunità scientifica riteneva che i dinosauri fossero lenti, poco intelligenti e a sangue freddo. Numerose ricerche a partire dagli anni settanta hanno però indicato che i dinosauri erano animali attivi con un elevato metabolismo e numerosi adattamenti per l'interazione sociale. Molti gruppi, in particolare tra i carnivori, erano tra i più intelligenti organismi del loro periodo.
 
Storia evolutiva
 
Scheletro di Marasuco lilloensis, ornitodirano simile ai dinosauri.
 
Dinosauri primitivi, inclusi Herrerasauro (grande), Eoraptor (piccolo) e un cranio di Plateosauro.
I dinosauri si distinsero dai loro antenati arcosauri tra il Triassico medio e superiore, circa venti milioni di anni dopo l'estinzione di massa del Permiano–Triassico, che risultò nella morte di circa 95% della vita terrestre.[25][26] Le datazioni radiometriche dei fossili del dinosauro primitivo argentino Eoraptor lunensis stabiliscono la sua presenza nei ritrovamenti fossili di quel periodo. I paleontologi credono che Eoraptor potesse assomigliare all'antenato comune di tutti i dinosauri.[27] Se ciò è vero, le sue caratteristiche farebbero pensare che i primi dinosauri fossero piccoli predatori bipedi.[28][29] La scoperta di ornitodiri primitivi, simili ai dinosauri (come Marasuchus e Lagerpeton) negli strati del Triassico medio nell'Argentina sostengono questa ipotesi; le analisi sui fossili scoperti indicano che questi animali erano infatti piccoli carnivori bipedi. È probabile che i dinosauri apparvero 243 milioni di anni fa, come dimostrato dai resti dell'antichissimo Nyasasaurus, ma questi resti sono troppo incompleti per concludere se appartenessero a dinosauri o a animali imparentati.
 
Quando apparvero, i dinosauri non erano gli animali terrestri dominanti. Gli ambienti terrestri erano già occupati da varie forme di archosauromorfi e terapsidi, come i cinodonti e i rincosauri. I loro concorrenti principali erano gli pseudosuchi, come gli aetosauri, gli ornithosuchidi e i rauisuchi, che al tempo avevano più successo dei dinosauri.[31] La maggior parte di questi altri animali si estinse in uno o due eventi durante il Triassico. Il primo, a circa 215 milioni di anni fa, risultò nell'estinzione di vari arcosauromorfi primitivi, inclusi i protorosauri. Gli altri arcosauri primitivi (inclusi gli aetosauri, gli ornitosuchidi, i fitosauri, e i rauisuchi) ebbero la loro fine 200 milioni di anni fa durante l'estinzione di massa del Triassico-Giurassico. I rincosauri e i dicinodonti sopravvissero in certe zone almeno fino al Noriano inferiore-medio e il Retico inferiore,[32][33] benché la data precisa della loro estinzione sia ancora sconosciuta. La loro scomparsa aprì le nicchie ecologiche vuote ai coccodrillomorfi, i dinosauri, i mammiferi, gli pterosauri, e le tartarughe.[5] Le prime stirpe dei dinosauri primitivi si diversificarono durante le epoche Carniane e Noriane del Triassico, impadronendosi delle nicche dei gruppi estinti.
 
Evoluzione e paleobiogeografia
Triassico-Giurassico
L'evoluzione dei dinosauri post-Triassici segue i cambiamenti nella vegetazione e la posizione dei continenti. Nel Triassico superiore e il Giurassico inferiore i continenti erano connessi in una massa continentale nominata Pangea e i dinosauri contemporanei consistevano per la maggior parte di carnivori coelofisoidi e sauropodomorfi erbivori.[34] Le piante ginnosperme (soprattutto le conifere), fonti di cibo potenziali, si sparsero durante il Triassico superiore. I sauropodomorfi primitivi non erano forniti di meccanismi digestivi orali sofisticati, quindi avrebbero dovuto frammentare il cibo una volta in fondo all'apparato digerente.[35] L'omogeneità generale dei dinosauri continuò fino al Giurassico medio e inferiore, quando la maggior parte delle località conteneva predatori come ceratosauri, spinosauroidi, e carnosauri e erbivori come gli stegosauriani e i sauropodi grandi. Esempi di ciò si trovano nella formazione Morrison del nordamerica e gli strati di Tendaguru in Tanzania. I dinosauri cinesi però mostravano delle differenze, con teropodi sinraptoridi specializzati e dinosauri dal collo lungo inusuali come Mamenchisaurus.[34] Gli anchilosauriani e gli ornitopodi divennero sempre più comuni, mentre i prosauropodi s'estinsero. Le piante più diffuse erano i coniferi e gli pterofiti. I sauropodi, come i loro predecessori prosauropodi, non erano forniti di meccanismi di digestione orali sofisticati, ma gli ornitischi cominciarano a sviluppare vari modi per frammentare il cibo in bocca, inclusi strutture simili a guance e la capacità di muovere la mascella inferiore lateralmente durante il masticamento.[35] Un altro evento evolutivo notevole durante il Giurassico fu l'apparizione dei primi uccelli, discesi da celurosauri maniraptoriani.
 
Cretaceo in poi
 
Illustrazione del sauropode cretacico Brontomerus lottando con un Utahraptor
Con la frammentazione continua di Pangea e l'inizio del Cretaceo inferiore, i dinosauri cominciarono a differenziarsi ulteriormente. Questo periodo vide l'espansione degli anchilosauriani, gli iguanodontiani, e i brachiosauridi in Europa, nordamerica e il nordafrica. Nell'ultimo continente, questi furono in seguito soppiantati dai teropodi spinosauridi e carcarodontosauridi e i sauropodi rebbachisauridi e titanosauriani, che colonizzarono anche il sudamerica. In Asia, i celurosauri maniraptoriani come i dromaeosauridi, i troodontidi, e gli oviraptorosauriani divennero fra i teropodi più comuni, mentre gli anchilosauridi e i ceratopsiani primitivi come Psittacosaurus divennero erbivori ecologicamente importanti. Nel frattempo, l'Australia divenne la dimora di numerosi gruppi di anchilosauri primitivi, ipsilofodontidi, e iguanodontiani.[34] Gli stegosauriani sembrano essere estinti a un certo punto durante il Cretaceo. Un cambiamento notevole nell'ambiente del Cretaceo inferiore fu l'evoluzione delle piante angiosperme. Contemporaneamente, certi dinosauri erbivori svilupparono metodi più sofisticati per frammentare oralmente il cibo. I ceratopsiani evolsero un metodo di affettare le piante con denti ammucchiati insieme in batterie, e gli iguanodontiani raffinarono i loro apparati masticatori, arrivando al loro apice negli adrosauri.
 
Nel tardo Cretaceo, la terra fu dominata da tre gruppi generali di dinosauri; nel nordamerica e l'Asia, i teropodi principali erano i tirannosauridi e vari tipi piccoli maniraptoriani, con una assemblea predominantemente ornitischa di erbivori come gli adrosauridi, i ceratopsiani, gli anchilosauridi, e i pachycephalosauriani. Nei continenti del sud che formavano la Gondwana ormai in uno stato di frammentazione, i teropodi più comuni erano gli abelisauridi, mentre gli erbivori più numerosi erano i sauropodi titanosauriani. In Europa, i dinosauri più prevalenti erano i dromaeosauridi, gli iguanodontiani rhabdodontidi, i nodosauridi, gli anchilosauriani, e i sauropodi titanosauriani.[34] I fiori erano in uno stato d'espansione,[35] e le prime erbe apparirono alla fine del Cretaceo.[38] Gli adrosauridi e i ceratopsiani si diversificarono notevolmente nel nordamerica e l'Asia. Anche i teropodi si diversificarono in questo periodo, con l'apparenza di forme erbivore e onnivore come i terizinosauridi e gli ornitomimosauri.
 
L'estinzione di massa del Cretaceo-Paleocene circa 65 milioni di anni fa alla fine del Cretaceo condusse alla morte di tutti i gruppi di dinosauri tranne gli uccelli neornitini.[39] Le stirpi sopravvissute di uccelli neornitini, inclusi gli antenati dei ratiti, i polli e le anatre, e una varietà di uccelli acquatici, si diversificarono rapidamente all'inizio del periodo Paleogene, usurpando le nicchie ecologiche lasciate libere dall'estinzione dei gruppi di dinosauri Mesozoici come gli enantiorniti aroboricoli, gli esperorniti acquatici, e persino i teropodi carnivori più grandi nella forma dei temibili forusracidi, mentre erano presenti anche forme terricole erbivore come Gastornis. I neorniti furono però incapaci di rimpadronirsi della maggior parte delle nicchie terrestri, che furono monopolizzate dai mammiferi.
 
 


#173 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 05 settembre 2017 - 06:33

La bandiera d'italia
 
280px-Flag_of_Italy.svg.png
 
Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Coccarda italiana tricolore.
 
Il berretto frigio con appuntata una coccarda tricolore francese, simboli della rivoluzione
Anche la bandiera italiana, come altri vessilli nazionali, si ispira a quella francese, introdotta dalla rivoluzione nell'autunno del 1790 sulle navi da guerra della Marine nationale[7] e simbolo del rinnovamento perpetrato dal giacobinismo delle origini[8][9][10].
 
Poco dopo gli eventi rivoluzionari francesi, anche in Italia iniziarono a diffondersi estesamente gli ideali di innovazione sociale – sulla scorta della propugnazione della dichiarazione dei diritti dell'uomo e del cittadino del 1789 – e successivamente anche politica, con i primi fermenti patriottici indirizzati all'autodeterminazione nazionale: per tale motivo la bandiera francese diventò prima riferimento dei giacobini italiani e in seguito fonte di ispirazione per la creazione di un vessillo identitario italiano[10].
 
Le prime sporadiche dimostrazioni favorevoli agli ideali della rivoluzione francese, da parte della popolazione italiana, avvennero nell'agosto del 1789 con la comparsa, soprattutto nello Stato Pontificio, di coccarde di fortuna costituite da semplici foglie verdi di alberi, che vennero appuntate sui vestiti dei manifestanti richiamando analoghe proteste avvenute in Francia agli albori della rivoluzione poco tempo prima dell'adozione della coccarda tricolore francese[11].
 
 
La coccarda italiana tricolore
In seguito la popolazione italiana iniziò a usare coccarde vere e proprie realizzate in stoffa: al verde delle foglie degli alberi già impiegato in precedenza, vennero aggiunti il bianco e il rosso in modo da richiamare in modo più marcato gli ideali rivoluzionari rappresentati dal tricolore francese[12]. Il verde, nel tricolore italiano, venne mantenuto per lo stesso motivo: per i giacobini era infatti simbolo della natura e quindi – metaforicamente – anche dei diritti naturali, ovvero dell'uguaglianza e della libertà[13].
 
La prima traccia documentata dell'utilizzo della coccarda tricolore italiana è datata 21 agosto 1789: negli archivi storici della Repubblica di Genova è riportato che testimoni oculari avessero visto aggirarsi per la città alcuni manifestanti aventi appuntata sui vestiti "[...] la nuova coccarda francese bianca, rossa e verde introdotta da poco tempo a Parigi [...]"[14]. All'epoca non era ancora avvenuta una presa di coscienza nazionale vera e propria, tant'è che per un breve periodo molti manifestanti italiani continuarono erroneamente a credere che la coccarda verde, bianca e rossa rappresentasse il tricolore francese[11].
 
Il verde, il bianco e il rosso applicati su una coccarda tricolore ricomparirono durante la fallita sommossa di Bologna contro lo Stato Pontificio del 13-14 novembre 1794 per opera di Luigi Zamboni e Giovanni Battista De Rolandis[15][16]. Questa genesi è invero contestata da alcuni studiosi, che sostengono la tesi per la quale le coccarde di Zamboni e De Rolandis fossero in realtà bianche e rosse (associando invece questi colori allo stemma di Bologna), con inserti verdi non voluti[17], visto che vennero aggiunti sotto forma di fodera[18].
 
Gli storici sono invece unanimi sul fatto che la coccarda italiana tricolore sia apparsa, dopo gli eventi di Bologna, nel 1796 a Milano: queste coccarde, aventi la tipica forma circolare, avevano il rosso all'esterno, il verde in posizione intermedia e il bianco al centro[19]. I colori nazionali italiani debuttarono quindi su una coccarda[14].
 
Gli stendardi di Cherasco
 
La torre del municipio di Cherasco
La traccia documentata più antica che cita la bandiera tricolore italiana è legata alla prima discesa di Napoleone Bonaparte nella penisola italiana. Con l'avvio della prima campagna d'Italia in molti luoghi i giacobini della penisola insorsero contribuendo, insieme ai soldati italiani inquadrati nell'esercito francese, alle vittorie transalpine[20][21].
 
Questo rinnovamento venne accettato dagli italiani nonostante fosse legato alle convenienze della Francia napoleonica, che aveva forti tendenze imperialiste, perché la nuova situazione politica era migliore di quella precedente: il legame a doppio filo con la Francia era infatti molto più accettabile dei secoli passati nell'assolutismo[22].
 
Durante la prima campagna d'Italia Napoleone Bonaparte, al comando dell'Armata d'Italia, conquistò gli Stati in cui era divisa la penisola italiana fondando nuovi organismi statali repubblicani che si ispiravano agli ideali rivoluzionari francesi[23]. Tra il 1796 e il 1799 nacquero, tra le altre, la Repubblica Piemontese, la Repubblica Cispadana, la Repubblica Transpadana, la Repubblica Ligure, la Repubblica Romana, la Repubblica Anconitana e la Repubblica Napoletana[23].
 
Il primo territorio a venir conquistato da Napoleone fu il Piemonte; nell'archivio storico del comune piemontese di Cherasco è conservato un documento che attesta, il 13 maggio 1796, in occasione dell'omonimo armistizio tra Napoleone e le truppe austro-piemontesi (con cui Vittorio Emanuele I di Savoia cedette Nizza e la Savoia alla Francia per porre fine alla guerra[24]), il primo accenno al tricolore italiano, riferendosi a stendardi comunali issati su tre torri del centro storico[25]:
 
« [...] si è elevato uno stendardo, formato con tre tele di diverso colore, cioè Rosso, Bianco, Verde Bleu. [...] »
(Documento conservato presso il comune di Cherasco)
Sul documento il termine «verde» è stato successivamente barrato e sostituito da «bleu», cioè dal colore che forma – insieme al bianco e al rosso – la bandiera francese[8].
 

Evoluzione storica della bandiera d'Italia

 

Bandiera della Repubblica Cispadana(1797)

 

Bandiera della Repubblica Cisalpina(1798-1802)

 

Bandiera della Repubblica Italiana(1802-1805)

 

Bandiera del Regno d'Italia (1805-1814)

 

Bandiera del Regno delle Due Sicilie (1848-1849)

 

Bandiera della Repubblica di San Marco(1848-1849)

 

Bandiera del Regno di Sardegna (1848-1851)

 

Bandiera dello Regno di Sicilia (1848-1849)

 

Bandiera del Granducato di Toscana(1848-1849)

 

Bandiera della Repubblica Romana(1849)

 

Bandiera del Regno di Sardegna (1851-1861)

 

Bandiera delle Province Unite del Centro Italia (1859-1860)

 

Bandiera del Regno delle Due Sicilie (1860-1861)

 

Bandiera del Regno d'Italia (1861-1946). Bandiera di stato del Regno d'Italia (per le residenze dei sovrani, sedi parlamentari, uffici e rappresentanze diplomatiche)

 

1848 - Bandiera nazionale del Regno d'Italia. Bandiera nazionale e mercantile nel periodo 1861-1946

 

Bandiera di guerra della Repubblica Sociale Italiana (1943-1945)

 

Bandiera del Comitato di Liberazione Nazionale (1943-1945)

 

Bandiera della Repubblica Italiana(1946-in uso)

 

Bandiera dell'Amministrazione fiduciaria italiana della Somalia (1950-1960)

 

 



#174 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 12 settembre 2017 - 04:27

Pornodiva
 
150px-Jenna_Jameson_AVN_Awards_January_9
 
La figura del pornodivo/a ha iniziato a emergere negli anni settanta del XX secolo con il sorgere dell'affare della pornografia legalizzata in diverse nazioni. Linda Lovelace fu una delle prime attrici di genere pornografico a diventare famosa per la sua interpretazione di La vera gola profonda. Dopo Lovelace diversi altri attori si conquistarono i favori del pubblico di genere: si possono ricordare, tra gli altri, John Holmes, Veronica Hart, Amber Lynn e Ginger Lynn. In Italia la svedese Marina Lotar fu la prima pornodiva, poi nei primi anni ottanta salirono alla ribalta, tra le altre, Moana Pozzi, Ilona Staller (Cicciolina), Lilli Carati e Barbarella.
 
In molti casi queste pornodive erano tanto celebrate che i loro nomi divennero familiari anche al pubblico disinteressato alla pornografia. In seguito il mercato del porno ha continuato a crescere e diversificare la propria offerta con la conseguenza che molti pornodivi sono noti solo a un pubblico di nicchia. Tuttavia restano casi di attrici e attori particolarmente note al pubblico generale, come Jenna Jameson, nonché in Italia Selen, Eva Henger e Rocco Siffredi. La fama di questi personaggi ha consentito loro di conquistarsi uno spazio nell'ambiente dello spettacolo anche dopo aver abbandonato il porno.
 
Pornodive
Le pornodive hanno sempre avuto più importanza dei colleghi maschi poiché le pellicole porno (videocassette e videodischi digitali) hanno come utenti paganti in maggioranza uomini, pur esistendo una produzione rivolta ai gusti sessuali delle donne. Per motivi commerciali i cineasti si attivano nella ricerca di belle donne formose e procaci che possano attrarre il pubblico maschile e ai pornoattori richiedono prestanza meramente sessuale non bellezza estetica, almeno per il genere destinato a un pubblico di uomini eterosessuali. Dopo essere diventate famose in pellicole e video le pornodive di solito lavorano e guadagnano prevalentemente esibendosi in spettacoli erotici dal vivo che comprendono anche rapporti sessuali, almeno nelle nazioni dove ciò è permesso dalla legge. Le riviste specializzate valutano le pornodive secondo le loro prestazioni in cui sono maggiormente esperte, arrivando a dare veri e propri voti stilando graduatorie. Il pubblico abituale conosce e apprezza determinate protagoniste per la loro abilità nel praticare rapporti sessuali vaginali, sesso anale, sesso orale, masturbazione o sesso di gruppo. Legalmente la carriera di pornoattrice è permessa alle donne che hanno raggiunto la maggiore età, ossia sedici o diciotto anni relativamente alle diverse nazioni.
 
Le pornodive nell'opinione pubblica
Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Posizioni femministe nei riguardi della sessualità § Femminismo e pornografia.
 
Le donne che intraprendono una carriera da pornoattrice sono criticate da diversi settori dell'opinione pubblica perché le considerano affini alle prostitute e dannose per l'emancipazione femminile, ma altri pensano esattamente il contrario, ossia che le pornodive e le interpreti di successo siano donne seducenti sessualmente liberate e disinibite che con il proprio lavoro riescono a garantirsi un buon guadagno. Infatti i compensi economici per le pornodive sono in continuo rialzo, pur non essendo minimamente paragonabili a quelli delle dive del cinema tradizionale. I critici accusano le pornoattrici in generale e le pornodive in particolare di svilire il ruolo della donna a puro oggetto di sfogo sessuale considerando che esse si accoppiano, ostentando godimento, contemporaneamente con gruppi di uomini che le penetrano negli orifizi anatomici eiaculando poi su qualsiasi parte dei loro corpi, volto incluso. Le pornodive respingono tali accuse dichiarando che si esibiscono in rappresentazioni cinematografiche che seguono semplici criteri di spettacolarità e non vogliono rispecchiare la realtà. Difatti durante molte interviste televisive le pornodive hanno asserito che raramente raggiungono l'orgasmo davanti alle cineprese, ma devono fingere godimento per esigenza del pubblico per lo più maschile. Il dibattito tra opposti punti di vista è sempre alquanto vivace in virtù dell'espressione «comune senso del pudore», usata nella legislazione italiana, che muta in Italia e altrove con il passar degli anni. Si consideri comunque che la pornografia è ancora vietata nella maggioranza delle nazioni e secondo leggi vigenti in alcune di esse le pornoattrici sono, o potrebbero essere, legalmente perseguibili come prostitute e i pornoattori perseguibili come prosseneti ossia lenoni.
 
Problema delle malattie infettive
Le malattie sessualmente trasmissibili costituiscono un problema per la salute degli attori pornografici. Per ridurre il più possibile questo problema le case di produzioni cinematografiche e gli stessi attori prima di effettuare le riprese e per prevenire il rischio contagio chiedono agli interpreti certificati medici recenti e nominali attestanti l'assenza di malattie trasmissibili sessualmente. Ciò nonostante malattie ad alta infettività hanno comunque una certa diffusione tra gli attori di film porno: esempio di ciò è l'epidemia di sifilide diffusa dall'attore Mr. Marcus, mentre sporadicamente si registrano anche casi di contagio da HIV. In passato quando c'era meno consapevolezza rispetto al problema delle malattie sessualmente trasmissibili e i test diagnostici erano meno accurati, come maggior numero di falsi negativi o periodo finestra più lungo), i controlli sanitari non erano "obbligatori": sono accaduti molti contagi che hanno coinvolto anche alcuni attori assai famosi. Le morti per AIDS hanno colpito interpreti storici del porno e tra questi pure John Holmes.
 
 


#175 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 19 settembre 2017 - 06:05

La pila
 
220px-Pilas_electricas_usadas.JPG
 
 
 
Nel 1799 Alessandro Volta riprese gli studi di Luigi Galvani sulla corrente elettrica, riuscendo a realizzare la prima pila (oggi detta voltaica), con i seguenti costituenti:
 
un supporto di legno posto verticalmente su una base circolare;
dischetti di rame e zinco
panno imbevuto di una soluzione acida formata da acqua e acido solforico
due fili di rame.
La pila di Volta consiste in dischetti di rame e zinco alternati, secondo lo schema rame-zinco-umido-rame-zinco, e così via, il tutto mantenuto verticalmente dalla struttura di legno esterna. Una volta disposti i dischetti e il panno sul supporto, collegando il primo e l'ultimo dischetto della colonna con due fili di rame, si viene a creare tra essi una differenza di potenziale in grado di produrre il passaggio di corrente. In realtà Volta credeva che il passaggio di corrente fosse dovuto alla differenza di potenziale originatasi in seguito al semplice contatto dei due metalli, mentre successivamente si capì che il passaggio di corrente è dovuto alla differenza di potenziale creata dai due metalli, provocata dalle reazioni chimiche alle quali concorre anche il mezzo umido.
 
Durante il funzionamento della pila, lo zinco si consuma mentre il rame rimane intatto o eventualmente si ossida. Questo perché lo zinco cede due elettroni e passa da Zn metallico a Zn2+, questi elettroni contrariamente a quanto si possa pensare non passano al rame, che serve solo per creare la differenza di potenziale, ma passano allo ione ossonio H3O+ formatosi dalla dissociazione ionica dell'acido solforico in acqua, che si trasforma in idrogeno molecolare gassoso H2. Infatti la differenza di potenziale che si può misurare ai capi di un solo di uno strato rame-umido-zinco con un voltmetro è di circa 0,7 V. Questa tensione equivale alla semicoppia Zn/Zn2+ utilizzando come altra semicoppia quella dell'idrogeno H2/H3O+.
 
Il dispositivo così costituito permise a Volta di produrre una corrente elettrica, di cui osservò il flusso riuscendo a indurre la contrazione dei muscoli di una rana morta.
 
Fino al 1869, anno dell'invenzione della dinamo, la pila fu l'unico mezzo di produzione della corrente elettrica il cui unico utilizzo commerciale era il telegrafo.
 
Pila Daniell
 
Schema di funzionamento di una pila Daniell
Nel 1836 John Frederic Daniell elaborò una pila, poi chiamata pila Daniell, sfruttando il prototipo inventato da Volta e apportando miglioramenti in termini di tensione e sicurezza d'uso. La cella è costituita da un compartimento anodico (semicella) formato da una barretta di zinco immersa in una soluzione di solfato di zinco (ZnSO4) 1 M e un compartimento catodico formato da una barretta di rame immersa in una soluzione di solfato di rame (CuSO4) 1 M.[3] Le due semicelle sono collegate da un ponte salino costituito da un tubo riempito da una soluzione satura di nitrato di potassio (KNO3) con dei tappi alle estremità permeabili a ioni e acqua.[3] Alla chiusura del circuito esterno con un conduttore, al catodo avviene la semireazione di riduzione:[4]
 
Cu2+(aq) + 2 e− → Cu(s)
(Eº = +0,34 V)
per cui ioni Cu2+ scompaiono dalla soluzione e si depositano come metallo sulla lamina. All'anodo avviene la semireazione di ossidazione:[4]
 
Zn(s) → Zn2+(aq) + 2 e−
(Eº = −0,76 V)
per cui dello zinco metallico si stacca dalla lamina raggiungendo la soluzione come ioni Zn2+. La reazione completa è:[4]
 
Zn(s) + Cu2+(aq) → Zn2+(aq) + Cu(s)
(∆Eº = 1,1 V)
Per effetto di questa reazione nel comparto catodico mancherebbero cariche positive, mentre nel comparto anodico si avrebbe un eccesso di cariche positive. Il tutto però viene compensato perché gli ioni potassio (K+) e nitrato (NO
3
) del ponte salino si spostano raggiungendo il compartimento catodico ed anodico, rispettivamente, ristabilendo l'elettroneutralità della soluzione, in accordo con la legge di Kirchhoff delle correnti. Gli elettroni nel circuito esterno girano dalla barretta di zinco a quella di rame e quindi la corrente convenzionale positiva I va dal rame allo zinco. Il potenziale teorico della pila Daniell è ∆Eº = Eº(Cu2+/Cu)−Eº(Zn2+/Zn)=1,10 V[5] ottenibile in condizioni quasi statiche reversibili, differenza tra il potenziale catodico (polo positivo) e quello anodico (polo negativo).
 
Cronologia
 
Nel 1801 Alessandro Volta illustra la sua invenzione a Napoleone Bonaparte.
1799: viene realizzata la pila di Volta.[6]
1801: la pila di Volta viene presentata all'Institut National des Sciences et Arts.[7]
1812: Giuseppe Zamboni realizza la prima pila a secco al biossido di manganese.[8][9]
1816: William Hyde Wollaston realizza la pila a tazze.[8]
1836: viene messa a punto la pila Daniell.[10]
1838: viene realizzata la pila di Grove.[10]
1841: viene realizzata la pila di Bunsen.[10]
1844: primo utilizzo commerciale dell'elettricità prodotta da batterie: il telegrafo.
1859: viene realizzato da Gaston Planté il primo accumulatore (Batteria piombo-acido).[11]
1866: Georges Leclanché inventa e brevetta il progenitore della pila a secco (soluzione elettrolita ancora acquosa).[11]
1869: viene inventata la dinamo, il primo metodo per la produzione non chimica di elettricità.
1886: Carl Gassner brevetta una pila a secco contenente pasta elettrolita e non più soluzione acquosa.
1893: viene inventata la pila Weston.[12]
1911: la pila Weston viene adottata come riferimento standard internazionale per la misura della forza elettromotrice.[12]
1914: la pila zinco-aria viene ideata da Charles Féry.[12]
1936: viene ideata una pila a combustibile a metano da Emil Baur e H. Preis.[12]
1942: viene ideata la batteria al mercurio da Samuel Ruben[12]
1947: viene ideata una pila a combustibile con elettrolita solido da O.K. Davtyan.[12]
1950: viene ideata una pila all'ossido di argento da Samuel Ruben.[12]
1950: nel corso degli anni '50 viene ideata da Lewis Urry la batteria alcalina.[12]
1954: viene realizzata da Francis Thomas Bacon una pila a combustibile a idrogeno e ossigeno, con elettrolita alcalino.[12]
1957: inizia la commercializzazione delle pile al mercurio (Ruben-Mallory).[12]
1963: le celle a combustibile vengono utilizzate per la prima volta su un veicolo spaziale.[12]
1970: vengono realizzate le prime batterie non ricaricabili al litio da compagnie americane e giapponesi.[12]
1987: viene realizzata la pila alluminio-aria.[12]
1990: iniziano i divieti di produzione delle batterie al mercurio (Ruben-Mallory).[12]
 
Pila di Zamboni
 
 
Accumulatore di Planté
 
 
Pila Daniell
 
 
Pila di Grove
 
 
Pila Leclanché
 
 
Pila Bunsen
Batterie primarie di uso comune
Le pile primarie, chiamate comunemente batterie, sono quelle pile le cui reazioni chimiche interne sono irreversibili. In altre parole, non è possibile invertire la reazione completa semplicemente fornendo energia alla pila; quindi, in sostanza, quando tutti i reagenti della pila si trasformano completamente nei prodotti finali, essa si scarica definitivamente divenendo inutilizzabile. Segue la tipologia delle batterie primarie che si possono trovare in commercio:
 
Pila zinco-carbone
 
Rappresentazione schematica di una pila zinco-carbone; il catodo (+) è una barretta di grafite, il contenitore esterno di zinco funge da anodo (-)
La prima pila a secco (priva di liquidi) prodotta industrialmente e commercializzata su ampia scala fu la pila zinco-carbone, brevettata nel 1886 dal Dr Carl Gassner, che sviluppò un prototipo inventato e brevettato da Georges Leclanché nel 1866 (la cosiddetta pila Leclanché). In sostanza la precedente pila Leclanché aveva i due elettrodi immersi in una soluzione acquosa elettrolita di cloruro di zinco e cloruro di ammonio, per cui non può essere considerata una vera e propria pila a secco.
 
La pila zinco-carbone ha forma cilindrica ed è costituita da un anodo di zinco metallico che occupa la base inferiore e la superficie del cilindro, fungendo quindi anche da contenitore. All'interno troviamo una pasta gelatinosa di biossido di manganese e cloruro di ammonio, misti ad una polvere di carbone. Il catodo è costituito da una barretta di grafite, immersa in questa pasta e la cui sommità, ricoperta da un cappuccio metallico, sporge sulla base superiore del cilindro. Una plastica sigillante divide il cappuccio metallico dal contenitore di zinco, in modo da evitare il corto circuito tra anodo e catodo.
 
La semireazione di riduzione avviene sulla superficie del catodo di grafite e coinvolge il biossido di manganese. La stechiometria della reazione di riduzione non è esattamente nota ed è probabilmente costituita da più reazioni parallele. Reazioni rappresentative sono le seguenti:
 
2 MnO2 + 2 NH
+
4
 + 2 e− → 2 MnO(OH) + 2 NH3
2 MnO2 + 2 NH
+
4
 + 2 e− → Mn2O3 + 2 NH3 + H2O
La barra di grafite e la polvere di carbone non partecipano alla reazione e servono solo per facilitare la conduzione degli elettroni. La semireazione di ossidazione avviene sulla superficie interna del contenitore di zinco e può essere così espressa:
 
Zn → Zn2+ + 2 e−
Il cloruro d'ammonio, oltre a fornire gli ioni H+ per la semireazione (o semireazioni) di riduzione, ha anche il compito di complessare gli ioni zinco prodotti dalla semireazione di ossidazione, mantenendo quindi bassa la concentrazione degli ioni Zn2+ liberi, e quindi mantenendo basso il potenziale di riduzione (E) della coppia redox Zn/Zn2+, secondo l'equazione di Nernst:
 
Zn2+ + 4 NH
+
4
 + 4 OH− → [Zn(NH3)4]2+ + 4 H2O
Zn e MnO2 sono entrambi solidi per cui, non avendo la pila un vero e proprio ponte salino, sono fisicamente a contatto e reagiscono all'interno della pila anche se lentamente. I potenziali di riduzione all'anodo e catodo (E) sono difficili da calcolare sia perché sono instabili a causa delle variazioni delle specie ioniche coinvolte nelle due semireazioni (secondo l'equazione di Nernst E dipende dalla concentrazioni molari delle specie ioniche coinvolte nella semireazioni), sia perché sono diverse le semireazioni di riduzione al catodo. In ogni caso la differenza di potenziale (d.d.p) o forza elettromotrice (f.e.m.) di una pila zinco carbone giovane (∆E) è circa 1,5 V.
 
La pila zinco-carbone ha numerosi svantaggi: il contatto fisico Zn e MnO2 e l'ambiente acido della pila non impediscono la reazione di ossidoriduzione anche a riposo, rendendo relativamente elevato il processo di scarica a riposo. Le numerose reazioni parallele portano alla formazione di numerose sostanze che aumentano la resistenza interna della pila, abbassando il ∆E che dall'iniziale 1,5 V si riduce rapidamente. Anche l'ammoniaca che si libera al catodo tende a formare un velo gassoso sulla sua superficie, aumentando la resistenza interna e quindi abbassando il ∆E. In altre parole la pila ha facilità a scaricarsi. Un problema aggiuntivo è dato dall'assottigliamento della parete di zinco della pila a causa della semireazione di ossidazione. Questo porta a problemi di perdita del contenuto interno.
 
Tutti questi limiti hanno impedito alle pile zinco-carbone di rimanere competitive e hanno fatto sì che fossero sostituite gradualmente dalle pile alcaline. Sono comunque più economiche di queste ultime e restano ancora oggi reperibili sul mercato.
 
Pile alcaline
 
Alcune pile alcaline
 
Rappresentazione schematica di una batteria alcalina. Polvere di MnO2 (marrone); polvere di Zn (grigio chiaro); separatore (grigio scuro); barra di metallo e adesa superficie metallica che fungono da anodo e contenitore metallico che funge da catodo (grigio); sigillante di plastica e membrana di sovrappressione (giallo); etichetta (verde)
Furono inventate negli anni cinquanta da un ingegnere canadese, Lewis Urry, e sono l'evoluzione delle pile a secco zinco-carbone. L'ossidante e il riducente sono ancora biossido di manganese (MnO2) e zinco metallico (Zn), ma lo Zn non forma più il contenitore esterno essendo inserito in forma di polvere attorno ad una barra metallica inerte (anodo). MnO2 è anch'esso una polvere a contatto con il contenitore esterno metallico e inerte (catodo). Le due polveri di Zn e MnO2 sono immerse in una pasta gelatinosa, alcalina appunto, di idrossido di potassio (KOH) come elettrolita e sono separate da un separatore che fa passare ioni, ma non le due sostanze solide polverizzate. La presenza del KOH è fondamentale in quanto ha il vantaggio di non produrre gas durante il funzionamento (esempio NH3) e di non avere cadute di tensione (∆E), che rimane costante e pari ad 1,5 V. L'estremità della barra di metallo che funge da anodo è a contatto con un dischetto di metallo sulla base inferiore del cilindro della pila, estendendo quindi la funzione anodica a tutto il dischetto. Quest'ultimo è separato dal contenitore esterno catodico di metallo da un sigillante di plastica non conduttore che evita il corto circuito.
 
La semireazione di riduzione avviene sulla superficie metallica catodica (inerte) e coinvolge il biossido di manganese. La stechiometria della semireazione di riduzione non è esattamente nota ed è probabilmente costituita da più reazioni parallele. Una reazione rappresentativa è la seguente:
 
MnO2 + 2 H2O + 2 e− → Mn(OH)2 + 2 OH−
Il potenziale di riduzione (E) di questa semireazione equivale a quello standard (Eº) in quanto MnO2 e Mn(OH)2 sono solidi e OH− è ad una concentrazione molare alta, vicina ad 1 M (standard). Quindi E = Eº = +0,25 V. Tale potenziale E è inoltre costante in quanto la concentrazione molare di OH− rimane alta durante il funzionamento della pila e dell'ordine di grandezza di 1 M (KOH è il componente in eccesso). La semireazione di ossidazione avviene sulla superficie interna della barra metallica anodica (inerte) del contenitore di zinco e può essere così espressa:
 
Zn → Zn2+ + 2 e−
Il potenziale di riduzione (E) di questa semireazione non equivale a quello standard (Eº) in quanto la concentrazione molare di Zn2+ è molto più bassa di 1 M ([Zn2+] ≪ 1 M). La presenza di KOH fa infatti precipitare Zn(OH)2 (che poi si convertirà in ZnO), stabilendo una concentrazione bassa e costante di Zn2+:
 
KPS = [Zn2+] [OH−]2
Essendo KPS = 6,8 × 10−17  ed essendo [OH−] = 1 M, si può desumere che [Zn2+] = 6,8 × 10−17 . Applicando poi l'equazione di Nernst si ottiene che E = −1,25 V. Si verifica anche la reazione di formazione del complesso di coordinazione Zn(OH)
2−
4
, ma si può dimostrare che ciò non cambia la concentrazione molare di Zn2+ libero.
 
La reazione redox completa è:
 
Zn + MnO2 + H2O → ZnO + Mn(OH)2
Al catodo vengono prodotti ioni OH− e all'anodo consumati, l'elettroneutralità dei due comparti, in accordo con la legge di Kirchhoff delle correnti, viene garantita dal setto divisorio permeabile agli ioni.
 
A differenza della tradizionale pila zinco-carbone, nella pila alcalina entrambi i potenziali di riduzione (E) all'anodo e al catodo sono noti, stabili e costanti durante il funzionamento della pila, garantendo una ∆E = 1,5 V. Inoltre Zn e MnO2 non sono adesso a contatto (divisi dal separatore) e quindi non reagiscono tra di loro quando la pila è a riposo (non si scarica a riposo). Non si liberano gas e non vi sono reazioni indesiderate, impedendo cadute di potenziale (∆E stabile). Infine non c'è consumo del contenitore della pila e quindi non ci sono perdite.
 
La pila alcalina ha permesso quindi il superamento di tutti i limiti della pila zinco-carbone, sostituendola gradualmente sul mercato. L'unico svantaggio è il maggior costo.
 
Usi: torce elettriche, giocattoli, strumenti elettrici ed elettronici vari
Vantaggi: tempo di vita più lungo a riposo, nessuna caduta di tensione anche ad elevata intensità di corrente erogata, nessuna perdita
Batterie zinco-aria
 
Alcune batterie zinco-aria. Il protettore colorato protegge il catodo dal contatto con l'ossigeno dell'aria
La prima batteria zinco-aria fu realizzata da Charles Féry nel 1914 in versione “ingombrante”. Furono poi perfezionate e ridotte di volume negli anni '70. Oggi le più comuni batterie zinco-aria hanno la dimensione e forma di un bottone e sono utilizzate per apparecchi acustici da applicare all'orecchio dei non udenti, per misuratori di telemetria cardiaci ed altri apparecchi medici. Trovano applicazioni anche per telecamere ed altri oggetti.
 
La parete laterale interna e la base superiore della batteria sono occupati da una lastra metallica inerte che funge da anodo. Questa racchiude una pasta gelatinosa umida alcalina a base di KOH e contenente polvere di zinco. La parete laterale esterna e la base inferiore della batteria costituiscono un'altra lastra metallica inerte che funziona da catodo e che è separata dalla prima grazie a un sigillante di plastica non conduttore che evita il corto circuito. La lastra metallica catodica è forata a livello della base inferiore per far passare l'ossigeno dell'aria (O2) e sopra di essa è adagiata una carta da filtro e poi ancora un foglio di teflon, entrambi permeabili all'O2. Ancora sopra è presente un sottile strato di materiale, tenuto insieme da una rete e imbevuto dello stesso gel alcalino a base di KOH, in grado di catalizzare (accelerare) la decomposizione dell'O2. Tale gel alcalino è separato da quello contenente la polvere di zinco grazie ad un separatore permeabile agli ioni.
 
Sulla superficie interna della lastra anodica avviene la semireazione di ossidazione, identici nella stechiometria e nel potenziale E a quelli già descritti in precedenza per la batteria alcalina, ovvero:
 
Zn → Zn2+ + 2 e−
E = −1,25 V
La semireazione di riduzione avviene grazie al passaggio dell'O2 dell'aria attraverso i fori della lastra catodica, la carta da filtro e il teflon, fino a raggiungere la massa catalizzatrice:
 
O2 + 2 H2O + 4 e− → 4 OH−
E = +0,40 V
Il potenziale di riduzione (E) di questa semireazione equivale a quello standard (Eº) in quanto OH− è ad una concentrazione molare alta, vicina ad 1 M (standard). Quindi E = Eº = +0,40 V. Tale potenziale è inoltre costante in quanto la concentrazione molare di OH− e la pressione parziale di O2 rimangono alte e costanti durante il funzionamento della pila.
 
La reazione di ossidoriduzione completa è:
 
2 Zn + O2 → 2 ZnO
∆E = 1,65 V
Come nella pila alcalina entrambi i potenziali di riduzione (E) all'anodo e al catodo sono noti, stabili e costanti durante il funzionamento della pila, garantendo una ∆E = 1,65 V. La batteria è economica e ha alta densità di energia grazie all'assenza di immagazzinamento dell'ossidante. La scarica a riposo della pila è trascurabile se è mantenuto il sigillante sulla parete catodica che impedisce il passaggio di O2. In assenza del sigillante l'O2 diffonde facilmente fino a dentro la pila ossidando lo Zn. Altro svantaggio è costituito dalla potenza molto ridotta che ne limita l'uso ad apparecchi di piccola dimensione.
 
Usi: apparecchi acustici, misuratori telemetrici cardiaci, strumenti elettrici ed elettronici a bassa potenza
Vantaggi: dimensione piccola, alta energia specifica, ∆E stabile (∆E = +1,65 V), basso costo.
Svantaggi: bassa capacità (utilizzabili solo per piccoli strumenti), funziona male in condizioni di clima secco
Batterie ad argento
 
Alcune batterie ad argento
Inventata e commercializzata negli anni '50 in varie forme e dimensioni, fu utilizzata per tutta la seconda metà del secolo scorso nell'aeronautica militare, civile e spaziale. Gli alti costi di realizzazione, dovuti alla presenza dell'argento, l'hanno oggi resa poco competitiva in questi campi, ma sono ancora commercializzate e molto usate batterie da argento di piccole dimensioni, a forma di bottone, per orologi, calcolatrici, macchine fotografiche ed altri oggetti elettronici di piccole dimensioni.
 
La base superiore della batteria è occupata da una lastra metallica inerte che funge da anodo, mentre la base inferiore e la parete laterale sono costituiti da una simile lastra metallica inerte che funziona da catodo. Una plastica sigillante e isolante corre internamente alla parete laterale fino alla base superiore, interponendosi tra anodo e catodo ed evitando così il corto circuito. All'interno, a contatto con le basi superiore e inferiore della batteria, si trovano due paste gelatinose alcaline a base di idrossido di potassio (KOH) e contenenti una polvere di zinco (Zn) e un polvere di ossido di argento (Ag2O), rispettivamente. Queste sono separate da un separatore permeabile agli ioni che, come in tutte le pile, assicura il ristabilimento della neutralità nei due ambienti gelatinosi.
 
Sulla superficie interna della lastra anodica avviene la semireazione di ossidazione, identici nella stechiometria e nel potenziale E a quelli già descritti per la batteria alcalina (vedi sopra), ovvero:
 
Zn → Zn2+ + 2 e−
E = −1,25 V.
Sulla superficie interna della lastra catodica avviene la semireazione di riduzione:
 
Ag2O + H2O + 2e- → 2Ag + 2OH−
E = +0,342 V.
Il potenziale di riduzione (E) di questa semireazione equivale a quello standard (Eº) in quanto Ag2O e Ag sono composti solidi e OH− è ad una concentrazione molare alta, vicina ad 1 M (standard). Quindi E = Eº = +0,342 V. Tale potenziale è inoltre costante in quanto la concentrazione molare di OH− rimane alta e costante durante il funzionamento della pila.
 
La reazione redox completa è:
 
Zn + Ag2O -> ZnO + 2Ag
∆E = 1,6 V
Come nella pila alcalina entrambi i potenziali di riduzione (E) all'anodo e al catodo sono noti, stabili e costanti durante il funzionamento della pila, garantendo una ∆E = 1,6 V. La batteria è inoltre piccola e quindi adatta per piccoli apparecchi. La presenza dell'argento la rende tuttavia costosa.
 
Usi: Aeronautica militare, civile e spaziale (nel secolo scorso e con dimensioni decisamente più grandi di quelle descritte qui); orologi, calcolatrici, macchine fotografiche, telecamere ed altri oggetti elettrici ed elettronici di piccole dimensioni.
Vantaggi: dimensione piccola, ∆E stabile (∆E = +1,6 V).
Svantaggi: bassa capacità (utilizzabili solo per piccoli strumenti), costo relativamente alto
Batterie al mercurio (batterie Ruben-Mallory)
Inventata nel 1942 da Samuel Ruben fu utilizzata nel corso della seconda guerra mondiale per applicazioni militari (walkie-talkie, munizioni e metal detector). Fu commercializzata dopo la guerra in varie forme e dimensioni e trovò uso per varie applicazioni, soprattutto in piccola forma (a bottone) come per le pile ad argento descritte sopra. Fu largamente usata per orologi, calcolatrici, macchine fotografiche, ed altri piccoli oggetti. Fu anche molto utilizzata per applicazioni mediche (apparecchi acustici, pacemaker ed altri dispositivi impiantibili per via chirurgica). A partire dagli anni '90 in alcuni stati degli USA cominciarono le limitazioni per la fabbricazione di queste batterie a causa del mercurio liquido da esse prodotte, ritenuto dannoso per l'ambiente a causa dello smaltimento improprio delle batterie stesse da parte della popolazione che ne faceva uso. Oggi la produzione è vietata in tutti gli Stati Uniti, in tutta Europa ed in molti altri stati occidentali e non. Queste pile, una volta utilizzata ed esaurite, vanno assolutamente gettate negli appositi bidoni per pile esauste, poiché il materiale che le compone, ovvero il mercurio, è altamente tossico e pericoloso, sia per gli esseri umani e animali, sia per l'ambiente.
 
Le batterie a bottone al mercurio hanno una costituzione e una chimica molto simili a quelle delle batterie a bottone ad argento. L'unica differenza è la presenza di una polvere di ossido di mercurio (HgO) a sostituire quella di ossido di Argento (Ag2O). Sulla superficie interna della lastra catodica avviene la semireazione di riduzione:
 
HgO + H2O + 2e− → Hg + 2OH−
E = +0,09 V.
Il potenziale di riduzione (E) di questa semireazione equivale a quello standard (Eº) in quanto HgO e Hg sono composti indisciolti (solidi e liquidi rispettivamente) e OH− è ad una concentrazione molare alta, vicina ad 1 M (standard). Quindi E = Eº = +0,09 V. La semireazione di ossidazione e il suo potenziale sono identiche a quelle viste per la batteria alcalina e ad argento. La reazione redox completa è:
 
Zn + HgO → ZnO + Hg
∆E = 1,3 V
Come nella pila alcalina e ad argento entrambi i potenziali di riduzione (E) all'anodo e al catodo sono noti, stabili e costanti durante il funzionamento della pila, garantendo una ∆E = 1,3 V.
 
Usi: fino al loro divieto furono usate per orologi, calcolatrici, macchine fotografiche, telecamere, pacemakers, apparecchi acustici ed altri oggetti elettrici ed elettronici di piccole dimensioni
Vantaggi: dimensione piccola, ∆E stabile (∆E = +1,3 V).
Svantaggi: bassa capacità (utilizzabili solo per piccoli strumenti), alta tossicità
Batterie al litio
 
Una batteria al litio a bottone
 
Schema di una batteria al litio a bottone avente come catodo MnO2 (biossido di manganese)
 
Batteria al litio disassemblata. Da sinistra a destra troviamo: superficie metallica dell'anodo ricoperto internamente da uno strato di litio metallico, separatore poroso, polvere di MnO2, rete metallica conduttrice, superficie metallica del catodo (danneggiato durante l'apertura della batteria), anello di plastica sigillante
Da non confondere con le batterie ricaricabili agli ioni di litio (Li-ion).
 
Inventata e commercializzata nel 1970 da varie compagnie americane e giapponesi generalmente in piccola forma (ad esempio a bottone), è oggi utilizzata per orologi, macchine fotografiche, calcolatrici, telecomandi auto per chiusura centralizzata, apparati impiantabili per via chirurgica (pacemaker, defibrillatori impiantabili, impianti cocleari, sensori di glucosio, ecc.), oggetti elettronici di vario tipo.
 
La base inferiore della batteria è occupata da una lastra metallica inerte che funge da anodo, mentre la base superiore è costituita da una simile lastra metallica inerte che funziona da catodo. Un anello di plastica sigillante tiene unite le due lastre impendendone allo stesso tempo il contatto fisico e quindi il corto circuito. All'interno, la base inferiore è a contatto con uno o più strati di litio (Li) immersi in un solvente organico aprotico (che non rilascia ioni H+). La base superiore è invece a contatto con un composto ossidante che può variare a seconda del tipo di batteria presa in considerazione, anch'esso immerso nello stesso solvente aprotico. I due ambienti sono divisi da un separatore poroso permeabile agli ioni, ma non a composti solidi. Nell'80% delle batterie al litio esistenti in commercio l'ossidante è biossido di manganese (MnO2), e il solvente aprotico è carbonato di propilene o 1,2-dimetossietano dove si trova disciolto come sale elettrolita LiClO4.
 
All'anodo avviene la semireazione di ossidazione:
 
Li → Li+ + e−
Tale semireazione ha in soluzione acquosa il potenziale di riduzione standard più basso in assoluto (Eº = −3,04), così basso che gli ioni H+ presenti nell'acqua o in qualunque solvente organico protico (anche in ambiente alcalino) reagirebbero in maniera esplosiva con Li metallico dando luogo alla formazione di ioni Li+ e idrogeno gassoso (H2). Questo è il motivo per cui la soluzione elettrolita della pila è in solvente organico aprotico. Al catodo avviene la semireazione di riduzione:
 
MnO2 + Li+ + e− → LiMnO2
In questa semireazione, gli ioni litio, provenienti dalla semireazione di ossidazione attraverso il setto poroso, si associano a MnO2 senza cambiare il proprio stato ionico e numero di ossidazione, che rimane +1. Sono piuttosto gli atomi di Mn a ridursi passando da numero di ossidazione +4 a +3 (l'assenza di acqua e di solvente protico impedisce a MnO2 di ridursi secondo le semireazioni che avvengono nella pila zinco carbone ed alcalina). In soluzione acquosa, i potenziali di riduzione standard (Eº) delle due semireazioni viste sono, rispettivamente, −3,04 V e +0,25 V, dando luogo ad una differenza di potenziale (∆Eº) di 3,29 V. Tuttavia il solvente non è acquoso e i due potenziali sono ignoti e comunque diversi dai valori standard. È nota solo la differenza di potenziale tra anodo e catodo (∆E), pari a 3 V. Le reazione redox completa è quindi:
 
MnO2 + Li → LiMnO2
∆E = 3 V
La batteria al litio ha comportato una vera e propria rivoluzione nel campo delle batterie che si è allargata anche alle pile secondarie (ricaricabili). La semireazione del litio ha in assoluto il valore Eº più basso, garantendo un alto valore di ∆E qualunque sia la specie chimica responsabile della semireazione di riduzione. Inoltre il Li è leggero (6,9 g/mol), permettendo di liberare un grosso quantitativo di e− per unità di massa (1 mole di e− ogni 6,9 g di Li, più di qualunque altra sostanza). Questo ha permesso di generare batterie con alti valori di ∆E (3 V) ed energia specifica (0,83-1,01 kJ/g di batteria), traducendosi in batterie di piccole dimensioni e alto potenziale. Inoltre le batterie al litio hanno alta affidabilità, tempo di vita molto lungo (10-15 anni), basso valore di scarica a riposo (circa 2% all'anno), abbassamento di ∆E lento e prevedibile e sono sigillabili in quanto non liberano H2 gassoso (queste ultime due caratteristiche sono molto utili per dispositivi impiantabili per via chirurgica). Gli unici difetti sono i costi elevati, la bassa capacità e l'infiammabilità data dalla presenza di un solvente organico piuttosto che di uno acquoso.
 
Usi: orologi, macchine fotografiche, calcolatrici, telecomandi auto, apparati impiantabili per via chirurgica, oggetti elettrici ed elettronici di vario tipo e piccola dimensione.
Vantaggi: dimensione piccola, tempo di vita molto lungo, ∆E alto (circa 3 V), alta energia specifica, bassa autoscarica, alta affidabilità, bassa tossicità, sigillabilità, ∆E a lento decadimento (utile per pacemakers)
Svantaggi: bassa capacità, costo elevato, infiammabilità
Pila o batteria?
I termini pila e batteria possono essere sinonimi, perché indicano entrambi un componente elettrico capace di fornire energia elettrica, ma si distinguono per il fatto che le pile hanno una disposizione delle diverse celle galvaniche in verticale (una sopra l'altra), mentre le batterie hanno una disposizione delle celle in orizzontale (una di fianco all'altra);[senza fonte] inoltre il termine pila viene utilizzato anche per indicare le celle galvaniche usate singolarmente (come nel caso delle Pile stilo, quali le AA, AAA, ecc)[14], mentre il termine batteria viene utilizzato anche per indicare una fonte energetica di corrente elettrica costituita da più celle galvaniche distinte tra loro e non fisicamente unite e vincolate tra di loro, come nel caso di "pacchi batteria" o di molte "pile fai-da-te".
 
Pacco batteria
 
Un pacco batteria composta da 4 elementi in serie (Tratado elemental de física experimental y aplicada, y de meteorología..., 1862).
Un "pacco batteria" (talvolta chiamato semplicemente "batteria") è un dispositivo costituito da diverse celle elettrochimiche distinte l'una dall'altra (le quali possono essere utilizzate anche singolarmente), utilizzate per convertire l'energia chimica accumulata in energia elettrica. Queste vengono collegate in serie in modo che le tensioni dei singoli elementi si sommino.
 
Batterie fai-da-te
 
Una batteria costruita con 4 limoni.
 
Una batteria costruita con 2 patate.
Quasi ogni liquido o materiale umido che possieda abbastanza specie ioniche da essere elettricamente conduttivo può servire da elettrolita per una pila. Come originale dimostrazione scientifica, è possibile inserire due elettrodi fatti di metalli differenti in un limone,[15] una patata, un bicchiere contenente una bibita, ecc. e generare piccole quantità di corrente elettrica. Le pile "casalinghe" di questo tipo non sono di utilità pratica perché producono meno corrente e costano assai più per unità d'energia prodotta rispetto alle batterie commerciali, in relazione alla necessità di dovere rimpiazzare frequentemente il frutto o il vegetale adoperato, ed in quanto la corrente elettrica è prodotta non tanto dal frutto in sé, quanto dalla corrosione dei poli metallici con cui esso è a contatto, che alla lunga risulteranno rovinati da tale corrosione; ciò ne fa un processo entalpicamente in perdita, tenuto conto della maggiore quantità di energia che era stata necessaria a produrre quel metallo rispetto a quella restituita dalla sua distruzione. A livello didattico, una classica pila fai-da-te può essere costituita da un limone nel quale vengono piantate due barrette, una di rame ed una di zinco. Si ottiene così una differenza di potenziale di circa 1 V, ed una capacità di corrente appena sufficiente per far illuminare un LED a basso consumo o alimentare un orologio a cristalli liquidi. Nel 2010 è stata resa nota l'innovazione di utilizzare la patata bollita (scoperta da un team israeliano) invece di quella cruda e questo consente di aumentare di 10 volte l'energia ricavabile grazie alla corrispondente diminuzione della resistenza interna dell'elettrolita.[16] La tensione resta sempre quella del sistema rame-zinco ovvero rimpiazza le cosiddette pile a 1,5 volt. Mettendo in serie (collegando + di una con - di un'altra) o in parallelo (collegare + con + e − con −) più pile è possibile sommare rispettivamente la tensione o la corrente. Le pile a patata bollita è stato calcolato che vengono a costare e forniscono un'energia da 5 a 50 volte più economica di quelle tradizionali e sono quindi molto adatte per progetti nei paesi più poveri. Ovviamente tali patate non saranno più commestibili, vista la tossicità dovuta all'assorbimento di sali organici di rame e zinco.
 
Le batterie al piombo-acido possono essere facilmente prodotte in casa, ma un fastidioso ciclo di carica/scarica è necessario per "formare" le piastre. Questo è un processo che porta alla formazione di solfato di piombo sulle piastre e durante la carica questo viene convertito in diossido di piombo (piastra positiva) e piombo puro (piastra negativa). La ripetizione di questo processo porta come risultato una superficie microscopicamente ruvida, con una ben più grande superficie esposta. In questo modo aumenta la corrente che la batteria può erogare.
 
Capacità e tensioni differenti
In alcuni casi è possibile utilizzare celle galvaniche o batterie con caratteristiche differenti, ma con i dovuti accorgimenti, in generale con il collegamento in serie si deve avere celle galvaniche di pari capacità e tensione, ma nel caso di batterie in serie è possibile utilizzare anche elementi con la metà della capacità se hanno anche la metà della tensione, in quanto i singoli elementi delle batterie (celle galvaniche) avranno le stesse caratteristiche; nel caso di collegamenti in parallelo l'unico vincolo è la tensione, che deve essere uguale per ogni elemento collegato (celle galvaniche o batterie), mentre la capacità può essere anche estremamente differente; è possibile anche avere serie di paralleli o paralleli di serie, l'importante è rispettare i vincoli tipici per ogni singola serie, in tutti i casi i collegamenti devono essere fatti con elementi della stessa natura, quindi non mescolare tecnologie differenti in quanto hanno valori di riferimento e curve di carica e gestione differenti.
 
Gli inconvenienti del collegamento sono l'interruzione del singolo elemento o la loro cortocircuitazione; in caso d'interruzione i collegamenti in serie smettono di funzionare, mentre quelli in parallelo perdono solo la capacità di quell'elemento, in caso di cortocircuito il collegamento in serie perde solo la quota di tensione di quell'elemento che comunque può surriscaldarsi, mentre nel collegamento in parallelo si verifica una scarica veloce di tutti gli elementi in parallelo con forte rischio d'esplosione in quanto si verifica un forte surriscaldamento.
I collegamenti in parallelo anche senza inconvenienti risentono del potenziale problema legato allo scaricarsi più velocemente di una cella rispetto a quella vicina, che porta la corrente a circolare dalla cella carica a quella scarica, sprecando in tal modo energia. Nel caso delle batterie in serie, se un singolo elemento perde di capacità o è di capacità inferiore a parità di tensione, questo tenderà a caricarsi e scaricarsi prima degli altri, andando continuamente in sovraccaria/sovratensione e sottotensione, stressandosi maggiormente rispetto agli altri elementi e compromettendo la vita del sistema in serie.
 
Batterie di flusso
Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Batteria di flusso.
Le batterie di flusso sono una classe speciale di batterie dove quantità addizionali di elettrolita sono conservate fuori dalla cella galvanica principale e vengono fatte circolare all'interno di essa tramite pompe o sfruttando la forza di gravità. Le batterie di flusso possono avere una capacità estremamente grande e sono usate in applicazioni navali, mentre stanno guadagnando popolarità nell'ambito di applicazioni riguardanti lo stoccaggio dell'energia.
 
Le batterie di flusso zinco-bromo e le batterie redox al vanadio sono tipici esempi di batterie di flusso commercialmente disponibili.
 
Specifiche tecniche
Parametri di riferimento
Una batteria è caratterizzabile nelle sue prestazioni/caratteristiche dai seguenti parametri fisico-elettrici:
 
Tensione, differenza di potenziale (misurata in volt);
Corrente elettrica o intensità di corrente (misurata in ampere);
Capacità (espressa in ampereora Ah).
Dimensioni comuni
 
Vari tipi di batterie: da sinistra, batteria da 4,5 volt, torcia (D), mezza torcia ©, stilo (AA), mini stilo (AAA), AAAA, A23, 9 volt, e due pile a bottone.
Batterie sia monouso sia ricaricabili sono in commercio in varie dimensioni standard, in modo tale che lo stesso tipo di batteria possa essere utilizzata per svariate applicazioni, non sussistono problemi di compatibilità tra batterie dello stesso tipo. Tra i tipi maggiormente usati per dispositivi portatili includono la serie A, tra cui AA e AAA, comunemente dette "stilo" e "mini stilo"; C o "mezza torcia"; D o "torcia"; PP3 o "9 volt" comune nelle radioline; 4,5 volt, di dimensioni relativamente grandi; varie dimensioni di pile a bottone, e altri tipi specializzati.
 
Capacità comuni
Le informazioni riguardanti la capacità in Ah delle batterie ricaricabili sono normalmente facilmente disponibili, ma può essere molto più difficoltoso ricavare la capacità per le batterie primarie. A titolo di esempio, alcune capacità di batterie primarie Energizer sono presenti in Energizer Technical Information mentre in Electric Current from a 1.5 Volt Battery sono presenti dei valori relativi ad alcune Duracell.
 
La capacità delle batterie, ovvero la quantità di carica elettrica che può essere immagazzinata, è comunemente espressa in ampere-ora (Ah), dove 1 Ah equivale a 3 600 coulomb. Per ottenere l'energia in wattora è necessario moltiplicare la capacità in Ah per la tensione nominale.
 
Una batteria da 1 Ah può erogare una corrente di 0,1 ampere per dieci ore prima di scaricarsi. In realtà la capacità reale è molto dipendente dal tasso di scaricamento, decrescendo con l'aumentare della corrente richiesta. Per questo una batteria da 1 Ah solitamente non riesce a fornire 1 ampere per un'ora.
 
Di solito la capacità è intesa come il prodotto tra la corrente erogata, misurata nell'arco di 10 o 20 ore, e il tempo.
 
La capacità è misurata sperimentalmente sottoponendo la batteria ad un ritmo di scarica standard, solitamente con una corrente che faccia scaricare la batteria in venti ore ovvero una corrente pari alla capacità della batteria diviso venti ore.
 
Ci sono in commercio dei tester di capacità delle batterie primarie (non ricaricabili) e secondarie (ricaricabili).
 
Componenti e fattori elettrici
Le celle di cui si compone una batteria possono essere collegate in parallelo, in serie o in entrambe i modi. In entrambi i casi possono verificarsi problemi dal tipo di collegamento e danno del singolo componente, perciò solitamente costituite da un circuito elettronico atto a proteggerle da questi problemi, chiamato "sistema di gestione della batteria". In entrambi i tipi in serie e in parallelo, l'energia totale di una batteria equivale alla somma delle energie immagazzinate in tutte le singole celle. Una combinazione di celle in parallelo possiede la stessa tensione di una singola cella ma è in grado di fornire una corrente maggiore ed eguale alla somma delle singole correnti di tutte le celle. Una combinazione in serie possiede la stessa corrente di una singola cella ma il valore della sua tensione corrisponde alla somma delle tensioni di tutte le singole celle.
 
Un semplice modello circuitale di una batteria è una sorgente di tensione perfetta (cioè priva di resistenza interna) in serie con un resistore. La tensione erogata dalla sorgente di tensione non dipende dallo stato di carica, ma solo dalle caratteristiche chimiche della batteria. Quando una batteria "si consuma", è la sua resistenza interna ad aumentare. Quando la batteria è collegata ad un carico (il dispositivo che "usa" la pila, per esempio una lampadina, o un motore elettrico) che ha una sua resistenza, la tensione applicata agli estremi del carico dipende dal rapporto tra la resistenza di carico e quella interna della batteria: quando la batteria è completamente carica la sua resistenza interna è bassa, per cui la tensione applicata ai capi del carico è quasi uguale a quella della sorgente di tensione. Mano a mano che la batteria si consuma e la sua resistenza interna cresce, aumenta anche la caduta di tensione ai capi della resistenza interna, con il risultato di ridurre la tensione disponibile per il carico e quindi la capacità della batteria di erogare potenza al carico.
 
Trattamento termodinamico della pila: equazione di Nernst[modifica | modifica wikitesto]
In elettrochimica, l'equazione di Nernst esprime il potenziale d'elettrodo (E), relativamente al potenziale d'elettrodo standard (Eº), di un elettrodo o di un semielemento o di una coppia redox di una pila. In altre parole serve per calcolare il potenziale dell'elettrodo in condizioni diverse da quelle standard.
 
{\displaystyle E=E^{0}+{\frac {RT}{nF}}\ln \left[{\frac {\Pi \left(C_{\mbox{i,ox}}^{\nu _{ox}}\right)}{\Pi \left(C_{\mbox{i,red}}^{\nu _{red}}\right)}}\right]} E=E^{0}+{\frac  {RT}{nF}}\ln \left[{\frac  {\Pi \left(C_{{{\mbox{i,ox}}}}^{{\nu _{{ox}}}}\right)}{\Pi \left(C_{{{\mbox{i,red}}}}^{{\nu _{{red}}}}\right)}}\right]
dove:
 
R è la costante universale dei gas, uguale a 8,314472 J K−1 mol−1 o 0,082057 L atm mol−1 K−1
T è la temperatura assoluta
Ci,red è la molarità della specie i-esima in forma ridotta (a destra della freccia della semireazione di riduzione)
Ci,ox è la molarità della specie i-esima in forma ossidata (a sinistra della freccia della semireazione di riduzione)
νi è il coefficiente stechiometrico della specie i-esima nella semireazione di riduzione
n è il numero di elettroni trasferiti nella semireazione
F è la costante di Faraday, uguale a 9,6485309 × 104  C mol−1.
L'equazione di Nernst andrebbe in realtà espressa considerando le attività delle specie i-esima, ma per soluzioni non troppo concentrate, la relazione si può esprimere attraverso le concentrazioni molari.
 
Come si è arrivati all'equazione di Nernst? Trattando una pila nel suo insieme (cioè formata da due elettrodi o semielementi o coppe redox), possiamo scrivere, ad esempio per la pila Daniell:
 
Zn(s) + Cu2+(aq) → Zn2+(aq) + Cu(s)
Dal punto di vista termodinamico, visto che nella reazione compare una fase solida e una soluzione liquida, viene considerata solo quest'ultima, in quanto l'attività o concentrazione molare dei solidi puri è unitaria per definizione. Siccome per soluzioni molto diluite l'attività adimensionale degli ioni coincide numericamente con la loro concentrazione molare, sarà lecito scrivere per ogni specie elettroattiva:
 
μ = μº + RT ln [ione]
dove l'argomento del logaritmo rappresenta la concentrazione dello ione in moli per litro in condizioni attuali. Ovviamente tale operazione è errata matematicamente, in quanto non è possibile eseguire il logaritmo di una quantità dotata di dimensioni, tuttavia va ipotizzato che la concentrazione sia divisa per una concentrazione molare di riferimento unitaria (condizioni standard). Nel caso della reazione in questione e con questa precisazione, si scriverà quindi:
 
ΔG = μ(Zn2+) + μ(Cu) − μ(Zn) − μ(Cu2+)
ΔGº = μº(Zn2+) + μº(Cu) − μº(Zn) − μº(Cu2+)
ottenendo l'equazione isoterma di Van't Hoff
 
ΔG = ΔGº + RT ln([Zn2+]/[Cu2+])
In una reazione chimica infatti la variazione dei potenziali chimici dei prodotti e dei reagenti moltiplicati per i rispettivi coefficienti stechiometrici (1 nel caso in esame) col il segno positivo per i prodotti e negativo per i reagenti, è uguale alla variazione di energia libera di Gibbs ΔG per mole. In particolare a pressione e temperatura costante, in un sistema che compie lavoro utile (dovuto in questo caso alla forza elettromotrice della pila, che produce lavoro all'esterno tramite chiusura del circuito), l'energia libera di Gibbs per mole si identifica quantitativamente col lavoro utile cambiato di segno. Tale lavoro utile lo chiameremo con ΔVext e sapendo che il potenziale elettrico non è altro il lavoro per unità di carica, si può definire il lavoro elettrico come il potenziale elettrico moltiplicato per la carica. La carica è relativa ad una mole di sostanza, perciò indicando con n la quantità elettroni per quantità di reagente scambiato durante la reazione, e ricordando che la carica elettrica dell'elettrone è di 96 485 coulomb/mol (che costituisce 1 faraday, indicato con F), si può scrivere che:
 
Lutile = Lelettrico = n F ΔVext
 
In condizioni di equilibrio, ΔV tende a zero, quindi:
 
ΔVext = ΔVint = ∆E = forza elettromotrice (o tensione elettrica, potenziale) della pila
Di conseguenza:
 
Lutile = n F ∆E
Ricordando che a P e T costanti, la variazione di energia libera di un tale sistema è uguale al lavoro utile cambiato di segno,
 
ΔG = ΔGº + RT ln([Zn2+]/[Cu2+]) = − n F ∆E
∆E = − ΔGº/nF – (RT/nF) ln([Zn2+]/[Cu2+])
∆E = ∆Eº + (RT/nF) ln([Cu2+]/[Zn2+])
In forma più generale:
 
∆E = ∆Eº + (RT/nF) lnQ
dove Q è il quoziente di reazione (rapporto adimensionale tra le attività elevate ai rispettivi coefficienti stechiometrici). Possiamo quindi dire che la forza elettromotrice di una pila (∆E) è uguale al suo valore nelle condizioni standard (∆Eº) più il termine che dipende dalla attività in condizioni attuali delle specie elettroattive (ioni, gas) che partecipano alla reazione.
 
Scrivendo poi i termini indicati con "∆" per esteso (indicando cioè le differenze) otteniamo:
 
Ered − Eox = E
o
red
 − E
o
ox
 + (RT/nF) ln([Cu2+]) − (RT/nF) ln([Zn2+])
dove Ered e Eox sono i potenziali di riduzione non standard delle coppie redox che subiscono le semireazioni di riduzione e ossidazione, rispettivamente; E
o
red
 e E
o
ox
 sono i corrispettivi potenziali di riduzione standard. Separando i termini relativi alle coppie redox che subiscono le semireazioni di riduzione e ossidazione si può scrivere l'equazione di Nernst nella sua forma base da cui siamo partiti:
 
Ered = E
o
red
 + (RT/nF) ln([Cu2+])
Eox = E
o
ox
 + (RT/nF) ln([Zn2+])
Sistema di gestione della batteria
Il sistema di gestione della batteria (battery management system o BMS) serve nel caso di alcune particolari tecnologie (litio, ecc) dove vengano utilizzate più celle galvaniche in serie, in modo da controllare le singole celle, stabilizzandole sia nella fase di carica che di scarica, per evitare malfunzionamenti o danneggiamenti della stessa batteria.
 
Generalmente tale sistema è integrato dentro al pacco batteria, la quale può essere così utilizzata come una batteria tradizionale ed essere collegata tranquillamente al caricabatteria o all'oggetto che la utilizzerà.
 
Considerazioni sulla sicurezza e ambientali: Riciclaggio e rigenerazione[modifica | modifica wikitesto]
 
Batteria nel suo alloggiamento con sopra riportate le manovre da evitare
 
Contenitore per la raccolta di pile esauste (in rosso).
Le varie batterie e pile essendo dei generatori o accumulatori di energia elettrica in caso di manomissione o uso incorretto possono provocare danni, per cui su di esse vengono impressi simboli o diciture per ricordare le manovre da evitare in assoluto.
 
Sin dal loro primo sviluppo risalente a oltre 200 anni fa, le batterie sono rimaste tra le fonti di produzione di energia relativamente più costose e la loro produzione richiede il consumo di molte risorse di un certo valore e spesso implicano anche l'impiego di sostanze chimiche pericolose, per questo fin dagli anni '20 si è cercato di recuperare questi elementi rigenerandoli (ridandogli carica elettrica), operazione che richiede differenti circuiti e non adatta a tutti i tipi di pile oppure si attua il riciclo delle loro componenti.[18] Per questa ragione esiste una specifica rete di riciclaggio (in italia regolamentata dal decreto legislativo 188 del 2008 che prevede sistemi collettivi e consorzi che raggruppano i produttori di pile e batterie, responsabili secondo la normativa della gestione dei rifiuti di questi prodotti) atta a recuperare dalle batterie usate parte dei materiali di maggiore tossicità e anche altri materiali di un certo valore. Le norme italiane prevedono che le batterie esauste siano considerate a tutti gli effetti dei rifiuti pericolosi e che quindi l'intero ciclo di vita dello smaltimento sia tracciato da parte di chi genera il rifiuto e da chi lo smaltisce. Eventuali irregolarità sono penalmente perseguibili.
 
 
 


#176 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 26 settembre 2017 - 06:29

La tastiera
 
1280px-Computer_keyboard_US.svg.png
 
La tastiera si presenta come una serie ordinata di tasti la cui pressione permette l'inserimento, nella memoria del computer, di un particolare carattere, oppure l'esecuzione di un particolare comando da parte del computer. A tal fine, su ogni tasto, è presente una serigrafia che ricorda all'utente a quale carattere o comando corrisponde il tasto.
 
Nell'implementazione odierna più comune, la maggior parte dei tasti consente l'inserimento di due o anche tre caratteri diversi. Normalmente un carattere/comando è ottenuto mediante la semplice pressione del tasto, gli altri caratteri/comandi del medesimo tasto attraverso la pressione contemporanea di un particolare tasto funzione.
 
Ad ogni pressione di un tasto il computer opererà una codifica ovvero una conversione/associazione del simbolo dell'alfabeto, numeri, punteggiatura o quant'altro in un formato digitale ovvero una sequenza di zeri e di uno comprensibili al calcolatore in modo che possa operare su di essi secondo la logica booleana tipica del calcolatore. Il processo opposto si ha quando si deve fornire un output all'utente tramite monitor o stampante. Uno dei codici più diffuso per tale tipo di operazione è il codice ASCII il quale opera una codifica a 7 bit ovvero utilizza in tutto 7 simboli binari per codificare complessivamente 27=128 combinazioni (codici da 0 a 127), ma solo i codici maggiori di 32 sono associati simboli grafici ed il codice 32 è dedicato allo spazio. Dato che nella codifica ASCII non sono previste le lettere accentate, sono state sviluppate delle codifiche a 8 o più bit che includano anche tali simboli quali le ISO 8859 e UTF-8 ma solo un sottoinsieme dei codici aggiunti viene reso accessibile direttamente dalla tastiera, spesso sacrificando altri caratteri meno comuni: ad esempio le tastiere per la lingua italiana spesso sono prive delle parentesi graffe.
 
Esempio
V · D · M
Tastiera IBM/Windows (disposizione IT)
Esc F1 F2 F3 F4 F5 F6 F7 F8 F9 F10 F11 F12 Stamp/
R Sist Bloc
Scorr Pausa/
Interr
 KB Italian.svg
Ins Inizio Pag↑ Bloc
Num / * -
Canc Fine Pag↓ 7 8 9 +
4 5 6
1 2 3 Invio
0 .
Tipologie[modifica | modifica wikitesto]
 
In basso a destra la tastiera esadecimale integrata nel MOS KIM-1
Sostanzialmente la tastiera si distingue nelle due seguenti tipologie:
 
tastiera numerica;
tastiera alfanumerica.
La tastiera numerica permette solo l'inserimento di numeri e l'esecuzioni di comandi, mentre quella alfanumerica anche l'inserimento di caratteri alfabetici. Attualmente la tastiera di norma è una tastiera alfanumerica. Le prime tastiere, quando ancora i computer erano in grado di elaborare solo numeri, erano invece numeriche. Oggi la tastiera numerica si può trovare ancora in computer special purpose.
 
Tastiera numerica
La tastiera numerica si distingue in varie tipologie a seconda dei sistema di numerazione che supporta:
 
tastiera ottale;
tastiera decimale;
tastiera esadecimale.
La tastiera ottale permette l'inserimento di numeri in base 8. La tastiera decimale permette l'inserimento di numeri in base 10 (ma anche in base 8). La tastiera esadecimale permette l'inserimento di numeri in base 16 (ma anche in base 10 e in base 8).
 
Tastiera alfanumerica
Per l'utilizzo efficiente e veloce della tastiera alfanumerica esiste una tecnica, la dattilografia, nata con la macchina per scrivere. Nella maggior parte dei casi la tastiera alfanumerica ha mutuato infatti la disposizione dei tasti da tale dispositivo.
 
Sono adottati vari schemi per la disposizione dei tasti delle tastiere alfanumeriche. Il più comune di essi è il QWERTY. Altri schemi sono il QWERTZ, il QZERTY, l'AZERTY e il C'HWERTY.
 
QWERTY
Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: QWERTY.
 
Parte di una tastiera QWERTY
QWERTY (pronuncia /'kwerti/) è oggi il più comune schema per tastiere alfanumeriche, utilizzato nella maggior parte delle tastiere per computer ma anche nelle macchine per scrivere. È utilizzato anche nella maggior parte delle tastiere alfanumeriche italiane.
 
Varianti della QWERTY
Per lingue diverse dall'inglese sono stati introdotti piccoli cambiamenti allo schema. In Germania vengono scambiate tra loro le lettere Z e Y, poiché in tedesco la Z è molto più comune della Y e compare molto spesso nella combinazione tz; di conseguenza, le tastiere tedesche vengono chiamate tastiere QWERTZ. In Italia le tastiere per PC hanno assunto lo schema QWERTY mentre quelle per macchine per scrivere mantengono uno schema QZERTY, dove la Z è scambiata con la W e la M si trova a destra della L.
 
Le tastiere francesi per PC impiegano lo schema AZERTY e quelle per macchina da scrivere hanno, come quelle italiane, la M posizionata a destra della L. Infine per la lingua bretone è stata creata la variante C'HWERTY che permette l'accesso diretto alle lettere C'h, CH, Ñ e Ù.
 
Altri schemi
 
La tastiera di Dvorak, versione inglese
Dal momento che le tastiere moderne non soffrono dei problemi meccanici che affliggevano le vecchie macchine per scrivere, la separazione delle lettere più frequentemente usate, propria dello schema QWERTY, non è più necessaria. Svariati schemi alternativi, come la sistemazione semplificata di Dvorak (ideata da August Dvorak e William Dealey e brevettata nel 1936), sono stati progettati per accrescere l'ergonomia (velocità e comodità degli utenti), soprattutto spostando le lettere più comuni nella riga centrale e massimizzando l'alternatività delle mani. L'efficacia di questi schemi è dibattuta, ma è spesso citato che i record mondiali di velocità nella digitazione sono generalmente ottenuti utilizzando lo schema di Dvorak. Alcuni studi hanno dimostrato che i metodi alternativi sono più efficienti, ma il più grande vantaggio secondo Dvorak ed altri studiosi di schemi alternativi sarebbe il comfort ergonomico. L'inventore del sistema QWERTY, Christopher Sholes, ha brevettato una disposizione dei tasti simile a quella di Dvorak che però non è mai divenuta popolare.
 
Alcuni ricercatori, quali l'economista Stan Liebowitz della University of Texas presso Dallas, e Stephen E. Margolis della North Carolina State University sostengono d'altra parte che il sistema QWERTY non sia meno efficiente di altri schemi. Altri detrattori invece ritengono che August Dvorak si impose per guadagnare dal successo della sua invenzione, e che tramandò il "mito dell'efficienza" della sua tastiera per incrementare gli incassi. Altri fautori del sistema QWERTY pensano che passare dallo schema di Dvorak ad un altro richieda più sforzi che imparare a digitare, a causa della rieducazione della memoria muscolare delle dita. Chi usa il PC deve inoltre dimenticare l'abitudine alle combinazioni di tasti (ad esempio con il tasto CTRL: Ctrl+C per copiare, Ctrl+X per tagliare), sebbene alcuni programmi e sistemi operativi permettano l'uso di schemi alternativi assieme alle scorciatoie da tastiera proprie del sistema QWERTY.
 
Ad ogni modo, gli oppositori delle tastiere alternative puntano molto sull'ubiquità propria del sistema QWERTY, perché i costi da sopportare nell'utilizzare un sistema ritenuto inefficiente sono molto minori di quelli che servirebbero a rieducare i dattilografi. Infatti, la vicenda del sistema di Dvorak è talvolta utilizzata come esempio nel mondo dell'economia per illustrare le difficoltà dei cambiamenti. Non è insolito trovare utenti del sistema di Dvorak che digitano anche su tastiere QWERTY, proprio a causa dell'estrema diffusione di tale sistema.
 
La tastiera alternativa XPeRT è stata progettata per tentare di superare il problema della refrattarietà al cambiamento, attraverso la diminuzione di differenze dal sistema QWERTY. Essa differisce soltanto in due lettere, A+N, e aggiunge un secondo tasto "E" (13% di tutti i caratteri); quella di Dvorak invece cambia 24 lettere. Quest'ultima inoltre dispone cinque tra le più frequenti lettere alle estremità della tastiera (A, S, O, R, N): XPeRT ne decentra solamente una (S), mentre le altre rimangono centrali. XPeRT accresce le sequenze di accavallamento delle mani (digrammi), dal 50% della tastiera QWERTY, all'83% della tastiera XPeRT, per aumentare la velocità di digitazione. Anche lo schema di Dvorak fu ideato per questo scopo, e realizza l'80% di digrammi da sovrapposizione delle mani. La tastiera di Dvorak si concentra sulla fila centrale, riducendo la mobilità delle dita; al contrario, XPeRT non usa questo mezzo, scegliendo di ridurre i cambiamenti rispetto allo schema QWERTY. Le statistiche sui digrammi qui utilizzate sono state prese dal brevetto USA della tastiera di Dvorak del 1936.
 
Tastierina numerica
La tastiera alfanumerica può essere dotata della cosiddetta tastierina numerica (anche detta tastierino numerico). La tastierina numerica è un gruppo di tasti che replica i tasti dei numeri e degli operatori aritmetici. Tali tasti sono disposti tutti affiancati e hanno la funzione di velocizzare le operazioni aritmetiche[2] per chi ne fa un utilizzo intenso (ad esempio un contabile). Questa tastierina può essere attivata e disattivata, usando un tasto "blocco" (Numlock).
 
Le tastiere dei computer portatili (netbook e notebook) sono solitamente prive di questa tastierina per ridurre l'ingombro dei dispositivi. Per compensare questa assenza è presente un ulteriore tasto modificatore Fn (function), spesso di colore alternativo, azzurro o anche arancione purché differente dal colore degli altri tasti, che permette di usare i tradizionali tasti alfabetici come quelli della tastierina numerica.
 
Curiosità
Broom icon.svg
Questa sezione contiene «curiosità» da riorganizzare.
Contribuisci a migliorarla integrando se possibile le informazioni all'interno dei paragrafi della voce e rimuovendo quelle inappropriate.
Molti credono che QWERTYUIOP sia anche il testo del primo messaggio e-mail mai inviato; in realtà è lo stesso inventore della e-mail Ray Tomlinson che ha affermato di aver inviato nel 1971 messaggi elettronici di prova del tipo QWERTYUIOP, e che quindi avrebbe potuto benissimo aver scritto altre cose senza una logica apparente come: "1 2 3 prova prova" o simili.
Nel libro Artemis Fowl: La colonia perduta, Qwan propone a N°1 di adottare come nome da stregone Qwerty, dato che deve cominciare con "Qw".
QWERTY è il nome di una canzone del gruppo musicale statunitense Linkin Park presente nell'EP Underground 6.
Sistemi alternativi
Esistono inoltre sistemi di riconoscimento della scrittura o della voce che possono integrare le funzioni della tastiera o sostituirla dove necessario.
 
Tra le tecniche per l'inserimento di dati alternative all'uso della tastiera, vanno ricordati i codici a barre e i lettori di bande magnetiche e di smart card. Questi ultimi sono molto più adatti di una tastiera per l'inserimento di codici di sicurezza, password e applicazioni di crittografia asimmetrica.
 
Tecnica
 
Tastiera meccanica di uno smartphone BlackBerry
Le tastiere possono essere di vario tipo a secondo del tipo di tasti utilizzati:
 
Membrana, si tratta di tasti munito di una componente che chiude un circuito tramite un contatto a membrana
Meccanici, si tratta di tasti che azionano un interruttore di varia natura
Proiezione laser, si tratta di una proiezione laser dei caratteri
Inoltre possono essere suddivise in base alla loro consistenza:
 
Rigide, soluzione comune, dove la tastiera ha una forma non alterabile
Morbide, soluzione utilizzata per ottenere tastiere avvolgibili, per tale soluzione viene utilizzata la tecnica dei tasti a membrana
Inoltre il collegamento del dispositivo può essere:
 
Cablato, tramite un cavo che può avere un collegamento PS/2 port, USB o di altra natura
Senza fili, generalmente tramite bluetooth
 
 


#177 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 04 ottobre 2017 - 03:45

L'elastico
image.jpg
 
La sua storia inizia lontano nel tempo e nello spazio, quando, in Sud America, all'inizio dell'XI sec., gli indigeni usano la resina bianca raccolta dall'albero “Hevea Brasiliensis”, da loro chiamato “caa-o-chu”, “albero che piange”, per creare oggetti di culto e di svago.
Leggi tutto cliccando "Read More" qui sotto
Le prime notizie che in Europa si hanno sulla gomma arrivano all'inizio del 1500, quando alcuni spagnoli di ritorno dal "Nuovo Mondo" riferiscono di una sostanza che i nativi ricavano da una pianta che cresce nelle foreste pluviali.
Questa resina non trova subito impiego nella produzione in Europa. La difficoltà della sua lavorazione e la grande sensibilità alle variazioni di temperatura, celano le sue particolari qualità.
Nel 1770, il chimico e naturalista inglese Joseph Priestley scopre che la gomma, sfregata sulla carta, ne cancella i segni di matita.
All'inizio del 1800 inizia lo sfruttamento su larga scala della gomma naturale importata dalle piantagioni dell'America del Sud. L'impiego principale è quello della preparazione di indumenti impermeabili; dopo la scoperta che la nafta di carbone hanno la proprietà di sciogliere la gomma rendendola spalmabile. I tessuti impermeabili vengono realizzati applicando uno strato di gomma tra due strati di tessuto.
Nel 1803, nasce a Parigi la prima fabbrica di gomma: si producono prodotti elastici con i quali confezionare giarrettiere e bretelle. Questi prodotti hanno però due grossi inconvenienti: già a temperatura normale sono appiccicosi, ma l’effetto peggiora con l’aumentare della temperatura. Al contrario, con il freddo, divengono duri e rigidi.
Nel 1823, in Inghilterra, Thomas Hancock scopre che il caucciù, lavorato su laminatoi, diventa malleabile: si sviluppa così quello che ancora oggi è uno dei processi principali nella lavorazione della gomma: la “masticazione”.
Ma il vero mutamento che dà il via all’industria della gomma in America e in Europa è datato 1839, quando Charles Goodyear scopre la vulcanizzazione - la capacità del lattice di unirsi allo zolfo ad alta temperatura -, dando così origine ad un prodotto dotato di superiori proprietà meccaniche e fisiche rispetto al caucciù grezzo: il procedimento verrà brevettato nel 1844.
Masticazione e vulcanizzazione diventano così i processi fondamentali dell'industria della gomma: grazie a essi è finalmente possibile la produzione di articoli in gomma, tra i quali il pneumatico realizzato e brevettato nel 1888 a Belfast da John Boyd Dunlop.
Ed è proprio partendo dalla gomma vulcanizzata che Stephen Perry, inventore e socio della Messers Perry and Company, Rubber Manufactures di Londra, concepisce l’elastico. Il brevetto porta la data del 17 marzo 1845.
La storia della gomma prosegue, ovviamente. Ma noi ci fermiamo qui. Guardiamo il nostro elastico con occhi nuovi. E pensiamo a quanti usi abbiamo fatto di questo piccolo oggetto dalla storia avventurosa.
 
 


#178 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 10 ottobre 2017 - 06:06

La ceramica
 
220px-Cup_Apatouria_Louvre_G138.jpg
 
La ceramica è conosciuta fin dai periodi preistorici e si suppone che la sua invenzione sia avvenuta solo due volte nella storia dell'umanità: tra le popolazioni sahariane e in Giappone[3]. Da questi luoghi d'origine si è poi diffusa in tutto il mondo.
 
I resti di ceramica più antichi al mondo si trovano nei siti della grotta di Yuchanyan (Hunan, Cina), dove sono datati col metodo del carbonio-14 16100-14500 a.e.v. e a Miaoyan (Guangxi, sempre in Cina), qua invece datati 17100-15400 a.e.v.[4] L'antichità di tali siti è pari, se non superiore d'alcuni millenni,[5] ai siti corrispondenti in Giappone del principio del periodo Jōmon, i siti di Simomouchi e di Odai Yamamoto datati 17000 e 15000 a.e.v.[6]
 
Successivamente l'arte vide l'introduzione del tornio, che consentì di ottenere facilmente oggetti aggraziati e di perfetta simmetria rispetto all'asse di rotazione. La ceramica dipinta venne esportata dall'Anatolia e dai territori siriaci verso l'Europa intorno al III millennio a.C., dove però prevalse l'interesse per le forme e per le anse.
L'introduzione della verniciatura vetrosa, in uso a partire dal II millennio a.C. in Mesopotamia, migliorò ulteriormente la resistenza all'usura e le caratteristiche estetiche. Una vera rivoluzione si ebbe con la scoperta della lavorazione della porcellana, che si fa risalire all'VIII secolo d.C. in Cina. Altri centri antichi di notevole importanza risultarono quelli iraniani, come ad esempio Tepe e indiani, come Daro e Harappa.
 
 
Wedgwood, copia del Vaso Portland in gres (1790 circa), Cleveland Museum of Art
L'antica Grecia ereditò la tecnica della ceramica dalla civiltà minoico-micenea. Dal VI al V secolo a.C. Atene dominò i mercati con la sua produzione di vasi, ma nel IV secolo a.C. questa decadde. Sorsero altre fabbriche locali in Beozia, Etruria, Magna Grecia e Sicilia. La produzione di queste lasciò un segno tanto profondo che, molti secoli, dopo, Josiah Wedgwood chiamò Etruria la sua manifattura di porcellane, destinata a diventare una delle più famose del mondo.
 
In età augustea si diffuse la ceramica aretina, con decorazione a rilievo. A questa seguì in tutto l'Occidente romano la ceramica a rilievo detta "terra sigillata", che rimase in uso fino al termine dell'impero.
 
Intorno all'anno mille sorse in Europa, nel tentativo di imitare i prodotti orientali, la maiolica.
Nel tardo Medioevo le ceramiche venivano realizzate con il tornio, cotte al forno e impermeabilizzate con una vernice vetrosa. Dopo il XIII secolo si incominciano ad usare anche altri colori e decorazioni più sofisticate. In questo periodo l'Italia centrale, sviluppò i maggiori centri di produzione: Orvieto, Siena e Faenza. Nel XV secolo si elaborarono varie forme decorative, sia per la coloristica sia per le cosiddette storie o racconti descritti e raffigurati. La produzione di questo periodo è ben rappresentata, ad esempio, dal celebre servizio realizzato da Nicola d'Urbino per Isabella d'Este e per la corte dei Gonzaga.[7] Il secolo XVII fu al centro di una grande importazione di prodotti cinesi che influenzò il gusto europeo. Solamente agli inizi del Settecento l'alchimista tedesco Böttger a Meissen riuscì a produrre una ceramica dura, almeno quanto quella cinese, la porcellana, grazie alla scoperta del caolino.[8]
 
Verso la fine dell'Ottocento la produzione di ceramica prende corpo, grazie all'introduzione di alcune tecniche industrializzate. In Italia, nel modenese, si mette a punto una tecnica che permette di aumentare la produzione di piastrelle, all'epoca in uso quasi solo in cucina e bagno.
Negli anni cinquanta si introducono altre consistenti migliorie, quali la pressa automatica e il forno a tunnel. Con queste varianti alla produzione si riesce infine a raggiungere una produzione su scala medio-larga, necessaria per sostenere un mercato in forte espansione. Ma è negli anni sessanta e settanta che il mercato della ceramica in Italia vede una vera impennata. La produzione viene completamente automatizzata in tutte le sue fasi e viene introdotto un nuovo macchinario: l'atomizzatore.
 
Questo consentì di sostituire i filtri pressa usati nella preparazione ad umido degli impasti. Dagli anni ottanta in poi, infine, ci si è concentrati soprattutto sulle tecniche di cottura veloce (cottura rapida monostrato) e sulla riduzione dell'impatto ambientale della produzione. Da pochi anni vengono utilizzati anche per la costruzione di dischi per impianti frenanti, mescole di carbonio e ceramica, in grado di diminuire l'effetto del fading; e poi anche per il suo peso contenuto; ancora in fase di progetto viene montato solo su vetture di alto livello, come Ferrari, Porsche e Lamborghini.
 
Da sottolineare oggi la valenza che la modellazione ceramica ha assunto in campo educativo sia per lo sviluppo delle attività manuali e creative sia nel settore del recupero cognitivo.
 
 
 
 


#179 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 18 ottobre 2017 - 04:20

Microfono
 
220px-Various-microphones.JPG
 
 
Gli storici della “scienza” – o forse solo gli storici della “tecnica”, come distingue l’amico Cimino – sanno bene chi è stato il professor David Edward Hughes, il “principe dei telegrafisti”, ma il grande pubblico ne conosce a malapena il microfono a bastoncino di carbone qui raffigurato (dall’ottimo sito del meritatamente celebre museo del Cav. Pelagalli a Bologna, a destra; dalla rivista L’Électricité 1879, p. 119, al centro).
 
Di Hughes io, per tutto il 1997, ho raccolto tutti gli scritti originali e me li sono letti (strano, ma vero!): una ventina di chili di carte, dove c’è di tutto: magnetismo, telegrafo stampante, bilancia d’induzione, telefonia, radio, ecc. (per chi interessa ho incollato in calce a questa pagina la bibliografia che mi ero fatta all’epoca). Qui mi limito a dire il minimo indispensabile sul suo microfono ad H fatto con tre chiodi (disegno a sinistra).
 
Hughes (dopo Du Moncel e Berliner) scoprì che oltre ai contatti elettrici perfetti o rigidi si possono avere i cosiddetti “contatti imperfetti” o sciolti (loose), dipendenti cioè dal semplice appoggio di un estremo del circuito sull’altro, per azione della gravità. Da tale “imperfezione”, stranamente, nacque il microfono (prima con i chiodi, poi con catenelle, con mine di carbone, con granuli e infine polveri di carbone), l’apparato che in unione al telefono di Bell permise lo sviluppo vertiginoso delle comunicazioni elettriche.
 
“Hughes diede tale nome all’apparecchio da lui ideato credendo di aver con esso trovato, in acustica, l’equivalente del microscopio nell’ottica. In realtà i microfoni non aumentano l’intensità dei suoni che a loro giungono attraverso l’aria ambiente, anzi l’affievoliscono; invece ripetono, amplificati, i suoni a loro trasmessi mediante corpi solidi nelle loro immediate vicinanze” (G. Motta, Il telefono, Milano 1904).
 
“Per mezzo del microfono suoni debolissimi possono essere ripetuti da un ricevitore lontano e in certe condizioni l’intensità dei suoni riprodotti può essere molto maggiore dell’intensità dei suoni originali. Sono ad esempio molto intensi i suoni dovuti al camminare di una mosca sulla tavoletta del microfono (o dentro la gabbietta cilindrica della versione di Ducretet qui presentata, disegno al centro), lo sfregamento della barba di una penna su questa tavoletta e il battere di un orologio appoggiato sulla tavoletta stessa. Il microfono deve il suo nome alla proprietà che esso possiede di amplificare i suoni assai deboli e si è detto quindi che il microfono ingrandisce i suoni allo stesso modo in cui il microscopio ingrandisce gli oggetti; questo paragone però non è troppo giusto. Non è esatto dire che il microfono amplifica certi suoni a preferenza di altri; questo apparecchio tratta tutti i suoni allo stesso modo, ma esso ha invece non solo la proprietà di ripetere i suoni, ma anche quella di trasformare in suoni le scosse meccaniche, siano esse accompagnate o meno da suoni” (D. V. Piccoli, Il telefono, Milano 1884, p. 105).
 
Pochi forse sanno che il microfono di Hughes era reversibile e poteva funzionare anche come ricevitor
 
Tipi di microfono
Esistono diversi tipi di microfono che basano il proprio funzionamento su differenti tecnologie e metodi di conversione.
 
I microfoni possono essere classificati in base a:
 
tipologia del sistema meccanico: (in pratica il tipo di trasduttore): a membrana, a nastro e a cellula;
grandezza oggetto della trasduzione: a pressione, a gradiente di pressione, a spostamento e a velocità;
principio di trasduzione: a variazione di resistenza, elettromagnetici (o magnetici o dinamici), elettrostatici e piezoelettrici;
necessità o meno di alimentazione: con filo e senza filo.
A variazione di resistenza
Microfono a carbone
 
Antica capsula microfonica a carbone
Praticamente non più utilizzato, il microfono a carbone sfrutta la variazione di resistività di granuli di carbone sottoposti a compressione meccanica dalla sottile membrana che chiude la capsula che li contiene.[1] Economico da costruire, può tuttavia coprire un campo di frequenza molto limitato. Erano di questo tipo i primi microfoni radiofonici (quelli stile anni '30, che si vedono nei vecchi film), ma anche le capsule microfoniche adottate per i telefoni a cornetta in uso fino agli anni 80;[1] agitando tra le dita la capsula, è percepibile il movimento dei granuli.
 
Microfono dinamico
Il microfono dinamico è strutturalmente simile ad un piccolissimo altoparlante, con funzionamento inverso: sfrutta il fenomeno dell'induzione elettromagnetica per convertire il movimento di una membrana (la parte destinata a raccogliere le pressioni sonore, normalmente costituita da una pellicola di mylar, poliestere dello spessore di pochi decimi di mm) in forza elettromotrice, grazie ad un avvolgimento di filo conduttore sottilissimo meccanicamente fissato alla membrana stessa chiamato bobina mobile. Tale struttura è immersa nel campo magnetico generato da un nucleo di magnete permanente. Il movimento della bobina mobile nel campo magnetico genera, ai capi del filo di cui è composta, una corrente elettrica proporzionale all'ampiezza dei movimenti dell'avvolgimento e quindi, in definitiva, alla magnitudo del segnale acustico: questa corrente costituisce il segnale elettrico audio il quale, tramite un cavo oppure via radio, viene trasferito alla console o agli outboard.
 
Microfono a nastro
Usano un nastro sottile e, a volte, ondulato sospeso in un campo magnetico. Il nastro è collegato da un circuito elettrico all'uscita audio del microfono cosicché le sue vibrazioni nel campo magnetico possano generare un segnale elettrico. Sia il microfono a nastro che quello a bobina mobile hanno in comune la caratteristica di produrre il suono per induzione magnetica.
 
Microfono a condensatore
Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Microfono a condensatore e Microfono a elettrete.
Il funzionamento del microfono a condensatore si basa sulla variazione di tensione ai capi di un condensatore, di cui un'armatura è fissa e l'altra è costituita dalla membrana del microfono stesso, a cui è fornita una quantità di carica Q=V x C: essendo la carica costante, poiché la tensione di polarizzazione è fornita attraverso una resistenza solitamente di 1Gohm, ogni piccola variazione della distanza fra le armature dovuta alla vibrazione della membrana provoca una variazione della capacità che produce una variazione di tensione. Il microfono a elettrete (è spesso usato anche il termine anglosassone electret) si basa sullo stesso principio, ma il campo elettrico è fornito da un elettrete, ovvero un materiale isolante in cui è intrappolata una carica elettrica.
 
Entrambi per funzionare necessitano di un piccolo circuito elettronico adattatore di impedenza. Tale circuito deve essere alimentato: per questo si può usare una batteria, ma spesso si preferisce fornire l'alimentazione tramite lo stesso cavo microfonico (alimentazione Phantom). Esistono diversi standard a cui il circuito può aderire, tra cui alimentazione a 12 volt "T" negativa o positiva e alimentazione phantom 12 positiva o negativa o +48V. Molto spesso tali microfoni, specialmente se di buona qualità, sono composti da due moduli separati: il modulo di alimentazione (con batteria da pochi volt, fino ai 48 volt o Phantom) ed il modulo microfono vero e proprio che può essere ad una, due o quattro celle, per distanze piccole, medie e grandi.
 
La capsula del microfono a condensatore, avendo caratteristiche di alta sensibilità, si presta anche a prelevare suoni anche a grande distanza: per tale uso è possibile accentuare le caratteristiche direzionali del microfono, montando la capsula all'interno di tubi progettati e calibrati per ottenere determinate interferenze additive e sottrattive.
 
Viene spesso impiegato nelle riprese musicali sia negli studi di registrazione che dal vivo e nella sonorizzazione di film durante la presa diretta e nel doppiaggio. Altri impieghi del microfono a condensatore sono: conferenze, televisione (microfoni lavalier e capsule per radiomicrofoni), traduzioni simultanee ecc.
 
Il microfono Lavalier è un tipo di microfono a elettrete molto usato nelle trasmissioni televisive. Si aggancia grazie a una clip sul tessuto del vestito di chi lo usa. Ha il pregio di poter essere usato senza le mani, ma (anche secondo la qualità) ha il difetto di produrre suoni indesiderati quando viene in contatto con il tessuto. Ci possono essere varie strategie per nasconderlo 
 
Microfono piezoelettrico
 
Microfono piezoelettrico
I microfoni piezoelettrici, detti anche a cristallo, sfruttano le proprietà dei materiali piezoelettrici, che reagiscono alle onde sonore generando un segnale elettrico. Tale tipologia di microfono è molto semplice dal punto di vista costruttivo ed economica, per cui è stata molto diffusa dagli anni '50 agli anni '70, prima che facessero la loro comparsa i microfoni di tipo electret.
 
Radiomicrofoni[modifica | modifica wikitesto]
Per ovviare alle scomodità dei cavi di trasmissione del segnale elettrico utilizzati dai microfoni tradizionali, sono stati introdotti, e vengono utilizzati principalmente negli studi televisivi o in manifestazioni dal vivo, i cosiddetti radiomicrofoni, che incorporano, oltre ad una normale capsula microfonica, un circuito trasmettitore che modula il segnale portante radio ed una piccola antenna che trasmette il segnale ad un ricevitore, posto vicino alla console o comunque all'unità che si occupa dell'acquisizione del suono. Il ricevitore si occupa quindi di riconvertire il segnale radio in un segnale audio e passarlo via cavo alla consolle.
 
Tali microfoni sono capaci di funzionare anche a decine di metri dal ricevitore, soprattutto in ambienti privi di ostacoli (in particolare pareti in muratura). Data però la necessità di convertire il suono in frequenze radio e poi viceversa, oltre al rischio che si esaurisca la batteria durante la performance o che altre fonti di onde radio interferiscano con la comunicazione, nei concerti e tanto più negli studi di registrazione musicali vengono preferiti i tradizionali microfoni a cavo.
 
I radiomicrofoni sono disponibili principalmente in tre formati: viene comunemente detto gelato (per evidenti motivi di somiglianza con un cono gelato) il radiomicrofono che presenta una forma simile al microfono tradizionale (in gergo tecnico è detto radiomicrofono palmare) e quello a spillo (detto in gergo tecnico lavalier o "collarino", con riferimento ai vecchi, pesanti microfoni che venivano appesi al collo mediante un cordino come una collana) il radiomicrofono in cui la capsula microfonica è separata dal resto e, data la piccola dimensione, può essere appesa al colletto della camicia o al bavero del vestito di colui che parla/canta oppure ad archetto (detto in gergo tecnico headset) che, attraverso uno scheletro di plastica o metallo, permette di avere la capsula microfonica perpendicolare alla direzione del suono emesso dalla bocca; nei microfoni a spillo e ad archetto il sistema di preamplificazione, conversione e trasmissione si trova in una scatoletta a parte (bodypack), collegata alla capsula per mezzo di un cavetto e che solitamente si tiene attaccata alla cintura: ciò consente una libertà di movimento massima, non essendo più necessario sorreggere il microfono con le mani. L'unico difetto che appartiene al microfono a pulce è, avendo la capsula microfonica di dimensioni ridotte e posizionata solitamente sul bavero, non molto vicino alla bocca, la propensione al fischio (o feedback, anche detto Laarsen). Il microfono ad archetto, invece, essendo naturalmente posizionato vicino alla bocca, ne è quasi immune. I presentatori, oratori o cantanti che necessitano di avere le mani libere o che devono muoversi o ballare liberamente sul palcoscenico utilizzano solitamente microfoni ad archetto ma, altrimenti, i cantanti continuano a preferire il microfono a gelato per la sua timbrica particolare (effetto prossimità) cui siamo tutti abituati e per la possibilità di modulare la voce allontanando ed avvicinando il microfono alla bocca.
 
 

 



#180 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 25 ottobre 2017 - 08:09

Pentola a pressione

 

800px-Pressure.cooker.jpg

 

In antichità, verso il II secolo, venivano usati ad Alessandria d'Egitto dei sistemi primitivi paragonabili alla cottura a pressione
Il prototipo inventato da Denis Papin, generalmente riconosciuto come ideatore della pentola a pressione, si chiamava digesteur e non ebbe successo commerciale.
Nel 1927 la ditta tedesca Silit commercializzò un suo modello, ma soltanto dopo la seconda guerra mondiale iniziarono la diffusione e lo sviluppo di questo metodo di cottura. La ditta francese SEB brevettò in seguito un modello perfezionato, e a partire dagli anni cinquanta nacquero modelli sempre nuovi e sempre più diversi tra di loro.
L'importanza storica della pentola a pressione è molto più grande di quanto si possa immaginare, in quanto fu la base da cui Papin partì per l'idea del motore a vapore.
Vantaggi e svantaggi della cottura a pressione
Il vantaggio principale di questo tipo di cottura sta senza dubbio nel risparmio di tempo. Il consumo di energia viene ridotto in misura drastica (anche perché le perdite di calore sono minime e la cottura procede dunque a fuoco basso). Inoltre, la pentola a pressione aiuta in genere a risparmiare diversi tipi di sostanze nutritive. Da una parte ve ne sono alcune particolarmente sensibili alle alte temperature; dall'altra, però, i tempi di cottura vengono ridotti. L'uso della pentola a pressione permette anche una maggiore efficienza nei luoghi di alta montagna, dove la pressione è minore e dove, in condizioni normali, l'acqua bolle a meno di cento gradi centigradi.
Uno svantaggio del sistema di cottura a pressione sta indubbiamente nel ristretto ambito di uso, dato che non tutti i cibi possono esser preparati con questo metodo.%5B1%5D Tra i cibi più adatti, vi sono senza dubbio i cereali e le patate. Lo stesso discorso vale per i legumi, dato che le alte temperature possono distruggere in maniera ottimale le sostanze nocive che si ritrovano nel seme crudo.
Per quanto riguarda la perdita di vitamine durante la cottura, il discorso va differenziato a seconda del caso. Se da un lato le temperature più alte ne favoriscono la distruzione, va detto che grazie all'accelerazione dei tempi di cottura, la cottura a pressione può benissimo risultare più indicata per preservare questi preziosi elementi nutritivi: infatti la temperatura viene maggiorata di poche decine di gradi, mentre i tempi di cottura possono essere ridotti, per esempio, ad un terzo di quelli necessari per la cottura tradizionale. In più, la pentola a pressione consente la cottura a vapore, senza che il cibo immerso in acqua sia soggetto alla dispersione di vitamine idrosolubili.%5B2%5D.
Uso della pentola a pressione
Nella pentola viene messa una modesta quantità d'acqua, dato che i cibi cuoceranno essenzialmente nell'aria e nel vapore. Molti modelli sono dotati di un coperchio avvitabile e una guarnizione di gomma. Spesso, la valvola è provvista di tacche che indicano se la pressione è sufficiente oppure eccessiva. Parecchi dei modelli che si sono affermati in Italia sono costruiti in forme più sofisticate: si tratta di pentole senza dubbio raffinate, ma spesso più complicate nell'uso.
In linea di massima, la fiamma va tenuta alta fino al momento in cui viene raggiunta la pressione giusta; più tardi, invece, la cottura procederà a fiamma bassa.
Nella pentola a pressione si può:

  • Bollire
  • Cucinare al vapore con un cestello
  • Cucinare al cartoccio
  • Brasare / arrostire - con l'aggiunta di 250-500ml di brodo, vino, o liquido speziato.

Prima dell'apertura, sia in caso di cottura ultimata che nel caso si voglia verificare il punto di cottura, la pentola ed il contenuto devono assolutamente essere riportati ad una pressione normale: questo si fa lasciando riposare per qualche minuto la pentola o aprendo la valvola manualmente. Risulta invece molto discussa la diffusa pratica di mettere la pentola sotto il getto di acqua fredda, specie nel caso di pentole con coperchio flessibile: in tal caso, infatti, si corre il serio rischio che il violento sbalzo di pressione causi il collassamento del coperchio (progettato per resistere alle pressioni dall'interno, ma non alle depressioni) verso l'interno della pentola stessa con conseguenti possibili getti di vapore o schizzi di liquido bollente.
Particolare attenzione va infine posta alla manutenzione e alla pulizia di valvola e guarnizioni, al fine di permettere il mantenimento delle corrette pressioni di esercizio.
 
 
indice







Anche taggato con informazione, cultura, guinness, scienza

1 utente(i) stanno leggendo questa discussione

0 utenti, 1 visitatori, 0 utenti anonimi