Vai al contenuto


Le cose più strane e curiose nel mondo

informazione cultura guinness scienza

  • Per cortesia connettiti per rispondere
187 risposte a questa discussione

#101 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 13 aprile 2016 - 05:18

Cappello

 

 

come-pulire-un-cappello-di-feltro_6ab9da

 

Nell'antico Egitto il faraone ricopriva la parrucca con un berretto rosso o una tiara bianca, invece in Mesopotamia erano diffusi turbanti o berretti di pelliccia, così come nell'antica Palestina i sacerdoti ebrei indossavano un cappello conico bianco. Se nell'età minoica le donne cretesi idearono forme varie e bizzarre, nell'antica Grecia e nell'antica Roma invece l'uso del cappello perse ogni importanza.
 
Durante il Medioevo le donne impreziosivano i cappelli con nastrini colorati intrecciati o con fiori, invece per gli uomini era previsto un grande cappuccio che ricadeva sulle spalle, sostituito dal Trecento da un berretto caratterizzato da un codino che poteva cadere a destra o a sinistra a seconda della posizione politica e sociale. Proprio il Trecento diede le origini al cappello moderno ed il Rinascimento elevò questa usanza grazie alla sontuosità dei materiali e delle forme usati.
 
Con l'introduzione delle parrucche il cappello assunse dimensioni sempre più mastodontiche e per tutto il Settecento si impose il tricorno con le caratteristiche tre punte. Dopo il breve periodo rivoluzionario che pretese un ritorno alla semplicità, nell'Ottocento per gli uomini si diffuse una moda sobria, mentre per le donne invece dilagò la bizzarria e la stravaganza.
 
Nel Novecento nacquero le bombette, le pagliette e il floscio che ebbero una grande popolarità per tutto il secolo.
 
L'industria del cappello
Nella seconda metà del XIX secolo l'industria della lavorazione del feltro di lana e della conseguente produzione di cappelli aveva trovato un'importante fioritura a Monza. I numerosi cappellifici monzesi avevano raggiunto grande notorietà, giungendo ad esportare manufatti in tutto il mondo.
 
Un prodotto che copriva una fascia più alta di qualità era quello basato sul feltro di pelo di coniglio. Non va dimenticata la Borsalino, azienda di Alessandria produttrice di cappelli esportati in tutto il mondo.
 
 


#102 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 20 aprile 2016 - 05:25

Tempio
 
1024px-Parthenon.at.Nashville.Tenenssee.
 
Il tempio è una struttura architettonica utilizzata come luogo di culto. Il termine deriva dal latino templum (recinto consacrato), da una radice indoeuropea che ha avuto come esito in greco τέμενος (temenos), che deriva dal verbo τέμνω, "io taglio".
 
Tempio egizio
Exquisite-kfind.png Lo stesso argomento in dettaglio: Tempio egizio.
 
Facciata del tempio maggiore ad Abu Simbel
Nell'antico Egitto il tempio era considerato la "casa del dio", il luogo in cui erano celebrate le feste e da cui partivano le celebrazioni in suo onore.
 
Il modello canonico del tempio egizio era essenzialmente strutturato in tre parti:
 
La parte pubblica iniziava con un lungo viale fiancheggiato da sfingi che conduceva all'entrata del tempio, costituita da una porta fiancheggiata da due piloni (torri rettangolari) generalmente con due obelischi anteposti. Alle spalle della porta vi era un grande cortile rettangolare porticato.
L'ambiente successivo, la sala ipostila, era costituito da una stanza con varie file di colonne. Nei templi maggiori questa era a tre navate.
Il sancta sanctorum, il santuario vero e proprio con la statua del dio, era una piccola sala accessibile soltanto al faraone ed ai sacerdoti addetti al culto divino. Ai lati vi erano altre due stanze, le cappelle per la sposa e il figlio del dio, mentre intorno c'era un corridoio sul quale si aprivano ambienti utilizzati come magazzini per le offerte.
Le pareti del tempio erano decorate con dipinti e geroglifici in onore del dio e del faraone che aveva costruito il tempio.
 
 
Tempio di Luxor (il portico di Amenofi III)
 
 
Complesso templare di Karnak
Tempio greco-romano
Exquisite-kfind.png Lo stesso argomento in dettaglio: Tempio greco e Tempio romano.
 
Una ricostruzione del Partenone ad Atene
 
Tipologie di templi greci
Dal punto di vista architettonico il tempio greco e poi quello romano costituirono una tipologia che ha largamente influenzato l'architettura occidentale anche in epoche successive.
 
Benché la parola "tempio" derivi dal latino templum, quest'ultimo termine in realtà indica non l'edificio, ma un luogo consacrato (recinto sacro, temenos in greco). Per indicare l'edificio sacro in latino veniva invece utilizzato il termine aedes o altri termini (ad esempio sacellum).
 
Il tempio cominciò ad assumere una forma monumentale nell'architettura greca, probabilmente a partire dal mégaron miceneo, a partire dagli inizi del VII secolo a.C., e si sviluppò con l'introduzione degli ordini colonnati che circondavano la cella, ovvero l'ambiente interno che ospitava l'immagine della divinità. La cella poteva essere preceduta da un portico colonnato (prònaos), dove potevano trovarsi le stanze dei tesori, le raccolte di offerte dei fedeli. Talvolta questa funzione spettava invece a una stanza posteriore, detta opistodomo. La zona riservata ai sacerdoti era detta invece adyton. La cella era spesso cinta da cancellate, per impedire il saccheggio delle offerte. La disposizione delle colonne in relazione alla cella definisce le varie tipologie di tempio (in antis, prostilo, anfiprostilo, periptero, pseudoperiptero, diptero, pseudodiptero).
 
 
Il Tempio di Artemide a Efeso, una delle Sette meraviglie del mondo, secondo le più recenti ipotesi ricostruttive
 
 
Il Partenone, sull'Acropoli di Atene
 
 
L'Eretteo sull'Acropoli di Atene
Nell'architettura romana il tempio risente inizialmente dei modelli etruschi, ma presto vengono introdotti elementi dall'architettura greca ellenistica. La più marcata differenza del tempio romano rispetto a quello greco è la sua sopraelevazione su un alto podio, accessibile da una scalinata spesso frontale. Inoltre si tende a dare maggiore importanza alla facciata, mentre il retro è spesso addossato a un muro di recinzione e privo dunque del colonnato. Templi greco-romani sono stati spesso inglobati nell'architettura posteriore celandosi sotto cattedrali (Siracusa) o in normali case (Himera, Camarina), il che ha permesso la conservazione delle strutture.
 
 
Il Tempio di Giove Ottimo Massimo sul Campidoglio a Roma, secondo una ricostruzione moderna
 
 
Il Pantheon nel Campo Marzio, a Roma
Tempio etrusco
 
Resti del tempio etrusco del Belvedere, Orvieto
Dei templi etruschi - e più in generale dell'architettura religiosa etrusca - sono sopravvissute al tempo solo poche testimonianze, a causa del fatto che i templi erano costruiti con materiali deperibili. Le informazioni che si hanno su di essi provengono dai testi di Vitruvio, che li classificava (in particolare le colonne) sotto un nuovo ordine architettonico, quello tuscanico. Solo tramite documenti di epoca romana, quindi, si riesce a ricostruire con buona approssimazione il modo in cui erano fatti.
 
Il tempio era accessibile non tramite un crepidoma perimetrale, ma attraverso una scalinata frontale. L'area del tempio era divisa in due zone:
 
una antecedente o pronao con otto colonne disposte in due file da quattro;
una posteriore costituita da tre celle uguali e coperte, ognuna dedicata ad una particolare divinità.
A differenza dei templi greci ed egizi, che si evolvevano assieme alla civiltà e alla società, i templi etruschi rimasero sostanzialmente sempre uguali nei secoli, forse a causa del fatto che nella mentalità etrusca essi non erano la dimora terrena della divinità, bensì un luogo in cui recarsi per pregare gli dei (e sperare di essere ascoltati).
 
Frequenti erano gli omaggi da portare nei templi, solitamente consistenti in statuette votive in terracotta o bronzo, oppure in offerte sacrificali (come agnelli e capre).
 
Gli unici elementi decorativi del tempio etrusco sono gli acroteri e le antefisse, solitamente in terracotta dipinta. Un esempio è l'antefissa con la testa di Gorgone nel Santuario di Portonaccio a Veio, oggi conservato al Museo nazionale etrusco di Villa Giulia a Roma.
 
Tempio precolombiano
Exquisite-kfind.png Lo stesso argomento in dettaglio: Piramidi mesoamericane.
 
I templi dell'età precolombiana assomigliano molto alle piramidi egizie e alle ziggurat della civiltà mesopotamica. Per i popoli Maya e Aztechi erano situati su grandi piramidi a gradoni e di solito il loro scopo principale era quello sacrificale. Per tutte le civiltà precolombiane, come Maya e Incas, i templi non erano solamente centri di culto e devozione, ma anche e soprattutto osservatori astronomici.
 
 
Piramide azteca di Cholula in Messico
 
 
Piramide azteca a Xochicalco in Messico
 
 
Nelle maggiori religioni moderne
 
Il Duomo di Milano, in stile gotico
Nel cristianesimo, il luogo di culto è chiamato "chiesa", dal greco εκκλησὶα, "assemblea" che in origine designava appunto l'assembramento dei fedeli; solo successivamente il termine è andato ad indicare l'edificio di culto. I primi luoghi di culto cristiani erano case private, poi con la diffusione della religione, e soprattutto la sua legalizzazione sotto l'imperatore Costantino, si iniziarono a costruire luoghi di culto più grandi. Esempio di questa evoluzione fu l'utilizzo della parola "basilica", che nella civiltà romana era un ampio edificio polifunzionale principalmente utilizzato per l'amministrazione della giustizia, e che poi passò ad indicare grandi luoghi di culto cristiani ricavati proprio dalle aule delle antiche basiliche in disuso.
 
Nel cattolicesimo, a differenza delle sinagoghe ebraiche (con l'eccezione del Tempio di Gerusalemme), l'edificio di culto è anche sede della divinità, così come avveniva nella religione greco-romana. Questo perché per il cattolicesimo, anche se spiritualmente Dio è ritenuto onnipresente, la chiesa contiene al suo interno la reale presenza del Corpo e del Sangue di Cristo, sotto le specie eucaristiche.
 
A seconda dell'importanza e delle dimensioni architettoniche (spesso strettamente correlate tra loro), il luogo di culto cristiano viene chiamato:
 
Nel tradizione del protestantesimo francese (comunità ugonotte), la parola "chiesa" viene riservata all'organismo formato dai credenti di un certo luogo, mentre per il luogo di culto si usa la parola "temple". Questo uso è presente, in Italia, anche nella Chiesa evangelica valdese, dove tuttora il luogo di riunione dell'assemblea domenicale viene chiamato "tempio".
 
Tempio mormone
 
Il tempio mormone di Salt Lake City
Exquisite-kfind.png Lo stesso argomento in dettaglio: Tempio (mormonismo).
La Chiesa di Gesù Cristo dei santi degli ultimi giorni considera il tempio un luogo fondamentale per la salvezza degli individui e della famiglie. Allo stato attuale (2010) la Chiesa ha edificato 134 templi in tutto il mondo.
 
I templi sono edifici in cui vengono celebrate delle sacre ordinanze e può essere frequentato solo dai fedeli in possesso di un lasciapassare rilasciato dalle autorità locali della Chiesa. Le ordinanze più importanti celebrate nei templi sono l'investitura, il Matrimonio eterno, il suggellamento delle famiglie e il battesimo vicario in favore dei defunti.
Per le normali riunioni domenicali le singole congregazioni di santi degli ultimi giorni usano altri edifici chiamati chiese o cappelle.
 
Sinagoga ebraica
Exquisite-kfind.png Lo stesso argomento in dettaglio: Sinagoga.
 
La sinagoga maggiore di Roma
Nell'Ebraismo il luogo di culto primo e principale è chiamato "tempio" e, secondo la loro credenza, deve essere costruito a Gerusalemme. A Gerusalemme, nella storia, sono esistiti il Tempio di Salomone e il Secondo Tempio.
 
Dopo la distruzione del Tempio di Gerusalemme, nel 70 d.C., come luogo di culto ha preso via via maggior importanza la sinagoga.
 
A Gerusalemme, dell'antico Tempio resta solo il Muro Occidentale (detto anche "Muro del pianto").
 
Moschea islamica
Exquisite-kfind.png Lo stesso argomento in dettaglio: Moschea.
La moschea è il luogo di preghiera per i fedeli dell'Islam. La parola italiana deriva direttamente dallo spagnolo mezquita, a sua volta originata dalla parola araba مسجد masjid che indica il luogo in cui si compiono le sujūd, le prosternazioni che fanno parte dei movimenti obbligatori che deve compiere il fedele orante.
 
Moschea al-Hasan II in Marocco Moschea della Roccia a Gerusalemme Moschee di Samarcanda Sala della moschea di RomaUn tipo[non chiaro] di masjid particolare è la masjid jāmi‘, la moschea "congregazionale", dove si auspica per l'Islam che si radunino collettivamente i fedeli al fine di adempiere all'obbligo della preghiera obbligatoria (ṣalāt) del mezzogiorno (zuhr) del venerdì.
 
In quanto luogo di preghiera la moschea non ha elementi indispensabili ma solo utili allo scopo. È infatti possibile pregare anche all'aperto, o dentro una casa qualsiasi, purché il terreno riservato alla ṣalāt sia delimitato da qualche oggetto (tappeto, stuoia, mantello, sassi) e sia il più possibile esente da sozzure. Questo perché – come d'altronde per tutti gli atti previsti dalla Legge islamica (sharīʿa) – è richiesto lo stato di purità legale (ṭahāra), ottenibile con lavacri parziali o totali del corpo, mentre il luogo della preghiera deve essere esente da evidenti sporcizie che potrebbero contaminare chi col terreno debba entrare in contatto, come appunto accade nella ṣalāt.
 
 
Moschea della Roccia a Gerusalemme
La moschea ha un miḥrāb (sorta di abside o nicchia che, nelle moschee più umili, può essere semplicemente disegnata su una parete o indicata da qualche oggetto nella preghiera all'aperto) che indica la direzione della Mecca (qibla) e della Kaʿba, considerata il primo santuario musulmano dedicato al culto dell'unico vero Dio (Allāh).
 
Pur non essenziale, una moschea può spesso avere anche un pulpito (minbar) dall'alto del quale un particolare Imām che si chiama khaṭīb, pronuncia la khuṭba, un'allocuzione cioè che non necessariamente propone l'esegesi di brani del Corano.
 
Perché la preghiera sia valida essa deve essere compiuta all'interno di precisi momenti (awqāt) della giornata, scanditi dall'andamento apparente del sole. Per questo uno speciale incaricato (muezzin, dall'arabo mu'ādhdhin) ricorda dall'alto di una costruzione a torre (minareto - dall'arabo manār, "faro") - mediante un suo richiamo rituale salmodiato (adhān) che da quel momento in poi è obbligatorio pregare (in casa, all'aperto, in moschea). Per chi si trovi lontano dal minareto e non possa per qualsiasi motivo udire la voce del muezzìn - oggi aiutata per lo più da altoparlanti - si sciorinano talora ampi panni bianchi, ben visibili anche da lontano.
 
Per le necessità della purificazione, sia all'interno sia nelle immediate adiacenze della moschea è spesso presente una fontana. Importante è infine l'area della preghiera (musalla), tendenzialmente rettangolare per consentire agli oranti di ordinarsi in file e ranghi, al cui interno può essere presente un orologio che in molte occasioni è di antica fattura, utile a segnalare il tempo rimanente perché sia valida la preghiera.
 
Caratteristica di ogni moschea è la mancanza di raffigurazioni umane o animali, in quanto osteggiate dall'Islam. Le decorazioni sono perciò tutt'al più di tipo fitoforme (legate cioè al mondo vegetale) ma, quasi sempre, sono presenti mosaici o scritte che riportano versetti del Corano tracciati con calligrafie considerate particolarmente "artistiche" che hanno dato modo all'Occidente di parlare di arabeschi.
 
Tempio induista
 
Il tempio Akshardham di Nuova Delhi, il tempio più grande del mondo
Exquisite-kfind.png Lo stesso argomento in dettaglio: Mandir.
Nell'induismo il tempio, o Mandir (sanscrito मन्दिर, "casa") è un luogo d'incontro tra il fedele e il Dio cui esso è dedicato, il luogo in cui sperimentare una visione (Darshan) che è epifania, manifestazione e esperienza diretta del divino. Nel tempio vengono celebrate le feste secondo un calendario rituale e delle cerimonie quotidiane (puja), spesso accompagnate da musica e canti sacri (bhajan).
 
Caratteristica di un tempio è la presenza di una murti (immagine) del deva (dio) a cui l'edificio è consacrato e la cui adorazione è l'attività centrale del tempio. Il tempio può essere dedicato a un unico deva, o a più dei tra loro collegati.
 
Tempio shintō
Exquisite-kfind.png Lo stesso argomento in dettaglio: Jinja.
Il termine giapponese che sta ad indicare un santuario shintō è jinja, generalmente costituito da una serie di edifici e dall'area naturale circostante, che può avere dimensioni molto diverse, da un piccolo giardino di pochi metri quadrati, ad intere montagne e colline boscose. Esso è il luogo dove i fedeli possono recarsi per la venerazione degli dèi (kami). Dal 1946, con l'istituzione della Jinja Honcho, la comunità shintoista, tutti i santuari del Giappone sono parte di questa organizzazione, che negli ultimi decenni ha iniziato anche ad aprire nuovi santuari all'estero, in particolare in America e Australia.
 
Tempio buddhista[modifica | modifica wikitesto]
Exquisite-kfind.png Lo stesso argomento in dettaglio: Tempio buddhista.
 
Un gompa Thiske vicino a Leh in Ladakh, in India; un esempio caratteristico di struttura gompa buddista tibetana.
A seconda dell'area geografica in cui si è diffuso, il buddhismo ha prodotto differenti edifici originali per il culto.
 
In India, dove nacque il buddhismo, i primi templi furono ricavati da delle caverne, e nella zona dell'abside vennero conservate le reliquie di Buddha. Di queste opere si possono ammirare esempi in alcune grotte del Maharashtra, tuttora ben conservate. Le sale principali di tali grotte presero il nome chaitya, lo stesso nome che fu dato ai primi templi eretti all'aperto. Questi tipi di templi vengono detti absidali per la presenza delle sacre reliquie nell'abside. In seguito vennero costruiti complessi templari in cui l'edificio principale prese il nome vihara. Si differenzia dal chaitya per l'assenza delle reliquie di Buddha, che venivano invece custodite in una struttura vicina chiamata stupa. Le invasioni musulmane del XII secolo portarono alla distruzione di gran parte dei templi buddhisti ed al declino della fede buddhista. La riscoperta di tale fede e la costruzione di nuovi templi ebbe luogo attorno alla metà del XX secolo.
 
In Tibet, Ladakh, Nepal e Bhutan il tempio buddhista si chiama gompa, un edificio simile ai monasteri o alle abbazie. Gli interni variano da regione a regione, seguendo comunque un unico schema: una sala centrale per la preghiera con una statua di Buddha, panchine per i monaci per la meditazione e le camere per dormire e mangiare. I gompa possono essere accompagnati dai chorten, la locale versione dello stupa indiano, dove vengono custodite le reliquie di Buddha o di venerati monaci.
 
In Cina gli edifici principali furono all'inizio le pagode, versione cinese degli stupa. In seguito gli imperatori e i più prestigiosi aristocratici lasciarono in eredità alla comunità buddhista i loro sfarzosi palazzi, che divennero i vihara e sostituirono le pagode come edifici principali. Con la rivoluzione culturale che fece seguito alla presa del potere dei comunisti di Mao Tse-tung, molti templi furono distrutti ed il buddhismo conobbe un periodo di declino. La normalizzazione dei rapporti avvenuta negli ultimi anni ha portato alla ricostruzione di molti templi ed ha rilanciato la funzione della pagoda.
 
In Giappone il complesso templare buddhista si chiama tera o ji (寺?) ed i suoi componenti sono il tempio principale, chiamato kondo, uno secondario destinato alla lettura chiamato kodo, la pagoda (simile a quella cinese), il cancello d'ingresso (門 mon?) ed un padiglione che ospita la campana. Si possono inoltre trovare templi minori dedicati all'Amitabha Buddha, al fondatore del tempio, all'imperatore, a Kōbō Daishi, il più venerato tra i monaci buddhisti, ed altri ancora. Il sincretismo (神仏習合 shinbutsu shūgō?) operato con il preesistente shintoismo, ha comportato l'acquisizione di elementi architettonici propri di tale religione all'interno dei templi buddhisti.
 
In Thailandia, Laos e Cambogia, il complesso templare viene chiamato wat, composto da un tempio principale, il Phra Ubosot, che è la sala dell'ordinazione, da quello secondario chiamato vihan e dal reliquiario, che corrisponde allo stupa e prende il nome chedi (pronuncia cédi). Altri edifici del complesso sono le sala, padiglioni aperti destinati al riposo, allo studio e alla meditazione, un campanile e un mondop, un edificio in cui vengono conservati i testi sacri e si svolgono determinati riti.
 
Altri
Durante la Rivoluzione francese alcune chiese furono trasformate in "Templi della Ragione".
 
Nell'ambito della Massoneria si utilizza il termine Tempio per indicare i locali all'interno della casa massonica ove si svolgono le cerimonie rituali
 
 


#103 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 27 aprile 2016 - 04:41

Il fumetto
 
220px-AmericasBestComics2229.jpg
 
 
La storia di questo linguaggio, fenomeno diffusosi nel corso del Novecento ma con radici nel secolo precedente, può essere fatta risalire a diverse epoche, quando si è verificata la necessità di associare testi a immagini o rappresentazioni.
 
Per qualcuno la storia del fumetto risalirebbe sino alla preistoria, e specificamente alle pitture rupestri, che per prime mescolavano immagini per significare resoconti di caccia, vita quotidiana o determinate idee o desideri.
 
Nella necropoli di Saqqara compare la cappella funeraria dedicata all'architetto Ankhmahor, dove le raffigurazioni sono inframmezate da iscrizioni che, oltre a descrivere i soggetti raffigurati, riportano anche i dialoghi fra questi ultimi.
 
Nell'antichità classica le decorazioni dei bottegai dell'Impero Romano rappresentavano la merce accostandovi frasi di invito, mentre la Colonna Traiana (113 d.C.) narra con un ritmo spirale le fasi della conquista della Tracia. Similmente l'Arazzo di Bayeux ritrae con una tecnica vicina al moderno fumetto la storia della conquista normanna dell'Inghilterra.
 
Tipica del periodo medioevale è l'illustrazione con funzione religiosa: le scene sequenziali della vita di Gesù e del calvario, le bibbie dei poveri (libretti di poche pagine dove a immagini della storia sacra erano abbinate a versetti biblici o didascalie in latino), le vetrate illustrate delle cattedrali gotiche e le rappresentazioni di santi e angeli dalla cui bocca escono parole in forma di nastri (un'idea forse ispirata dai filatteri ebraici)
 
5fb5081157784d65b626886eafaace83.png
 
È chiaro che discorsi di questo genere sono difficilmente risolvibili, soprattutto perché, nella sua storia, l'uomo ha continuamente usato le immagini per significare determinati concetti o esplicare una qualche narrazione. Persino le prime lingue, come è possibile immaginare, erano esemplate sopra vere e proprie immagini disegnate, come i geroglifici o in generale i pittogrammi. Questo perché l'immagine, contrariamente alla parola scritta mediante un alfabeto, conserva in sé un immediato carattere di iconicità, che permette dunque al fruitore di comprendere discorsi semplici nell'immediato, senza bisogno di un linguaggio complesso (come può essere un linguaggio astratto sottoposto alle norme grammaticali), anche se diventa oscuro quando non praticamente inutile in un numero veramente ampio di casi (generalmente, quasi ogni qualvolta si implichi una comprensione di fatti complessi, non lineari o astratti). Definire il fumetto come "l'arte più antica" (anche quando si consideri l'arte secondo i nostri schemi estetici, che sono tutt'altra cosa rispetto a quelli di un uomo primitivo o a quelli di un uomo classico) pare quindi essere un'azione non lecita, semplicemente perché anacronistica. Il fumetto come è oggi inteso, nonostante abbia così vicini parenti, non può essere nato (almeno come atto volontario) prima del XIX secolo.
 
Il fumetto moderno
 
Yellow Kid
Il personaggio che nel secolo scorso diede il via all'industria del fumetto statunitense come fenomeno di massa fu Yellow Kid, il bimbo nato dalla fantasia di Richard Felton Outcault e caratterizzato da un camicione giallo su cui venivano scritte le battute che pronunciava. Comparve per la prima volta sul New York World del 7 luglio 1895. Il personaggio è tanto famoso che dà nome a un importante premio italiano del fumetto; tuttavia, stando a ricerche successive, il primo fumetto moderno risalirebbe a molto prima, e precisamente ai personaggi del ginevrino Rodolphe Töpffer, autore di volumi a fumetti quali Histoire de Mr. Vieux-Bois (1827) e Dr. Festus (1829).
 
Il fumetto trova il suo ambito essenziale nel quotidiano, al quale giornalmente vengono allegate strisce orizzontali da tre/quattro vignette, contenenti un episodio autoconclusivo o una parte di una storia a puntate, e settimanalmente (nello specifico nell'inserto domenicale) vengono allegate intere tavole (gabbie da tre/quattro/cinque strisce per un totale di 9/12/16 vignette). Il mercato dei cosiddetti fumetti sindacati (perché distribuiti dalle corporazioni sindacate, come la United Features Syndacate ecc.) si dividono per generi sostanzialmente in due filoni, quello delle comic strips (strisce di genere comico, solitamente autoconclusive) e quello delle story strips (storie a trama, di vario genere, solitamente a puntate). Molti fumetti decidono per il taglio feriale, apparendo sei giorni la settimana con tre/quattro vignette al giorno; altri invece optano per l'uscita settimanale (considerata più pregiata perché solitamente a colori); altri ancora, escono sia in striscia che in tavola, anche se di solito, sia per esigenze creative e grafiche, che per differenza di pubblico (chi comprava il giornale tutti i giorni spesso non lo comprava la domenica e viceversa) si cercava di mantenere, qualora la storia fosse a puntate, due filoni narrativi differenti, uno feriale (per le strisce) e uno festivo (per le tavole) e quindi due storie parallele dello stesso personaggio che si svolgevano una sei giorni la settimana e una solo alla domenica. Tra i primi e più citati, oltre a Outcault, Winsor McCay, Lyonel Feininger.
 
Negli anni antecedenti la guerra nasce il comic book, che acquisisce subito un grande successo per via della possibilità di acquistare qualcosa che sia interamente a fumetti (simile all'inserto domenicale, ma più comodo e più facilmente celabile ai genitori, che usualmente non amavano questo genere di pubblicazioni). Sul comic book (quello che noi chiamiamo albo, e che deriva direttamente dalle dime novels e dagli albetti pulp) appaiono storie a puntate di diversi personaggi, come negli inserti domenicali, e come nelle future riviste ombrello. Non è una coincidenza, infatti, che i più longevi personaggi nati in questo periodo, come Superman e Batman, siano appunto nati su riviste contenitore rispettivamente Action Comics e Detective Comics e non su albi singoli (editorialmente rischiosissimi).
 
Mentre il fumetto sindacato mantiene grandi vendite (si arriva facilmente ai milioni di copie vendute, vista la diffusione e il prezzo dei quotidiani cui sono allegati) il comic book rischia spesso di affogare, prima per problemi editoriali, poi per problemi sociali (è il periodo della "corruzione degli innocenti" e del "Comics Code Authority") ma ne esce diventando, almeno in America, un mercato florido.
 
Diversa è la situazione in altri paesi, specie in Italia, dove il fumetto vive gli stessi patemi ma non le stesse vendite americane. Oltre al Corriere dei Piccoli, nascono anche in Italia riviste contenitore che accolgono le uscite d'oltreoceano, ma che ospitano anche i talenti nostrani, in un periodo, quello degli anni trenta, di grande sperimentazione (con personaggi quali il Kit Carson di Rino Albertarelli, pioniere del genere western, le avventure di Dick Fulmine o le imprese fantascientifiche di Saturno contro la Terra). Sperimentazione che si riaccende nel secondo dopoguerra, per portare agli albi a strisce e poi agli albi odierni, dal formato bonelli (ormai formato paradigmatico dell'avventura nelle sue più varie declinazioni) a quello Diabolik (tipico dei gialli), e generando una delle più fervide e interessanti letterature fumettistiche del Novecento, con personaggi che vanno dai semisconosciuti Asso di Picche agli eroi passati come Il Comandante Mark, alle autorità incontrastate come Tex, Diabolik, Topolino, Dylan Dog, Martin Mystere, passando per capolavori ormai quasi persi alla memoria, dal Maestro di Mino Milani, alle storie di Un uomo un'avventura, a Gli Aristocratici di Alfredo Castelli, e a icone che hanno segnato il secolo, da Corto Maltese di Hugo Pratt a Ken Parker di Berardi e Milazzo. La formula più di successo in Italia, dove il mercato è rimasto sostanzialmente di nicchia (e il fumetto è considerato un'arte per poveri, alla stregua degli USA e contrariamente alle opinioni per esempio del pubblico francese o nipponico) è quella del fumetto seriale, che solitamente propone in volumi di brossura dalle 90 alle 200 pagine c.a storie autoconclusive vissute dal personaggio o dai personaggi della serie, uscenti in edicola o in libreria con cadenza regolare (solitamente mensile, più raramente bimestrale, quasi mai trimestrale e meno ancora bisettimanale o quindicinale, uscita solitamente riservata alle riviste spillate). Contrariamente, altrove (per esempio in Francia e in Belgio, ma anche in Giappone) il fumetto è concepito più alla stregua di romanzo a puntate, e le uscite, solitamente irregolari, di un albo di una serie (in Francia e in Belgio di solito cartonato da 48/64 pagg., in Giappone tascabile brossurato da 200/300 pagg.) sono concepite come nuovi romanzi di un ciclo avente gli stessi protagonisti, piuttosto che come un'abitudine ricorrente. Questi formati, inoltre, determinano grandi vendite anche grazie alla grande quantità di pubblico medio (che in Italia non legge fumetti o perché li ritiene di poco valore artistico o perché non legge in generale).
 
Dagli anni ottanta in poi, e specialmente negli ultimi due decenni, il mercato si è aperto a un nuovo genere stilistico, quello delle graphic novel, ossia romanzi a fumetti, autoconclusivi e non legati a una serie, o comunque concepiti come episodici e non seriali.
 
 


#104 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 04 maggio 2016 - 05:40

Il letto

 

330px-Lotte_Heaven._%282185651031%29.jpg

 

Nella preistoria, il letto consisteva in nient'altro che un mucchio di foglie o paglia approssimativamente accumulate in vicinanza di una fonte di calore; in casi particolarmente disagiati, poteva essere utilizzata a quello scopo anche la nuda terra. Ma l'evoluzione culturale, mossasi attraverso la Mesopotamia, l'Egitto e la Grecia, produsse in seguito giacigli formati da tessuti ripieni di una sostanza morbida, come ad esempio la lana, per le persone di stirpe nobiliare; nei paesi mediorientali come in quelli indiani era invece di uso comune per il popolo il dormire su di un tappeto. Nodo nevralgico del progresso nel campo dei letti fu poi, all'epoca di Roma, il triclinium, molto più simile ai mobili moderni ma non progettato esclusivamente per dormire: era infatti utilizzato dalle persone più importanti come senatori o consoli anche in occasione di banchetti o di riunioni. Nel corso del Medioevo, mentre per le casate reali del Nord Europa nascevano il guanciale ed il letto a baldacchino, esclusivamente riempiti di piume d'oca, i ceti inferiori ed in particolare i pastori cominciarono ad utilizzare il suddetto materasso di lana; chi non aveva risorse economiche sufficienti ad acquistarlo era costretto a dormire su semplici sacchi pieni di paglia. Quando, dopo la scoperta dell'America, si cominciarono a coltivare le piante di mais, le foglie di tale vegetale sostituirono in vari casi la paglia dei materassi, producendo così un oggetto più comodo ma anche più rumoroso del precedente, a causa dello schiacciamento delle dure fibre che compongono le foglie. Nel corso dei secoli, il letto delle classi superiori divenne alla portata dei ceti medio-bassi, diffondendosi così in tutte le abitazioni; l'ultimo gradino dell'evoluzione fu raggiunto nel Novecento, nel momento in cui i materiali sintetici si sostituirono a quelli naturali da sempre adoperati dall'uomo per garantirsi un buon riposo.
 
Vi sono oggi anche delle reti a segmenti, che possono essere angolate rispetto al resto, sia direttamente a mano (e fissate con un fermo) o mediante delle manovelle. In questi casi si possono far assumere al materasso diverse conformazioni. In particolare è possibile sollevare progressivamente la parte che corrisponde alla testa e al busto del dormiente, che assume così una posizione semiseduta. È anche possibile alzare la parte di materasso corrispondente alle gambe,e permettere una combinazione dei vari movimenti. La versione più evoluta di questi letti "a conformazione variabile" è basata su dei motori elettrici, che fanno uso della corrente di rete. In questo caso (mediante un telecomando generalmente a filo) chi sta sul letto può comandare lo spostamento a piacere e regolare da solo la posizione man mano lo preferisce.
 
 


#105 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 11 maggio 2016 - 05:27

Le fogne

 

S%C3%A3o_Cucufate_roman_canaliza%C3%A7%C

 

Le prime testimonianze storiche di fognature risalgono ad un periodo compreso tra il 2500 e il 2000 a.C. circa e sono state trovate a Mohenjo-daro, nell'attuale Pakistan. Dai resti si è potuta ricostruire la fisionomia della città che, sotto il livello stradale, presentava una vasta rete di canali in mattoni in grado di convogliare le acque reflue provenienti dalle abitazioni. Anche la città di Ninive, capitale del regno assiro tra l'VIII e il VI secolo a.C. era fornita di una rete fognaria.
 
Le fognature antiche più efficienti furono però quelle di Roma. La prima cloaca romana di cui si abbia notizia risale al VII secolo a.C. e fu progettata per bonificare gli acquitrini che occupavano le vallate alla base dei colli dell'Urbe, e far defluire verso il Tevere i liquami del Foro Romano, di Campo Marzio e del Foro Boario.
 
La realizzazione più importante fu però la cloaca massima, la cui costruzione fu avviata nel VI secolo a.C. sotto il leggendario re di Roma di origine etrusca Tarquinio Prisco. Con la cloaca massima (inizialmente era un canale a cielo aperto ma successivamente fu coperto per consentire l'espansione del centro cittadino), di cui si possono vedere alcuni tratti e lo sbocco presso i resti del Ponte Rotto, i romani ci hanno tramandato uno dei più importanti esempi di ingegneria idraulico-sanitaria.
 
Con la caduta dell'impero, non vennero più costruite nuove fogne e spesso quelle esistenti furono abbandonate. Solo molto più tardi, nel XVII secolo, si sentì nuovamente l'esigenza di costruire fognature a seguito della forte urbanizzazione di città come Parigi e, dal XIX secolo, Londra.
 
Utenze[modifica | modifica wikitesto]
Le fonti di produzione dei reflui, in un agglomerato urbano, sono soprattutto le case e i luoghi di riunione abituali come la scuola, il posto di lavoro, la caserma, l'ospedale, ecc.
 
Non vanno inoltre dimenticate le altre fonti di produzione, esse pure presenti nel tessuto cittadino, quali piccoli opifici, botteghe artigiane, officine meccaniche, garage, lavanderie, caseifici, studi fotografici, laboratori chimici e di analisi, macelli, ecc., che contribuiscono con scarichi di particolare natura, a volte ad elevatissimo tasso inquinante.
 
Inoltre c'è anche il contributo dei mercati all'aperto e delle fiere periodiche, dei luna park e di quante altre attività l'uomo ha concepito nel suo lungo cammino dalle origini ai nostri giorni.
 
Per la normativa vigente in materia non è ammesso lo smaltimento dei rifiuti, anche se triturati, in fognatura, ad eccezione di quelli organici che provengono dagli scarti dell'alimentazione trattati con apparecchi dissipatori di rifiuti alimentari che ne riducano la massa in particelle sottili, previo accertamento dell'esistenza di un idoneo sistema di depurazione. La normativa vigente in materia prevede che gli agglomerati urbani con un numero di abitanti equivalenti superiore a 2.000 devono essere provvisti di reti fognarie (fognatura dinamica[2]) per lo smaltimento delle acque reflue urbane.
 
Acque nere
Per quanto sopra, tutte le acque originate dalle suddette utenze vengono definite acque nere. In una definizione più generale, le acque nere sono quelle acque riconosciute nocive per la salute pubblica o moleste per il pubblico.
 
Acque bianche
Di contro tutte le acque non riconosciute nocive per la salute pubblica o moleste per il pubblico vengono chiamate acque bianche.
 
Tra queste ci sono:
 
le acque meteoriche di dilavamento provenienti da tutte le aree aperte impermeabilizzate quali, strade, parcheggi, tetti, cortili, ecc.
le acque utilizzate per il lavaggio delle strade
le acque di raffreddamento provenienti da attività industriali
Tipi[modifica | modifica wikitesto]
Tutti i rifiuti liquidi comunque prodotti vanno collettati alla fognatura dinamica. Essa è costituita dalle opere di raccolta ed immissione delle acque di rifiuto nei collettori stradali, dalla rete composta da questi ultimi, dagli eventuali manufatti di controllo idraulico, dai sollevamenti e dai manufatti di scarico.
 
A seconda del refluo di provenienza le fognature si distinguono in:
 
fognature urbane:
fognature industriali.
I sistemi fognari urbani si distinguono ulteriormente in:
 
sistema unitario o fognatura mista: raccolgono sia le acque di rifiuto urbane (acque di tempo asciutto) che le acque meteoriche;
sistema separato: utilizza due reti separate chiamate:
fognatura nera: adibita alla raccolta ed al convogliamento delle acque reflue urbane unitamente alle eventuali acque di prima pioggia:[3]
fogna bianca (o più correttamente fogna pluviale): adibita alla raccolta ed al convogliamento delle sole acque meteoriche di dilavamento e di lavaggio delle strade, e dotata o meno di dispositivi per la raccolta e la separazione delle acque di prima pioggia. Nelle fogne bianche di nuova costruzione può essere richiesto dall'autorità competente che le acque di prima pioggia debbano essere sottoposte, prima del loro smaltimento, ad una trattamento di grigliatura e dissabiatura. In casi particolari quali acque di dilavamento di piazzali, strade, parcheggi, ecc., può essere richiesto anche un trattamento di disoleazione.
Si possono trovare abitati serviti in parte con un sistema misto ed in parte con un sistema separato (es. Bari).
 
Con l'entrata in vigore del Decreto Presidente del Consiglio dei ministri del 4 marzo 1996 nelle zone di nuova urbanizzazione e nei rifacimenti di quelle preesistenti si deve di norma, salvo ragioni economiche ed ambientali contrarie, prevedere il sistema separato. In tali zone si può prevedere il solo invio delle acque di prima pioggia nella rete nera solo se tale immissione è compatibile con il sistema di depurazione adottato.
 
 


#106 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 18 maggio 2016 - 05:03

Prigione
 
800px-Alcatraz_Island.jpg
 
Età antica
Giuridicamente, il problema penitenziario è tipico di una società organizzata giuridicamente, ovvero secondo diritto, con la fissazione di sanzioni penali per i trasgressori delle leggi, isolandoli in appositi luoghi detti appunto carceri che, secondo alcuni, deriverebbe dal latino coercere (cioè costringere), secondo altri dall'aramaico carcar che significa tumulare(riferendosi alla prassi di trattenere i prigionieri in cisterne sotterranee allo scopo di una più facile vigilanza). Le prigioni nacquero, verosimilmente, col sorgere della civile convivenza umana e svolsero, inizialmente, la funzione di allontanare dalla vita attiva e separare dalla comunità quei soggetti che il potere dominante considerava minacciosi per sé e/o nocivi alla comunità stessa. Ne troviamo ad esempio menzione nella Bibbia in (Gn 39,7), quando Giuseppe, figlio di Giacobbe, arrestato dai fratelli fu calato in una cisterna in attesa di essere venduto come schiavo. Le prime notizie abbastanza precise risalgono dunque a fatti contenuti nella Bibbia, e nella Antica Grecia, e nella civiltà romana. Presso i greci e i romani le prigioni erano composte da ambienti in cui i prigionieri erano protetti da un semplice vestibolo, nel quale, in taluni casi, avevano la libertà di incontrare parenti ed amici, anche al fine di far versare un risarcimento alla vittima, che poteva portare ad una cancellazione o mitigazione della pena. Il carcere, comunque, non veniva mai preso in considerazione come misura punitiva, in quanto esso serviva in linea di principio ad continendos homines, non ad puniendos.
 
Nel diritto romano, il carcere era considerato come un mezzo di detenzione preventiva in attesa della pena capitale o corporale, non era quindi previsto l'ergastolo (tra le prigioni romane più celebri si ricordi il carcere Mamertino che era riservato a coloro che si macchiavano di reati contro lo Stato, ne furono relegati tra l'altro Pietro apostolo e Paolo di Tarso prima del martirio). Dell'antica Grecia funzionava il "sofronistero" dove erano rinchiusi i minorenni traviati, e il "pritaneo" dove fu rinchiuso Socrate, 30 giorni prima di ingoiare la cicuta.
 
Medioevo
I regni romano-barbarici introdussero la faida che autorizzava direttamente la vittima a rivalersi in qualsiasi misura sull'aggressore, anche nel senso che un guerriero forte e combattivo aveva sempre ragione. Nel sistema feudale alla vendetta privata si sostituì la composizione pubblica, giudice essendo il feudatario con dominio sul territorio. A poco a poco al feudatario si sostituì il potere comunale prima e poi del re. La carcerazione riapparve quindi prima di tutto come luogo di segregazione degli oppositori del monarca. Il senso era che, salvo che in casi eclatanti, in cui era ritenuta opportuna una punizione esemplare, il re non voleva giustificare in un processo una carcerazione che tutti sapevano esser dettata solo da motivi politici. In epoca moderna in Francia ed in Inghilterra si fece gran uso dei prigionieri come lavoratori forzati nelle colonie, in un primo momento venduti come schiavi per un periodo (da 10 a 17 anni) ai coloni, poi, quando questi sostituirono gli schiavi neri (meno costosi e più abbondanti) ai detenuti, come schiavi di stato per l'esecuzione di opere pubbliche in luoghi impervi. Cessato il principio della schiavitù e ridottosi molto l'uso della pena di morte, i detenuti furono ammassati in isole prima in lontane zone coloniali, poi in isole della madrepatria (famosissime Cayenna (F), Alcatraz (USA) e, in Italia, Asinara, Pianosa, Ventotene, ecc.) sino a quando nuove concezioni umanitarie e l'ostilità del personale di guardia verso tali sistemazioni non indussero a legare le prigioni al territorio.
 
Il principio secondo il quale la pena deve essere espiata nelle carceri andrebbe fatto risalire all'ordinamento di diritto canonico, che prevedeva il ricorso all'afflizione del corpo per i chierici e per i laici che avessero peccato e commesso reati sulla base del principio che la Chiesa non ammetteva le cosiddette pene di sangue, se non nei casi ritenuti più gravi, cioè eresia e stregoneria (cioè alleanza col demonio).
 
Età moderna
Più tardi con l'istituzione dell'inquisizione ecclesiastica fu introdotto il carcere a vita come strumento di espiazione morale della pena (a Roma fu costruito nel 1647 il Palazzo delle Prigioni tuttora visibile)[3], ferma restando la possibilità della pena di morte per i reati ritenuti più gravi. Non mancarono, tuttavia, dei fecondi esempi di apostolato: Vincenzo de' Paoli (1581-1660) il quale fondò l'ordine delle Figlie della Carità, benemerite dell'assistenza, oppure Giuseppe Cafasso (1811-1860) che, per aver speso tutta la sua vita in favore dei detenuti, è stato assunto a patrono dei carcerati.
 
Il movimento illuminista seguendo il filone rivoluzionario e grazie a esponenti come Immanuel Kant (1724-1804), Cesare Beccaria (1738-1794) e Gaetano Filangieri (1753-1788) elaborò un nuovo sistema carcerario basato su principi morali, il libero arbitrio, l'integrità fisica e morale, l'istruzione e il lavoro. La pena, intesa come castigo e dolore, è volta a contrastare non più l'uomo ma il delitto come entità avulsa dal proprio autore. A causa degli austriaci, fu edificato a Milano nel 1764 un carcere di tipo cellulare che si basava sull'isolamento dei detenuti.
 
Con l'avvento della scuola positiva che si proponeva, non solo lo studio del delitto in sé, ma anche e principalmente dell'uomo delinquente, furono pubblicati i dati sperimentali di eminenti antropologi quali Cesare Lombroso (1835-1909), Enrico Ferri (1856-1929) ed Enrico Pessina (1828-1916).
 
Età contemporanea
Dagli anni '80 del XX secolo in poi anche l'Italia ha progressivamente abbandonato la prigione (e la multa) come unica sanzione per la violazione delle leggi penali. Sono state introdotte un po' alla volta una serie di pene alternative alla prigione come la detenzione domiciliare, affidamento in prova al servizio sociale, lavoro volontario di pubblica utilità, ecc... Sin da allora provvedeva a depenalizzare una serie di fattispecie di reati minori, trasformandoli in illeciti amministrativi puniti solo con un'ammenda, anche se d'altro lato provvedeva all'opposto sia ad inasprimenti di pene per alcuni reati di particolare allarme sociale (mafia, favoreggiamento dell'immigrazione clandestina, stupro, evasione, ecc.) sia ad istituire nuovi reati (stalking, scambio elettorale politico-mafioso, nuove ipotesi di evasione fiscale, ecc.). Inoltre, è stata limitando la possibilità di fruire dei benefici delle pene alternative ad alcuni reati (associazione di tipo mafioso, stupro di gruppo o di minore, estorsione, recidivi, ecc.) ed è stata creata una normativa di particolare rigore per detenuti che facciano parte del crimine organizzato, come ad esempio il regime previsto dall'articolo 41-bis dell'ordinamento penitenziario italiano.
 
 


#107 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 25 maggio 2016 - 04:45

Storia della nudità
 
Discobulus.jpg
 
La storia della nudità si riferisce agli atteggiamenti sociali delle diverse culture storiche nei confronti della nudità.
 
L'uso di vari tipi e capi d'abbigliamento nella vita quotidiana è un fatto che si verifica comunemente nella maggioranza delle società umane. Non si sa con precisione quando l'essere umano abbia iniziato ad indossare vestiti per coprire la propria nudità; l'antropologia crede che pelli d'animali assieme a foglie e rami intrecciati siano stati adattati in rivestimenti principalmente per proteggersi dal freddo, dal caldo e dalla pioggia, soprattutto a seguito delle migrazioni in regioni dai climi estremi.
 
L'ipotesi alternativa vuole che i vestiti possano essere stati inventati anche per altri scopi, come la magia, la decorazione corporea, gli atti cultuali, o per indicare una condizione di prestigio sociale.
 
Preistoria
Poiché le pelli di animali e i materiali vegetali si decompongono facilmente, non vi sono prove archeologiche sicure di quando e come l'abitudine di coprirsi il corpo nudo si sia sviluppata; tuttavia recenti studi paiono suggerire che l'abbigliamento possa essere diventato un'abitudine comune nella società umana circa 72 mila anni fa. Se questa ipotesi risultasse corretta, ciò verrebbe a significare che per circa 128 mila anni, la maggior parte della storia dell'uomo anatomicamente moderno, gli esseri umani così come li conosciamo avrebbero vissuto completamente nudi.
 
Vi sono però alcuni antropologi che ritengono che sia l'Homo habilis che l'Homo erectus possa aver utilizzato pelli animali per coprirsi e proteggersi dalle intemperie, spostando così l'origine dell'abbigliamento indietro di quasi un milione di anni.
 
Antico Egitto
Lo stile dell'abbigliamento nell'antico Egitto non è molto cambiato nel corso dei millenni. Gli egizi indossavano il minimo di capi d'abbigliamento necessari, gli uomini rimanevano spesso a torso nudo e scalzi con solamente un gonnellino chiamato shendyt che avvolgeva i fianchi, mentre le donne generalmente indossavano un tessuto drappeggiato; i bambini vivevano senza alcun problema completamente nudi fino alla pubertà.
 
Anche se la quantità minima i vestiti era la norma nell'era dei faraoni lungo tutto il corso della sua storia, questo costume è stato considerato come umiliante da alcune altre culture antiche: ad esempio nel libro di Isaia ci si riferisce ai prigionieri nudi e scalzi, con le natiche scoperte a perpetua vergogna. Immagini simili vengono mostrate in molti bassorilievi assiri e babilonesi, che ritraggono schiavi incatenati nudi in condizione di prostrazione e profonda umiliazione.
 
Antica Grecia
 
Giovani minoici praticano il pugilato nudi con solo una cintura in vita (affresco trovato a Santorini).
 
Mirone; Discobolo, copia del I secolo da un originale del V a.C., British Museum.
In alcune antiche culture mediterranee, anche ben oltre l'epoca preistorica dei cacciatori-raccoglitori, come ad esempio la civiltà minoica, la nudità atletica sportivo-militare di uomini e ragazzi (e più raramente anche di donne) era un concetto abbastanza comune e perfettamente naturale.
 
Il mondo dell'antica Grecia ha sempre mantenuto un particolare interesse nei confronti dell'estetica, il che si rifletteva anche nell'abbigliamento o nella sua mancanza; Sparta aveva codici rigorosi per quanto riguardava la formazione dei giovani, uno dei quali era proprio l'esercizio fisico da svolgersi nudi e gli atleti dovevano inoltre competere nudi anche in tutti gli eventi sportivi pubblici. Così come gli uomini, a volte anche le donne spartane partecipavano nude alle varie processioni e alle feste svolte in pubblico; nel caso delle donne la pratica era progettata per incoraggiare la virtù, mentre nel caso degli uomini per accrescere il valore guerresco.
 
In generale tuttavia i concetti di vergogna ed umiliazione sembrano esser stati dei deterrenti nei confronti della nudità pubblica nella maggior parte del mondo antico, con poche eccezioni; Polibio afferma che i Celti combattevano nudi e li descrive in tal modo: «La comparsa di questi guerrieri nudi era uno spettacolo terribile... tutti uomini dal fisico splendido e nel fiore degli anni»[6].
 
Anche prima dell'età classica, ad esempio a Creta, l'esercizio fisico atletico è stato parte importante della vita quotidiana; i greci difatti accreditavano a varie figure mitologiche qualità eminentemente atletiche e così le rappresentavano nelle loro realizzazioni artistiche: le divinità maschili, in particolare Apollo ed Eracle, nella loro qualità di patroni dello sport erano spesso rappresentati in pose atletiche, quando non come veri e propri atleti.
 
Donne e dee erano normalmente ritratte vestite nella scultura greca classica, con l'unica eccezione riguardante Afrodite: mentre i corpi maschili vengono spesso mostrati completamente nudi, quelli femminili erano sottoposti al concetto di "Venere pudica" ed apparivano quindi solo parzialmente spogliati (un esempio di ciò è la Nike di Samotracia).
 
Come già detto, la nudità nello sport era molto comune, quasi tutte le pratiche sportive erano difatti eseguite generalmente dagli atleti senza alcun abito addosso. L'estetica atletico-cultuale della nudità comprendeva nella stragrande maggioranza dei casi adulti e adolescenti maschi; nell'amore per il bello d'impostazione filosofica era incluso anche il corpo umano, oltre che l'amore per la natura, le arti ed il pensiero teorico-astratto. La parola greca per palestra-ginnasio significa "luogo in cui si gareggia nudi"; essendo quindi il luogo per eccellenza in cui si trovavano i maschi nudi la maggior parte delle polis dell'epoca non permetteva che vi fossero partecipanti o anche solo spettatori di sesso femminile a quegli eventi, con la notevole eccezione di Sparta.
 
Durante i giochi olimpici antichi e gli altri giochi panellenici, dove gareggiavano atleti provenienti da tutto il mondo greco (dalla Magna Grecia alle colonie più lontane), quasi tutte le discipline - dal pugilato alla lotta al pancrazio - prescrivevano la nudità completa, così come anche nella gara di corsa dello stadion (gara di corsa) e nell'antico pentathlon olimpico (salto in lungo, tiro del giavellotto, lancio del disco, corsa e lotta), mentre non era necessariamente richiesta per la corsa dei carri.
 
 
Esempio di Afrodite Cnidia.
La prova della nudità sportiva vigente nel mondo greco è testimoniata dalle numerose raffigurazioni superstiti di concorrenti nelle varie discipline, in sculture, mosaici e pitture vascolari: atleti famosi vincitori dei giochi antichi sono stati premiati con l'erezione di statue che li raffiguravano per commemorarli (vedi ad esempio Milone). Il rifiuto di alcune culture antiche di praticare la nudità atletica è stata condannata degli stessi greci qual segno di tirannia e repressione politica.
In ogni caso gli atleti, anche se completamente nudi, sembra evitassero l'esposizione del glande, questo indossando un kynodesme, sottile striscia di pelle che doveva ricoprire la punta del pene.
 
Anche in certe cerimonie religiose veniva praticata la nudità; la statua del Moscophoros (portatore del vitello), residuo arcaico trovato nell'acropoli di Atene, raffigura un giovane uomo che trasporta un vitello sulle spalle, presumibilmente per portare l'animale all'altare del sacrificio. Fatto abbastanza interessante, la statua non è completamente nuda, in quanto un pezzo di stoffa molto sottile e quasi trasparente è attentamente drappeggiato sulle spalle, le braccia e la parte anteriore delle cosce, ma lasciando tuttavia i genitali volutamente esposti.
 
Anche le raffigurazioni di nudità erotica erano un fatto normale. I greci erano perfettamente consapevoli del carattere eccezionale della loro nudità, sottolineando che «in generale nei paesi soggetti ai barbari, l'usanza è ritenuta disonorevole; l'amore rivolto ai giovani condivide la reputazione che hanno anche la filosofia e lo sport, perché tutte queste sono discipline ostili alla tirannia».
 
La nudità pubblica era poi accettata, sia nel mondo greco che in quello romano, nel contesto dei bagni e dello stabilimento balneare (vedi le terme romane); era anche comune per gli schiavi venire puniti e frustati in pubblico parzialmente o completamente nudi. Anche durante l'impero romano i prigionieri venivano spogliati nudi come ulteriore forma d'umiliazione.
 
Antica Roma
 
Affresco di scena erotica nella Casa del Centenario a Pompei antica.
Gli atteggiamenti romani nei confronti della nudità maschile differivano da quelli greci, per cui l'ideale d'eccellenza maschile è stata espressa dal corpo maschile nudo nell'arte e in determinate situazioni della vita reale come le gare sportive; il corpo del maschio adulto cittadino dell'antica Roma si distingueva invece per l'uso della toga[8]. Il poeta Ennio ha dichiarato che «esporre corpi nudi tra i cittadini è l'inizio della disgrazia pubblica (flagitium)», un sentimento ripreso poi - tra gli altri - anche da Cicerone
 
La nudità in pubblico poteva essere considerata offensiva o sgradevole anche negli ambienti tradizionali delle varie festività religiose: Cicerone deride Marco Antonio ritenendolo indegno per esser apparso quasi nudo in qualità di partecipante ai Lupercalia, anche se ciò veniva in certi casi ritualmente richiesto.
 
Le connotazioni negative date alla nudità includevano anche la sconfitta in guerra, dato che i prigionieri nel momento in cui venivano resi schiavi, erano anche spogliati dei propri abiti. Anche gli schiavi messi in vendita erano spesso esposti nudi per consentire in tal modo agli acquirenti d'ispezionarne gli eventuali difetti fisici, ma anche per simboleggiare il fatto che non avevano più alcun diritto di controllo sul proprio corpo
 
La disapprovazione della nudità era più un intento di nobilitare il corpo del cittadino (il che accadeva attraverso la veste, marchio di riconoscimento per eccellenza) che il tentativo di sopprimere una qualche tentazione sessuale: così il reziario, un tipo di gladiatore che combatteva praticamente seminudo, era considerata essere una figura poco virile.
 
L'influenza dell'arte greca tuttavia ha portato a ritratti di nudi eroici di uomini e divinità romane, una pratica che ha avuto inizio nel II secolo a.C.; quando le prime statue di generali romani nudi alla maniera dei re ellenistici cominciarono ad apparire, gli spettatori rimasero scioccati, non tanto o non semplicemente perché la figura maschile veniva esposta nuda, ciò evocava concetti di regalità e divinità palesemente in contrasto con gli ideali della repubblica romana e dal concetto di cittadinanza legittima incarnato dall'uso della toga.
 
L'arte prodotta durante il lungo governo di Augusto, con l'adozione in toto dell'arte ellenistica e dello stile scultoreo del neoatticismo ha portato alla più completa significazione del corpo maschile mostrato nudo, parzialmente nudo o rivestito di una lorica musculata. I romani che gareggiavano durante i giochi olimpici antichi presumibilmente seguivano l'usanza greca di presentarsi nudi; la nudità atletica in seno alla cultura romana è stata variamente datata, forse già con l'introduzione dei giochi in stile greco nel II secolo a.C., ma forse non con regolarità fino almeno al tempo di Nerone attorno al 60 d.C.
 
Allo stesso tempo il phallos è stato raffigurato ubiquitariamente. L'amuleto fallico noto come fascinum (da cui le parole fascino, affascinare e fascinazione direttamente derivano) si presumeva avesse il potere di scacciare il malocchio e altre forze soprannaturali malefiche, oltre che la sfortuna in generale; appare spesso nei reperti degli scavi archeologici di Pompei in forma di tintinnabulum (campanelli eolici) ed altri oggetti quotidiani come le lampade.
 
Il fallo enorme era anche la caratteristica primaria del dio greco importato Priapo la cui statua veniva spesso utilizzata come "spaventapasseri" nei giardini o come guardia contro i ladri. Un sesso maschile raffigurato eretto o di dimensioni esagerate provocava le risa, era grottesco ed aveva una funzione apotropaica.
 
L'arte romana mostra regolarmente la nudità quando vuole descrivere le scene mitologiche, ma scene sessualmente esplicite potevano apparire anche oggetti comuni come vasi, lampade e specchi, così come tra le collezioni d'arte private delle case benestanti.
 
La matrona romana, e tutte le donne rispettabili della società, venivano sempre raffigurate vestite. La nudità parziale delle dee nell'arte imperiale tuttavia poteva evidenziarne dignitosamente il seno come immagine favorevole di nutrimento, abbondanza e pace. Il corpo femminile completamente nudo così com'era ritratto nella scultura era pensato per incarnare il concetto universale di Venere (divinità) (l'amore fisico e la bellezza)
.
Culture tradizionali
La nudità completa tra gli uomini e le nudità completa o quasi completa tra le donne è ancora un fatto comune per i gruppi etnici dei Mursi, Surma, Nuba, Karimojong, Kirdi, Dinka e talvolta anche per i Masai in Africa; così come per i Matsés, Yanomami, Suruwaha, Xingu, Matis e Galdu in America del Sud. Molte popolazioni indigene africane sudamericano sogliono svolgere ancora oggi tutte le attività sportive in stato di completa nudità.
 
I monaci maschi digambara, corrente più estrema del Giainismo, passano la loro intera vita completamente nudi, o "rivestiti d'aria", come preferiscono autodefinirsi.
 
Ibn Battuta (1304-1369) giudica negativamente il popolo del Mali che aveva visitato perché aveva visto le loro donne andarsene tranquillamente in giro davanti a tutti completamente nude.
 
Storia recente
Durante l'illuminismo il tabù contro la nudità ha cominciato a crescere e con l'epoca vittoriana la nudità pubblica venne in toto considerata oscena, finendo con l'essere indecente il presentarsi a torso nudo in spiaggia per gli uomini. Ma oltre alle spiagge separate per sesso iniziarono ad esser utilizzate anche delle cabine esplicitamente utilizzate per cambiarsi d'abito; ancora ad inizio XX secolo i costumi da bagno delle donne dovevano coprire almeno fino al ginocchio.
A questo riguardo un qualche significativo cambiamento si verificò solo dopo la metà del '900 con l'introduzione del bikini.
 
Nel 1924 in Unione Sovietica un'organizzazione informale chiamata "Abbasso vergogna" ha indetto marce di massa con tutti i partecipanti nudi, questo nel tentativo di dissipare la decadente morale borghese; ma, dopo la rapida ascesa al potere di Stalin furono rapidamente soppresse le idee radicali che erano circolate nei primi anni dopo la rivoluzione russa: nudismo e pornografia vennero vietate e la società sarebbe da allora in poi rimasta rigidamente conservate per tutto il resto dell'esistenza dell'URSS. Solo a seguito della caduta e definitivo scioglimento del regime comunista nel 1991 un clima sociale più liberale ha iniziato pian piano a prevalere nella nuova federazione russa con la ricomparsa di discoteche e spiagge naturiste.
 
Molti dei manifesti ufficiali delle varie edizioni dei giochi olimpici rappresentano figure maschili nude: il poster per i giochi della V Olimpiade 1912 disputata a Stoccolma raffigura diversi atleti aschi nudi con i genitali oscurati; ma anche in quelli per le edizioni del 1920, 1924 e 1952 erano presenti figure maschili nude, mentre il simbolo dell'edizione 1948 è stato il disegno del discobolo nudo.
 
Con i primi anni del XX secolo ha iniziato a svilupparsi in Germania il "nudismo", che si rifà al movimento del naturismo, collegato anche ad un rinnovato interesse nei confronti delle idee classiche greche nei riguardi del corpo umano nudo. I cosiddetti FKK (Freikörperkultur-cultura del corpo libero) erano club sorti in questi anni; nel corso degli anni '30 però la dirigenza nazista vietò le organizzazioni naturiste indipendenti, mantenendo solamente quelle poste sotto il controllo del partito.
Dopo la fine della seconda guerra mondiale la repubblica democratica tedesca divenne famosa per le sue spiagge nudiste e la diffusione della cultura FKK.
 
Durante gli anni '60 e '70 i gruppi femministi francesi e italiani fecero pressioni per ottenere la legalizzazione delle spiagge in cui si potesse liberamente usare il topless
 
Con gli anni '90 la nudità viene prevista in occasione di grandi eventi pubblici, prima in certe edizioni del "Bay to Breakers" (gara podistica californiana) e poi a partire dal 2003 col "World Naked Bike Ride" (la corsa in bici nudi).
 
 


#108 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 02 giugno 2016 - 08:02

Storia dei falli
 
Vibration-is-life.jpg
 
Se la storia dei dildo parte ufficialmente nel 500 a.C., nell'Antica Grecia, quella del vibratore è molto più recente: al 1734 risale l'utilizzo in Francia del primo oggetto vibrante per la stimolazione genitale femminile, il tremoussoir, funzionante tramite un meccanismo a molla ed inventato per curare l'isteria. Sin dall'antichità si pensava infatti che i disturbi come l'insonnia, la ritenzione idrica, il nervosismo e la mancanza di appetito fossero riconducibili ad un malfunzionamento dell'utero (in greco hysteron), da curare con un incremento dell'attività sessuale o con la pratica lunga ed estenuante dei massaggi pelvici.
 
La nascita ufficiale del vibratore è datata 1869, quando il fisico statunitense George Herbert Taylor inventa il manipulator, un lettino con una sfera centrale che vibra sulla zona pelvica grazie ad un meccanismo azionato da una macchina a vapore installata in un altro locale. La sua invenzione viene perfezionata nel 1880 da Joseph Mortimer Granville, che crea il primo vibratore elettromeccanico, cui segue nel 1899 il primo vibratore a batteria 
 
A cavallo tra gli anni venti e gli anni trenta, con la loro introduzione nell’industria pornografica, i vibratori vengono relegati alla sola sfera ludico-sessuale per poi essere riabilitati dopo il 1968 come simbolo emblematico dell’emancipazione sessuale femminile. Dello stesso anno è il brevetto del primo vibratore senza fili, rimasto più o meno invariato fino al 1998, anno dell’invenzione del vibratore rabbit, reso celebre dalla serie tv Sex and the City.
 
Nel novembre 2005, secondo la rivista Harper's Magazine (che cita come fonte la Durex), il 46% delle donne statunitensi possedeva un vibratore.
 
Con la crescita costante del mercato e-commerce, che aiuta il mantenimento dell'anonimato, anche in Italia le vendite dei vibratori sono aumentate considerevolmente portando anche ad un'evoluzione dal punto di vista del costume della società.
 
I simulacri fallici sono comuni nell'arco di tutta la storia dell'uomo, come oggetto di venerazione o forme di espressione artistica. I dildo si distinguono da loro per l'uso sessuale.
 
I dildo accompagnano l'umanità da millenni, come confermano i ritrovamenti di alcuni manufatti in pietra e osso di forma fallica alle Gorges d'Enfer (Gole d'inferno), nel comune di Les Eyzies-de-Tayac-Sireuil nella regione dell'Aquitania in Francia, che sono stati interpretati come dei dildo paleolitici, sebbene alcuni studiosi li ritengano semplici attrezzi da lavoro o rinforzi per le lance.
 
Un fallo verde in pietra di giada, risalente a 6.000 anni fa e secondo gli esperti con molta probabilità utilizzato come dildo, è esposto al Museo dell'Antica Cultura Sessuale Cinese nei pressi di Shanghai.
 
I dildo erano utilizzati anche nell'antica Grecia, intagliati nel cuoio dai calzolai, e chiamati olisboi (al singolare olisbos)[6]. Nel mimo dello scrittore greco Eroda (III a.C.) due amiche conversano sul “baubon” in cuoio fabbricato da un calzolaio.
 
I vibratori si dividono in: vibratori classici, vibratori rabbit, vibratori clitoridei, vibratori G-Spot, vibratori Strap On, vibratori per coppie, vibratori anali, vibratori mini e maxi, vibratori musicali, vibratori hi-tech e ovetti vibranti (in inglese Love Eggs). Anche se dotati di vibrazione, gli anelli vibranti sono da considerare sex toy per coppie appartenenti alla famiglia dei cockring.
 
Da un'indagine condotta nel 2013 dal sito italiano MySecretCase risulta che tra i sex toy più acquistati in Italia, subito dopo le Geisha Balls o palline vaginali, vi siano i vibratori per coppie seguiti dai vibratori rabbit e G-Spot, corrispondenti rispettivamente al 25% e al 20% delle vendite totali delle vendite online
 
Curiosità
Rachel Venning, cofondatrice di Babeland, il sexy shop più in voga di New York, ha inaugurato il Vintage Vibrator Museum, dedicato ai vibratori più antichi
A Tokyo esiste un locale interamente dedicato all'autoerotismo femminile, il Love Joule, dove sugli scaffali al posto delle bottiglie sono esposti vibratori di tutti i tipi
L'illustratore italiano di fama mondiale Milo Manara ha collaborato con il brand francese Love to Love alla realizzazione di un ovetto vibrante ispirato alla sua graphic novel Il gioco
Nel dicembre 2013, in Corso Como, a Milano, il sito e-commerce MySecretCase ha allestito un albero di Natale addobbato interamente con vibratori ed altri Sex Toys
La vendita di vibratori e oggetti simili è vietata in alcuni stati nella parte meridionale degli Stati Uniti d'America. Nello stato del Texas la vendita di articoli per la stimolazione sessuale (come vibratori e dildo) tecnicamente è illegale, ma molti negozi li vendono ugualmente a patto che l'acquirente firmi una liberatoria dove afferma di usare l'oggetto solo per scopi educativi. Acquistare un vibratore è illegale anche in Georgia, Alabama, Mississippi, Indiana, Virginia, Louisiana e Massachusetts.
 
Non esiste una definizione univoca di dildo. Generalmente si ritiene che un oggetto simile a un fallo per forma, misura e aspetto complessivo, che però "non vibra", se destinato a un uso sessuale, sia un dildo. Per alcuni, anche i cosiddetti vibratori vanno considerati per estensione un tipo di dildo. Per ulteriore estensione alcuni chiamano dildo anche oggetti che non assomigliano a un pene, ma sono progettati e destinati alla penetrazione vaginale, fino a includere nei dildo i manufatti per la penetrazione anale.
 
Materiali
 
Un dildo doppio di lattice
I dildo più antichi erano fatti di pietra, legno, cuoio, cera o porcellana, e a partire dal Rinascimento anche in vetro (riempibili con acqua calda). Tra questi sono rimasti molto popolari quelli di cuoio, riempiti di cotone o stracci. I dildo di gomma, irrigiditi solitamente da un'anima di metallo, furono commercializzati dagli anni quaranta: la presenza della barra di metallo e la facile deteriorabilità della gomma esponevano l'utilizzatore al rischio di lesioni anche gravi.
 
In seguito, si sono diffusi dildo in PVC, un materiale ancora molto usato, soprattutto per la produzione di quelli più economici, insieme alla gelatina. Entrambi i materiali contengono ftalato, un ammorbidente dei materiali plastici, utilizzato anche per le custodie dei CD, i contenitori alimentari e altri giocattoli morbidi di plastica. Lo ftalato può entrare nella circolazione sanguigna attraverso la mucose della bocca, della vagina e dell'ano: alcuni studi lo collegherebbero a forme tumorali e patologie prenatali. I prodotti in PVC e gelatina, inoltre, non possono essere sterilizzati.
 
Sono stati realizzati dildo di metallo cromato, che hanno riscosso un certo successo, soprattutto nei circoli BDSM. Non sono particolarmente comodi perché non sono flessibili.
 
Gli anni novanta hanno visto il boom dei dildo di silicone, facili da sterilizzare anche con semplice acqua bollente e privi del caratteristico odore di plastica del PVC. Costosi al loro ingresso sul mercato, il loro prezzo è andato calando in parallelo alla loro diffusione. Il silicone assorbe bene il calore corporeo e la sua elasticità lo rende un eccellente conduttore delle vibrazioni. Il silicone inoltre è un materiale di alta qualità,
 
Un passo successivo è stata la messa in commercio di dildo in vetro borosilicato (pyrex). Sono costosi e rigidi, ma riscuotono successo, anche perché possono essere portati alla temperatura corporea con semplice acqua calda e sono sterilizzabili mediante bollitura. Con il cyberskin, simile alla vista e al tatto alla pelle umana, che garantisce un particolare "realismo", si è tornati a un materiale poroso, che non può essere sterilizzato, che diventa appiccicoso dopo il lavaggio (inconveniente al quale si può rimediare con farina di grano) ed è molto più delicato e deteriorabile del silicone.
 
Forma
 
Jigsaw Squirting
I dildo più comuni in commercio riprendono la forma del membro maschile in stato di erezione, ma ne sono prodotti di svariate forme alternative. Ce ne sono di artistici, modellati sulle figure di dee, o di più semplici e più funzionali alla stimolazione genitale o all'uso come "dilatatori vaginali" nella terapia sessuologica del vaginismo o della dispareunia.
 
In Giappone molti dildo rappresentano animali o personaggi dei cartoni animati, di modo che possano essere venduti come semplici giocattoli, eludendo le rigide leggi contro l'oscenità.
 
Esistono dildo dotati di meccanismi a manovella che permettono movimenti atti ad aumentare le sensazioni erotiche.
 
Variazioni
 
Esempi di Butt-plugs
Ci sono dildo a doppia punta di diverse forme e taglie.
 
Un dildo inserito e mantenuto per un certo tempo all'interno dell'ano viene generalmente denominato butt-plug. Quelli usati per ripetute penetrazioni anali, così come quelli a spinta, sono chiamati semplicemente dildo. Esistono anche dildo doppi, di differenti dimensioni e orientati verso lo stesso lato, per una simultanea penetrazione anale e vaginale.
 
I dildo dotati di un'imbracatura che consente di "indossarli" sono chiamati strap-on dildo. Anche gli strap-on dildo possono avere una doppia estremità ed essere usati da donne che vogliano provare la penetrazione vaginale penetrando al tempo stesso il proprio partner: si prestano quindi all'uso sia in rapporti omosessuali, sia in rapporti eterosessuali a ruoli invertiti (pegging).
 
Esistono inoltre dildo progettati per essere fissati al viso, gonfiabili, o dotati di ventosa alla base, nonché dildo che, anziché essere assicurati al corpo da un'imbracatura intorno alla vita (gli anzidetti strap-on), sono fissati con un butt-plug da infilare nel retto (e sono quindi strapless, cioè privi di imbracatura): in quest'ultimo caso, la donna che indossa il dildo può penetrare con esso nell'ano o nella vagina il partner maschile (pegging) o femminile (rapporto lesbico) mentre nel contempo viene penetrata analmente dal butt-plug che sostiene il dildo
 
Uso
La penetrazione vaginale è l'uso più comune. I dildo hanno anche un uso feticistico e alcune coppie li usano, per esempio, passandoli sulla pelle durante i preliminari. Se le dimensioni lo permettono, possono essere usati come mordacchia, per penetrazioni orali (una sorta di fellatio artificiale), o per penetrazioni anali. Alcuni particolari dildo sono appositamente conformati per stimolare il punto G.
 
Aspetti igienico-sanitari
La condivisione di un dildo tra varie persone è un comportamento a rischio dal punto di vista igienico e sanitario, sia nel caso di dildo realizzati in materiali porosi o micro-porosi, sia nel caso di quelli realizzati in materiali non porosi e facili da sterilizzare, come il Pyrex e il silicone. L'uso del profilattico consente di ridurre il rischio.
 
I dildo di silicone e i lubrificanti a base di silicone non sono compatibili. Tali lubrificanti tendono a liquefare la superficie del dildo di silicone, rendendola pericolosamente appiccicosa. I profilattici pre-lubrificati potrebbero contenere sostanze a base di silicone: quindi prima di coprire un dildo con un profilattico pre-lubrificato è meglio accertarsi della composizione della sostanza lubrificante.
 
I dildo privi di una base allargata o di altri meccanismi di controllo per inserimenti profondi non dovrebbero essere utilizzati per le penetrazioni anali. Il rischiò è che le contrazioni antiperistaltiche involontarie del retto (le stesse che consentono l'assunzione delle supposte) "risucchino" il dildo fino a renderne impossibile l'estrazione senza assistenza medica.
 
 

 


  • Ramona piace questo

#109 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 08 giugno 2016 - 03:46

Storia del libro
 
800px-Bamboo_book_-_binding_-_UCR.jpg
 
Livelli di produzione libraria europea dal 500 al 1800. L'evento chiave fu l'invenzione della stampa a caratteri mobili di Gutenberg nel XV secolo.
La storia del libro segue una serie di innovazioni tecnologiche che hanno migliorato la qualità di conservazione del testo e l'accesso alle informazioni, la portabilità e il costo di produzione. Essa è strettamente legata alle contingenze economiche e politiche nella storia delle idee e delle religioni.
 
Dall'invenzione nel 1456 della stampa a caratteri mobili di Gutenberg, per più di quattro secoli l'unico vero medium di massa è stata la «parola stampata».
 
La scrittura è la condizione per l'esistenza del testo e del libro. La scrittura, un sistema di segni durevoli che permette di trasmettere e conservare le informazioni, ha cominciato a svilupparsi tra il VII e il IV millennio a.C. in forma di simboli mnemonici diventati poi un sistema di ideogrammi o pittogrammi attraverso la semplificazione. Le più antiche forme di scrittura conosciute erano quindi principalmente logografiche. In seguito è emersa la scrittura sillabica e alfabetica (o segmentale).
 
Antichità
 
Tavoletta di argilla sumera con scrittura cuneiforme, 2.400–2.200 a.C.
Quando i sistemi di scrittura furono inventati furono utilizzati quei materiali che permettevano la registrazione di informazioni sotto forma scritta: pietra, argilla, corteccia d'albero, lamiere di metallo. Lo studio di queste iscrizioni è conosciuto come epigrafia. La scrittura alfabetica emerse in Egitto circa 5.000 anni fa. Gli antichi Egizi erano soliti scrivere scrivere sul papiro, una pianta coltivata lungo il fiume Nilo. Inizialmente i termini non erano separati l'uno dall'altro (scriptura continua) e non c'era punteggiatura. I testi venivano scritti da destra a sinistra, da sinistra a destra, e anche in modo che le linee alternate si leggessero in direzioni opposte. Il termine tecnico per questo tipo di scrittura, con un andamento che ricorda quello de solchi tracciati dall'aratro in un campo, è "bustrofedica".
 
Tavolette
Una tavoletta può esser definita come un mezzo fisicamente robusto adatto al trasporto e alla scrittura.
 
Le tavolette di argilla furono ciò che il nome implica: pezzi di argilla secca appiattiti e facili da trasportare, con iscrizioni fatte per mezzo di uno stilo possibilmente inumidito per consentire impronte scritte. Furono infatti usate come mezzo di scrittura, specialmente per il cuneiforme, durante tutta l'Età del Bronzo e fino alla metà dell'Età del Ferro
 
Le tavolette di cera erano assicelle di legno ricoperte da uno strato abbastanza spesso di cera che veniva incisa da uno stilo. Servivano da materiale normale di scrittura nelle scuole, in contabilità, e per prendere appunti. Avevano il vantaggio di essere riutilizzabili: la cera poteva essere fusa e riformare una "pagina bianca". L'usanza di legare insieme diverse tavolette di cera (romano pugillares) è un possibile precursore dei libri moderni (cioè il codex, codice).[8] L'etimologia della parola codex (blocco di legno) fa presupporre che potesse derivare dallo sviluppo delle tavolette di cera.
 
Rotolo
 
Papiro egiziano che illustra il dio Osiride e la pesa del cuore.
Il papiro, fatto di materiale spesso simile alla carta che si ottiene tessendo insieme gli steli della pianta di papiro, poi battendolo con un attrezzo simile al martello, veniva utilizzato in Egitto per scrivere, forse già durante la Prima dinastia, anche se la prima prova proviene dai libri contabili del re Neferirkara Kakai della V dinastia egizia (circa 2400 a.C.). I fogli di papiro venivano incollati insieme a formare un rotolo (scrollo). Erano utilizzate anche le cortecce di albero, come per esempio quelle della Tilia, e altri materiali consimili.
 
Secondo Erodoto (Storie 5:58), i Fenici portarono in Grecia la scrittura ed il papiro verso il X secolo o il IX secolo a.C. La parola greca per papiro come materiale di scrittura (biblion) e libro (biblos) proviene dal porto fenicio di Biblo, da dove si esportava il papiro verso la Grecia. Dal greco deriva anche la parola tomo (τόμος), che in origine significava una fetta o un pezzo, e gradualmente cominciò a indicare "un rotolo di papiro". Tomus fu usato dai latini con lo stesso significato di volumen (vedi sotto anche la spiegazione di Isidoro di Siviglia).
 
Che fossero fatti di papiro, pergamena o carta, i rotoli furono la forma libraria dominante della cultura ellenistica, romana, cinese ed ebraica. Il formato di codex si stabilì nel mondo romano nella tarda antichità, ma il rotolo persistette molto più a lungo in Asia.
 
Codex
Exquisite-kfind.png Lo stesso argomento in dettaglio: Codice (filologia).
 
Il libro cinese di bambù rientra nella definizione moderna di Codex
Nel V secolo, Isidoro di Siviglia spiegò l'allora corrente relazione tra codex, libro e rotolo nella sua opera Etymologiae (VI.13): "Un codex è composto da molti libri; un libro è composto da uno scrollo. Viene chiamato codex per metafora di un tronco (codex) d'albero o di vite, come se fosse un ceppo di legno, poiché contiene una moltitudine di libri, come se fossero rami." L'uso moderno differisce da questa spiegazione.
 
Un codice (in uso moderno) è il primo deposito di informazioni che la gente riconosce come "libro": fogli di dimensioni uniformi legati in qualche modo lungo uno dei bordi, e in genere tenuti tra due copertine realizzate in un materiale più robusto. La prima menzione scritta del codice come forma di libro è fatta da Marziale (vedi sotto), nel suo Apophoreta CLXXXIV alla fine del suo secolo, dove ne loda la compattezza. Tuttavia, il codice non si guadagnò mai molta popolarità nel mondo pagano ellenistico, e soltanto all'interno della comunità cristiana ottenne grande diffusione. Questo cambiamento avvenne comunque molto gradualmente nel corso dei secoli III e IV, e le ragioni per l'adozione del modello di codice sono molteplici: il formato è più economico, in quanto entrambi i lati del materiale di scrittura possono essere utilizzati, ed è portatile, ricercabile, e facile da nascondere. Gli autori cristiani potrebbero anche aver voluto distinguere i loro scritti dai testi pagani scritti su rotoli.
 
Dal rotolo al codex
La storia del libro continua a svilupparsi con la graduale transizione dal rotolo al codex, spostandosi dal Vicino Oriente del II-II millennio a.C. al primo periodo bizantino, durante il IV e V secolo d.C., quando la diffusione del cristianesimo e del monachesimo cambiò in maniera fondamentale il corso della storia libraria.
 
Fino al II secolo d.C., tutti i patrimoni scritti venivano conservati sotto forma di rotoli (o scrolli), alcuni di pergamena, ma la maggioranza di papiro. All'arrivo del Medioevo, circa mezzo millennio dopo, i codici - di foggia e costruzione in tutto simili al libro moderno - rimpiazzarono il rotolo e furono composti principalmente di pergamena. Il rotolo continuò ad esser usato per documenti e simili, scritture della sorta che vengono ordinate in schedari o archivi, ma il codex ebbe supremazia nella letteratura, studi scientifici, manuali tecnici, e così via, scritture della sorta che vengono poste in biblioteche. Fu un cambiamento che influì profondamente su tutti coloro che avevano a che fare coi libri, dal lettore casuale al bibliotecario professionale.
 
I primi riferimenti ai codici si ritrovano su Marziale, in alcuni epigrammi, come quello del Libro XIII pubblicato nell'anno 85/86 d.C.:
 
(LA)
« Omnis in hoc gracili Xeniorum turba libello / Constabit nummis quattuor empta libri. / Quattuor est nimium? poterit constare duobus, / Et faciet lucrum bybliopola Tryphon. »
(IT)
« La serie degli Xenia raccolta in questo agile libretto ti costerà, se la compri, quattro soldi. Quattro son troppi? Potrai pagarli due, e Trifone il libraio ci farà il suo guadagno comunque. »
(Marziale XIII.3.1)
Anche nei suoi distici, Marziale continua a citare il codex: un anno prima del suddetto, una raccolta di distici viene pubblicata con lo scopo di accompagnare donativi. Ce n'è una, che porta il titolo "Le Metamorphoses di Ovidio su Membranae" e dice:
 
(LA)
« OVIDI METAMORPHOSIS IN MEMBRANIS. Haec tibi, multiplici quae structa est massa tabella, / Carmina Nasonis quinque decemque gerit. »
(IT)
« LE METAMORFOSI DI OVIDIO SU pergamena. Questa mole composta da numerosi fogli contiene quindici libri poetici del Nasone »
(Marziale XIV.192)
Il libro antico
L'oggetto libro subì nel corso del tempo notevoli cambiamenti dal punto di vista materiale e strutturale. I più antichi esemplari di libro erano sotto forma di volumen o rotolo e per lo più scritti a mano su papiro. Dal II secolo a.C. compare un nuovo tipo di supporto scrittorio: la pergamena. Nel mondo antico non godette di molta fortuna a causa del prezzo elevato rispetto a quello del papiro. Tuttavia aveva il vantaggio di una maggiore resistenza e la possibilità di essere prodotto senza le limitazioni geografiche imposte dal clima caldo per la crescita del papiro. Il libro in forma di rotolo consisteva in fogli preparati da fibre di papiro (phylire) disposte in uno strato orizzontale (lo strato che poi riceveva la scrittura) sovrapposto ad uno strato verticale (la faccia opposta). I fogli così formati erano incollati gli uni agli altri lateralmente, formando una lunga striscia che poteva avere alle estremità due bastoncini (umbilici) sui quali veniva arrotolata. La scrittura era effettuata su colonne, generalmente sul lato del papiro che presentava le fibre orizzontali. Non si hanno molte testimonianze sui rotoli di pergamena tuttavia la loro forma era simile a quella dei libri in papiro. Gli inchiostri neri utilizzati erano a base di nerofumo e gomma arabica. Dal II secolo d.C. in poi comincia a diffondersi una nuova forma di libro, il codex o codice sia in papiro che in pergamena. La vecchia forma libraria a rotolo scompare in ambito librario. In forma notevolmente differente permane invece in ambito archivistico. Nel Medio Evo si fanno strada alcune innovazioni: nuovi inchiostri ferro gallici e, a partire dalla metà del XIII secolo, la carta. Il prezzo molto basso di questo materiale, ricavato da stracci e quindi più abbondante della pergamena, ne favorisce la diffusione. Ma bisogna aspettare la seconda metà del XV secolo per incontrare il processo di stampa tradizionalmente attribuito ad un'invenzione del tedesco Gutenberg. Questo mezzo, permettendo l'accelerazione della produzione delle copie di testi contribuisce alla diffusione del libro e della cultura.
 
Ritratto di coppia: Terenzio Neo e consorte, che chiaramente dimostrano la propria cultura, lui con un rotolo e lei con una tavoletta e stilo.
Affresco di Pompei, Museo archeologico nazionale di Napoli.
La parola membranae, letteralmente "pelli", è il nome che i romani diedero al codex di pergamena; il dono che i citati distici dovevano accompagnare era quasi sicuramente una copia dell'opera completa di Marziale, quindici libri in forma di codice e non di rotolo, più comune in quell'epoca. Altri suoi distici rivelano che tra i regali fatti da Marziale c'erano copie di Virgilio, di Cicerone e Livio. Le parole di Marziale danno la distinta impressione che tali edizioni fossero qualcosa di recentemente introdotto.
 
Il codice si originò dalle tavolette di legno che gli antichi per secoli avevano usato per scrivere annotazioni. Quando c'era bisogno di più spazio di quello offerto da una singola tavoletta, gli scribi ne aggiungevano altre, impilate una sopra all'altra e legate insieme con una corda che passava nei buchi precedentemente forati su uno dei margini: si otteneva così un "taccuino". Sono stati rinvenuti "taccuini" contenenti fino a dieci tavolette. Nel tempo, furono anche disponibili modelli di lusso fatti con tavolette di avorio invece che di legno. I romani chiamarono tali tavolette col nome di codex e solo molto più tardi questo termine acquisì il senso che attualmente gli diamo. Ad un certo punto i romani inventarono un taccuino più leggero e meno ingombrante, sostituendo legno o avorio con fogli di pergamena: ponevano due o più fogli insieme, li piegavano nel mezzo, li bucavano lungo la piega e ci passavano dentro una cordicella per tenerli (ri) legati. Il passo fu breve dall'usare due o tre fogli come taccuino al legarne insieme una certa quantità per trascrivere testi estesi - in altre parole, creando un codex nel senso proprio che usiamo oggigiorno.
 
Egiziani e romani
 
Il Commentarii in Somnium Scipionis di Macrobio, pergamena, folio 46 verso. La lettera iniziale E a forma di un uomo che scrive, raffigura probabilmente Macrobio stesso. Le prime parole del testo sono: Ex his
 
Dettaglio della pagina di Macrobio: si noti lo stilo e le tavolette.
Ai romani va il merito di aver compiuto questo passo essenziale, e devono averlo fatto alcuni decenni prima della fine del I secolo d.C., dato che da allora, come ci dimostrano i distici di Marziale, divennero disponibili a Roma le edizioni di autori comuni in formato codex, sebbene ancora una novità. Poiché Roma era il centro del commercio librario di libri in latino, si può certamente concludere che la produzione di tali edizioni si originasse da questa città. Il grande vantaggio che offrivano rispetto ai rolli era la capienza, vantaggio che sorgeva dal fatto che la facciata esterna del rotolo era lasciata in bianco, vuota. Il codice invece aveva scritte entrambe le facciate di ogni pagina, come in un libro moderno.
 
(LA)
« Quam brevis inmensum cepit membrana Maronem! Ipsius vultus prima tabella gerit. »
(IT)
« Quanto è piccola la pergamena che raccoglie tutto Virgilio! La prima pagina porta il volto del poeta. »
(Marziale XIV.186)
Così si meravigliava Marziale in uno dei suoi epigrammi: l'Eneide da sola avrebbe richiesto almeno quattro o più rotoli.
 
I codici di cui parlava erano fatti di pergamena; nei distici che accompagnavano il regalo di una copia di Omero, per esempio, Marziale la descrive come fatta di "cuoio con molte pieghe". Ma copie erano anche fatte di fogli di papiro. In Egitto, dove cresceva la pianta del papiro ed era centro della sua manifattura per materiale scrittorio, il codex di tale materiale era naturalmente più comune della pergamena: tra le migliaia di frammenti di scrittura greca e latina rinvenuti tra le sabbie egiziane, circa 550 sono di codici e appena più del 70% di questi sono fatti di papiro. Si presume inoltre che il codice papiraceo fosse maggiormente comune anche fuori dell'Egitto. Quando i greci ed i romani disponevano solo del rotolo per scrivere libri, si preferiva usare il papiro piuttosto che la pergamena. È quindi logico credere che la stessa preferenza venisse usata per il codex quando questo divenne disponibile.
 
I ritrovamenti egiziani ci permettono di tracciare il graduale rimpiazzo del rotolo da parte del codice. Fece la sua comparsa in Egitto non molto dopo il tempo di Marziale, nel II secolo d.C., o forse anche prima, alla fine del I secolo. Il suo debutto fu modesto. A tutt'oggi sono stati rinvenuti 1.330 frammenti di scritti letterari e scientifici greci, databili al primo e secondo secolo; sono tutti su rotolo, eccetto poco meno di venti, appena l'1,5%, su codici. Nel terzo secolo la percentuale aumenta dall'1,5% a circa il 17%; chiaramente il codex stava ottenendo successo. Verso il 300 d.C. la percentuale si alza fino al 50% - una parità col rotolo che si riflette in certe rappresentazioni che mostrano un uomo che tiene in mano un rotolo vicino ad un altro che tiene un codice. Entro il 400 d.C. arriva all'80% e nel 500 a 90%. Il rotolo comunque aveva ancora parecchi secoli davanti a sé, ma solo per documenti; quello che la gente leggeva per piacere, edificazione o istruzione era praticamente tutto su codici.
 
Papiro e pergamena
I ritrovamenti egiziani gettano luce anche sulla transizione del codex dal papiro alla pergamena. In teoria, in Egitto, terra ricca di pianta di papiro, il codice papiraceo avrebbe dovuto regnar supremo, ma non fu così: il codice di pergamena appare in zona allo stesso tempo di quello di papiro, nel II secolo d.C. Sebbene gli undici codici della Bibbia datati in quel secolo fossero papiracei, esistono circa 18 codici dello stesso secolo con scritti pagani e quattro di questi sono in pergamena. Inoltre, alcune interessanti informazioni vengono fornite da una lettera dell'epoca, rinvenuta in un villaggio egiziano - un figlio scrive al padre che
 
« Deios venne da noi e ci mostrò i sei codici di pergamena. Non ne scegliemmo alcuno, ma ne raccogliemmo altri otto per i quali gli diedi 100 dracme in conto.»
Deios, a quanto pare un libraio ambulante, voleva vendere una quantità di almeno quattordici codici di pergamena, che interessavano un residente del villaggio egiziano. Il codex tanto apprezzato da Marziale aveva quindi fatto molta strada da Roma.
 
Nel terzo secolo, quando tali codici divennero alquanto diffusi, quelli di pergamena iniziarono ad essere popolari. Il numero totale di codici sopravvissuti correntemente ammontano a più di cento; almeno 16 di questi sono di pergamena, quindi il 16%. Nel quarto secolo la percentuale si alza al 35% - di circa 160 codici, almeno 50 sono di pergamena - e rimane allo stesso livello nel V secolo. In breve, anche in Egitto, la fonte mondiale del papiro, il codice di pergamena occupava una notevole quota di mercato.
 
Era cristiana
I codici più antichi che sono sopravvissuti fuori dall'Egitto risalgono al quarto e quinto secolo d.C. e sono pochi - diversi per la Bibbia, alcuni di Virgilio, uno di Omero e poco altro. Sono tutti di pergamena, edizioni eleganti, scritti in elaborata calligrafia su sottili fogli di pergamena. Per tali edizioni di lusso il papiro era certamente inadatto.
 
In almeno un'area, la giurisprudenza romana, il codex di pergamena veniva prodotto sia in edizioni economiche che in quelle di lusso. Titoli di compilazioni celebri, il Codice teodosiano promulgato nel 438, ed il Codice giustinianeo promulgato nel 529, indicano che gli imperatori li facevano scrivere su codici, sicuramente di pergamena dato che erano più duraturi e più capienti e inoltre di ottima qualità, dato che erano prodotti sotto l'egida dell'imperatore. Dall'altro lato, basandoci sulle annotazioni di Libanio, intellettuale del IV secolo che nelle sue molteplici attività faceva anche l'insegnante di legge, si apprende che i libri di testo dei suoi studenti erano codici di pergamena. Le ragioni erano buone: la pergamena poteva resistere a maltrattamenti vari, il codice poteva venir consultato velocemente per riferimenti giuridici, sentenze e giudizi, e così via. La pergamena usata doveva certo essere di bassa qualità, con pelli così spesse da far piegare le ginocchia agli allievi che le trasportavano. Il peso era però un altro fattore d'importanza, per le attività fuori di classe: servivano per le lotte tra studenti e i libri venivano usati al posto dei sassi.
 
Medioevo
Manoscritti
Exquisite-kfind.png Lo stesso argomento in dettaglio: Manoscritto.
 
Folio 14 recto del Vergilius romanus che contiene un ritratto dell'autore Virgilio. Da notare la libreria (capsa), il leggio ed il testo scritto senza spazi in capitale rustica.
 
Pagina del Codex Argenteus
La caduta dell'Impero romano nel V secolo d.C., vide il declino della cultura della Roma antica. Il papiro divenne difficile da reperire a causa della mancanza di contatti con l'Antico Egitto e la pergamena, che era stata usata da secoli, divenne il materiale di scrittura principale.
 
I monasteri continuarono la tradizione scritturale latina dell'Impero romano d'Occidente. Cassiodoro, nel Monastero di Vivario (fondato verso il 540), enfatizzò l'importanza della copiatura dei testi. Successivamente, anche Benedetto da Norcia, nella sua Regula Monachorum (completata verso la metà del VI secolo) promosse la lettura. La Regola di San Benedetto (Cap. XLVIII), che riserva certi momenti alla lettura, influenzò fortemente la cultura monastica del Medioevo ed è uno dei motivi per cui il clero fu il predominante lettore di libri. La tradizione e lo stile dell'Impero romano predominava ancora, ma gradualmente emerse la cultura peculiare libro medievale.
 
Prima dell'invenzione e adozione del torchio calcografico, quasi tutti i libri venivano copiati a mano, il che rendeva i libri costosi e relativamente rari. I piccoli monasteri di solito possedevano poche dozzine di libri, forse qualche centinaio quelli di medie dimensioni. Con il IX secolo, le più grandi collezioni contenevano circa 500 volumi e per la fine del Medioevo, la biblioteca papale di Avignone e la biblioteca di Parigi della Sorbona possedevano soltanto 2.000 volumi circa. Ancora oggi ci sono questi manoscritti fatti a mano, costano molto più di una casa a tre piani! Alcuni di questi esemplari sono esposti nei musei.
 
 
L'autore e scriba borgognano Jean Miélot, raffigurato nel suo Miracles de Notre Dame, XV secolo.
 
Leggio con libri catenati, Biblioteca Malatestiana di Cesena (Italia).
Lo scriptorium del monastero era di solito collocato presso la Sala capitolare. La luce artificiale era proibita per paura che potesse danneggiare i manoscritti. Esistevano cinque tipi di scribi:
 
→ Calligrafi, che si dedicavano alla produzione di libri preziosi
→ Copisti, che svolgevano la produzione di base e la corrispondenza
→ Correttori, che raccoglievano e confrontavano il libro finito con il manoscritto da cui era stato prodotto
→ Miniatori, che dipingevano le illustrazioni, a volte inserendo piccoli fogli d'oro
→ Rubricatori, che dipingevano le lettere in rosso
Il processo della produzione di un libro era lungo e laborioso. La pergamena doveva essere preparata, poi le pagine libere venivano pianificate e rigate con uno strumento appuntito o un piombo, dopo di che il testo era scritto dallo scriba, che di solito lasciava aree vuote a scopo illustrativo e rubricativo. Infine, il libro veniva rilegato dal rilegatore.
 
Nell'antichità si usavano differenti tipi di inchiostro, usualmente preparati con fuliggine e gomma, e più tardi anche con noce di galla e solfato ferroso. Ciò diede alla scrittura un colore nero brunastro, ma nero o marrone non erano gli unici colori utilizzati. Esistono testi scritti in rosso o addirittura in oro, e diversi colori venivano utilizzati per le miniature. A volte la pergamena era tutta di colore viola e il testo vi era scritto in oro o argento (per esempio, il Codex Argenteus).Vedi illustrazione a margine
 
I monaci irlandesi introdussero la spaziatura tra le parole nel VII secolo. Ciò agevolò la lettura, in quanto questi monaci tendevano ad essere meno familiari con il latino. Tuttavia, l'uso di spazi tra le parole non divenne comune prima del XII secolo. Si sostiene che l'uso di spaziatura tra parole dimostra il passaggio dalla lettura semi-vocalizzata a quella silenziosa.
 
Per le pagine, i primi libri usavano pergamena o vellum (pelle di vitello). Le copertine erano fatte di legno e ricoperte di cuoio. Poiché la pergamena secca tende ad assumere la forma che aveva prima della trasformazione, i libri erano dotati di fermagli o cinghie. Durante il Tardo Medioevo, quando cominciarono a sorgere le biblioteche pubbliche, e fino al XVIII secolo, i libri venivano spesso incatenati ad una libreria o scrivania per impedirne il furto. Questi libri attaccati a catena sono chiamati libri catenati.Vedi illustrazione a margine
 
 
Lo sviluppo della tecnologia comunicativa: tradizione orale, cultura del manoscritto, cultura della stampa, era dell'informazione.
Dapprima, i libri erano copiati prevalentemente nei monasteri, uno alla volta. Con l'apparire delle università nel XIII secolo, la cultura del manoscritto di quell'epoca portò ad un aumento della richiesta di libri e si sviluppò quindi un nuovo sistema per la loro copiatura. I libri furono divisi in fogli non legati (pecia), che furono distribuiti a differenti copisti e di conseguenza la velocità di produzione libraria aumentò notevolmente. Il sistema venne gestito da corporazioni secolari di cartolai, che produssero sia materiale religioso che laico.
 
L'ebraismo ha mantenuto in vita l'arte dello scriba fino ad oggi. Secondo la tradizione ebraica, il rotolo della Torah posto nella sinagoga deve esser scritto a mano su pergamena e quindi un libro stampato non è permesso, sebbene la congregazione possa usare libri di preghiere stampati e copie della Bibbia ebraica possano esser utilizzate per studio fuori della sinagoga. Lo scriba ebraico (sofer) è altamente rispettato nell'ambito della comunità ebraica osservante.
 
 
Incunabolo del XV secolo. Si noti la copertina lavorata, le borchie d'angolo e i morsetti.
 
Insegnamenti scelti di saggi buddisti, il primo libro stampato con caratteri metallici mobili, 1377. Bibliothèque nationale de France.
Tecniche arabe di stampa
Anche gli arabi produssero e rilegarono libri durante il periodo medievale islamico, sviluppando tecniche avanzate di calligrafia araba, miniatura e legatoria. Un certo numero di città del mondo islamico medievale stabilirono centri di produzione libraria e mercati del libro. Marrakech, in Marocco, ebbe una strada denominata Kutubiyyin, o "venditori di libri", che conteneva più di 100 librerie nel XII secolo; la famosa Moschea Koutoubia è così chiamata a causa della sua posizione in quella strada.
 
Il Mondo islamico medievale utilizzò anche un metodo di riproduzione di copie affidabili in grandi quantità noto come "lettura di controllo", in contrasto con il metodo tradizionale di uno scriba unico che produceva solo una copia unica di un manoscritto unico. Col metodo di controllo, solo "gli autori potevano autorizzare le copie, e questo veniva fatto in riunioni pubbliche, in cui il copista leggeva la copia ad alta voce in presenza dell'autore, il quale poi la certificava come precisa". Con questo sistema di lettura controllata, "un autore poteva produrre una dozzina o più copie di una data lettura, e con due o più letture, più di cento copie di un singolo libro potevano essere facilmente prodotte.
 
Xilografia
In xilografia, un'immagine a bassorilievo di una pagina intera veniva intarsiata su tavolette di legno, inchiostrata e usata per stampare le copie di quella pagina. Questo metodo ebbe origine in Cina, durante la Dinastia Han (prima del 220 a.C.), per stampare su tessili e successivamente su carta, e fu largamente usato in tutta l'Asia orientale. Il libro più antico stampato con questo sistema è il Sutra del Diamante (868 d.C.).
 
Questo metodo (chiamato "intaglio" quando lo si usa in arte) arrivò in Europa agli inizi del XIV secolo fu adoperato per produrre libri, carte da gioco e illustrazioni religiose. Creare un libro intero era però un compito lungo e difficile, che richiedeva una tavoletta intagliata a mano per ogni pagina, e le tavolette spesso si crepavano se tenute oltre un certo tempo. I monaci o altri che le scrivevano, venivano pagati profumatamente.
 
Carattere mobile e incunaboli
Exquisite-kfind.png Lo stesso argomento in dettaglio: Stampa a caratteri mobili e Incunabolo.
L'inventore cinese Bi Sheng fece il carattere mobile di terracotta verso il 1045, ma non esistono esempi sopravvissuti della sua stampa. Intorno al 1450, in quello che viene comunemente considerata come un'invenzione indipendente, Johannes Gutenberg inventò i caratteri mobili in Europa, insieme alle innovazioni sulla fonditura del carattere su matrice e stampo a mano. Questa invenzione gradualmente rese i libri meno laboriosi e meno costosi da produrre e più ampiamente disponibili. La stampa è una delle prime e più importanti forme di produzione in serie.
 
I primi libri stampati, i singoli fogli e le immagini che furono creati prima del 1501 in Europa, sono noti come incunaboli.
 
« Un uomo nato nel 1453, l'anno della caduta di Costantinopoli, poteva guardarsi indietro dal suo cinquantesimo anno di una vita in cui circa otto milioni di libri erano stati stampati, forse più di tutto quello che gli scribi d'Europa avevano prodotto dal momento che Costantino aveva fondato la sua città nel 330 d.C. »
Età moderna e contemporanea
Le macchine da stampa a vapore diventarono popolari nel XIX secolo. Queste macchine potevano stampare 1.100 fogli l'ora, ma i tipografi erano in grado di impostare solo 2.000 lettere l'ora.
 
Le macchine tipografiche monotipo e linotipo furono introdotte verso la fine del XIX secolo. Potevano impostare più di 6.000 lettere l'ora e una riga completa di caratteri in maniera immediata.
 
I secoli successivi al XV videro quindi un graduale sviluppo e miglioramento sia della stampa, sia delle condizioni di libertà di stampa, con un relativo rilassamento progressivo delle legislazioni restrittive di censura. A metà del XX secolo, la produzione libraria europea era salita a oltre 200.000 titoli all'anno.
 
Nella seconda metà del XX secolo la tecnologia informatica ha reso possibile la diffusione di libri in formato elettronico, poi chiamati eBook o e-book (da electronic book). Nel 1971 nasce il Progetto Gutenberg, lanciato da Michael S. Hart, la prima biblioteca di versioni elettroniche liberamente riproducibili di libri stampati. L'uso degli eBook al posto dei libri stampati si è tuttavia diffuso solo all'inizio del XXI secolo, con la diffusione di appositi lettori e di altri dispositivi informatici mobili.
 
Formati dei libri
 
Confronto dei formati librari.
Basato sull'American Library Association.
I libri a stampa sono ottenuti a partire da un foglio di carta di dimensioni più o meno standard su cui vengono stampate diverse pagine. Le dimensioni del foglio hanno subìto diverse variazioni nel tempo, in base alle capacità delle presse.
 
Il foglio stampato viene poi opportunamente piegato per ottenere una segnatura, costituita da un fascicolo di pagine progressive.
 
Sulla base del numero di pagine stampate sul foglio e, quindi, del numero di pieghe che il foglio subisce, i formati tradizionali dei libri vengono denominati:
 
Formato pieghe carte pagine altezza (cm)
in plano o atlante - 1 2 oltre 50
in folio 1 2 4 oltre 38
in quarto 2 4 8 28-38
in ottavo 3 8 16 20-28
in sedicesimo 4 16 32 15-20
Esistono anche formati intermedi (in decimo, in dodicesimo) o più piccoli (in ventesimo, in trentaduesimo, ecc...) ma sono poco utilizzati.
 
Le segnature vengono rilegate per ottenere il volume. Il taglio delle pagine, soprattutto nelle edizioni più economiche, era di norma lasciato al lettore fino agli anni quaranta del XX secolo, mentre ora le segnature vengono rifilate direttamente dalla tipografia.
 
Il termine "tascabile" rappresenta un concetto commerciale e identifica libri economici stampati in dodicesimo o sedicesimo, la cui diffusione, a partire dall'ultimo Ottocento (ma soprattutto nella seconda metà del XX secolo) ha permesso un notevole calo dei prezzi. Sostanzialmente, peraltro - sia per il formato, sia per l'economicità - esso trova precedenti nella storia del libro anteriore alla stampa, già a partire dall'antichità (il "libro che sta in una mano" nel mondo greco: encheiridion, in quello latino i pugillares, nel Medioevo il libro da bisaccia).
 
Parti di un libro
Aletta
Le "alette" o "bandelle" (comunemente dette risvolti di copertina) sono i risguardi della "sovraccoperta" dove viene solitamente stampata una biografia essenziale dell'autore e una succinta introduzione al testo
 
Risguardo
Il risguardo all'inizio e alla fine di un libro è un foglio bianco piegato in due parti di cui una è incollata all'interno della copertina, l'altra costituisce la prima o l'ultima pagina del libro.
 
Carte di guardia
Exquisite-kfind.png Lo stesso argomento in dettaglio: Risguardi.
 
Carta marmorizzata, 1735
Nel libro antico le "carte di guardia" o "guardie" o "sguardie" sono delle carte che, poste a protezione delle prime pagine stampate o manoscritte che compongono il blocco del testo, introducono materialmente al volume. Riconoscibili per essere realizzate con carta differente da quella dell'interno del volume, possono essere in numero variabile a seconda della struttura che il legatore ha dato loro, e che in genere differisce per ogni tipo di legatura. Si dice "controguardia" la carta che viene incollata sul "contropiatto" (la parte interna del "piatto"), che permette il definitivo ancoraggio della coperta al blocco del testo.
 
Nel libro moderno è di norma la garza che unisce i fascicoli alla copertina che viene coperta da fogli di carta bianca o colorata, detti "sguardie" che danno unità estetica al volume vero e proprio. Solitamente può essere bianca, colorata o con stampati a fantasia (nei libri antichi era marmorizzata).
 
La sua utilità pratica è evidente in libri cartonati, dove aiuta a mantenere insieme la coperta rigida al blocco del libro. In presenza di una brossura i risguardi possono mancare del tutto, ma essere simulati con effetti di stampa.
 
Colophon
Exquisite-kfind.png Lo stesso argomento in dettaglio: Colophon.
Il colophon o colofone, che può seguire il "frontespizio" o chiudere il volume, riporta le informazioni essenziali sullo stampatore e sul luogo e la data di stampa. In origine era costituito dalla firma del copista o dello scriba, e riportava data, luogo e autore del testo; in seguito fu la formula conclusiva dei libri stampati nel XV e XVI secolo che conteneva, spesso in inchiostro rosso, il nome dello stampatore, luogo e data di stampa e l'insegna dell'editore.
 
Coperta o copertina
Exquisite-kfind.png Lo stesso argomento in dettaglio: Copertina e Brossura.
 
Il Totius Latinitatis lexicon di Egidio Forcellini, dizionario di latino
Di norma i fascicoli che costituiscono il libro vengono tenuti insieme da un involucro detto appunto '"coperta" o "copertina", è la parte più esterna del libro spesso rigida e illustrata.
 
Nel libro antico poteva essere rivestita di svariati materiali: pergamena, cuoio, tela, carta e costituita in legno o cartone. Poteva essere decorata con impressioni a secco o dorature.
 
Nel libro moderno la coperta è costituita da due "piatti" dello stesso formato del libro o di poco superiore (vedi "Unghiatura") e da un "dorso", per le cosiddette copertine rigide ("legature a cartella" o "Bradel" o "cartonato"), oppure da un cartoncino più o meno spesso che opportunamente piegato lungo la linea del dorso abbraccia il blocco delle carte. In quest'ultimo caso si parla di "brossura" e l'"unghiatura" è assente.
 
Nata con funzioni prettamente pratiche quali la protezione del blocco delle carte e il permetterne la consultabilità, la coperta assume nel tempo funzioni e significati diversi, non ultimo quello estetico e rappresentativo. Nel XIX secolo la coperta acquista una prevalente funzione promozionale.
 
Con la meccanizzazione e la diffusione dell'industria tipografica vengono introdotti altri tipi di legature e coperte, più economiche e adatte alle lavorazioni automatiche.
 
Il cartonato si diffonde nel XIX secolo, preferito per economicità, robustezza e resa del colore. Ha caratterizzato a lungo l'editoria per l'infanzia e oggi, ricoperto da una "sovraccoperta", costituisce il tratto caratteristico delle edizioni maggiori.
 
Modernamente la brossura è un sistema di legatura in cui i fascicoli sono uniti dalla cosiddetta "legatura fresata", in cui le segnature vengono fresate dal lato verso il dorso del volume e i foglietti liberati incollati gli uni agli altri.
 
Prima di copertina
La "prima di copertina" o "piatto superiore" è la prima faccia della copertina di un libro. Di norma, riporta le indicazioni di titolo e autore.
 
Quarta di copertina
 
Le parti del libro: 1) fascetta; 2) sovracoperta; 3) controguardia incollata alla coperta; 4) labbro; 5) taglio di testa; 6) taglio davanti; 7) taglio di piede; 8) fronte pagina 9) retro pagina; 10) piega del foglio che forma il fascicolo
La quarta di copertina o piatto inferiore è l'ultima faccia della copertina, viene usata oggi a scopo promozionale. Solitamente riporta note sull'opera e sull'autore, nonché il codice ISBN e il prezzo del volume (se non è indicato nel risvolto di copertina).
 
Dorso
Il "dorso" o "costa" o "costola" del libro è la parte della copertina che copre e protegge le pieghe dei fascicoli, visibile quando il volume è posto di taglio (ad esempio su una scaffalatura). Riporta solitamente titolo, autore, e editore del libro.
 
Ex libris
Exquisite-kfind.png Lo stesso argomento in dettaglio: Ex libris.
L'"ex libris" è un foglietto che veniva incollato all'interno della copertina di un libro per indicarne, con uno stemma araldico o un'immagine simbolica, il proprietario. Sovente riportava un motto.
 
Fascetta
Nel libro moderno, la "fascetta" è la striscia di carta, applicata trasversalmente alla copertina del libro, utilizzata per riportare slogan pubblicitari destinati a sottolineare il successo del libro. Assente nel libro antico.
 
Frontespizio
Exquisite-kfind.png Lo stesso argomento in dettaglio: Frontespizio.
 
Frontespizio del Dialogo di Galileo Galilei
Il "frontespizio" è la pagina, di solito all'inizio della pubblicazione, che presenta le informazioni più complete sul volume. Introdotto alla fine del Quattrocento, il frontespizio prese forma di componimento poetico, tipo occhietto o esplicativo, e si arricchì di elementi decorativi come cornici e vignette ottenute per xilografia. Nei secoli successivi si fa più prolisso e più vario e vi compaiono indicazioni di carattere pubblicitario. In epoca moderna, con l'introduzione del cartonato, le decorazioni e parte delle informazioni si sono trasferite sulla copertina. I primi incunaboli e manoscritti non avevano il frontespizio, ma si aprivano con una carta bianca con funzione protettiva.
 
Nervi
Nel libro antico i "nervi" sono i supporti di cucitura dei fascicoli generalmente in corda, cuoio, pelle allumata o, più recentemente, fettuccia. I nervi possono essere lasciati a vista (e messi in evidenza attraverso la "staffilatura"), oppure nascosti in modo da ottenere un dorso liscio. Nel libro moderno i nervi sono di norma finti, apposti per imitare l'estetica del libro antico e conferire importanza al libro.
 
Occhietto
L'"occhietto" è una pagina con un titolo (spesso della serie o collana) che precede il frontespizio. Nei libri suddivisi in più parti, si possono avere occhietti intermedi.
 
Piatto
Il "piatto" è uno dei due cartoni che costituiscono la copertina.
 
Sovraccoperta
I libri con copertina cartonata in genere sono rivestiti da una "sovraccoperta". In tal caso, è sulla parte esterna di quest'ultima (oltre che sui due risvolti della medesima) che vengono riportati tutti i dati relativi all'opera mentre il dorso della copertina ne riporta solamente quelli essenziali.
 
Taglio
Il "taglio" è la superficie dei fogli che risulta visibile in un volume chiuso; i tagli sono detti "superiore" o di "testa", "davanti" o "concavo" e "inferiore" o "piede". Dal punto di vista industriale, il taglio di testa è, con la cucitura, il lato più importante di un libro in quanto determina il registro frontale della macchina da stampa. I tagli possono essere al naturale, decorati o colorati in vario modo. In questi ultimi casi, si parla di "taglio colore", nel passato usati per distinguere i libri religiosi o di valore dalla restante produzione editoriale, utilizzando una spugna imbevuta di inchiostri all'Anilina (anni 70-80) come i quaderni scuola con i bordi colorati di rosso, editi dalla Cartiere Paolo Pigna. Dalla fine degli anni novanta vengono svolti in labbratura con colori a base d'acqua.
 
Unghiatura
L'unghiatura o unghia o cassa è la parte dei piatti che sporge oltre il margine dei fogli. Deve il suo nome alla possibilità di aprire il libro grazie, appunto, all'uso della punta del dito facendo leva sull'unghiatura.[senza fonte] Questa è anche realizzata nelle segnature (fogli piegati) per facilitare la raccolta o l'assemblaggio di un opuscolo.
 
 


#110 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 15 giugno 2016 - 03:19

Storia del circo
 
Circus_Lion_Tamer.jpg
 
Questa sezione sull'argomento storia è solo un abbozzo. Contribuisci a migliorarla secondo le convenzioni di Wikipedia. Segui i suggerimenti del progetto di riferimento.
Tra i maggiori storici del Circo vanno citati almeno il bolognese Alessandro Cervellati e il friulano di adozione Giancarlo Pretini. Nell'antica Roma il circo era un luogo adibito a corse di cavalli, spettacoli equestri, ricostruzione di battaglie, esibizioni di animali ammaestrati, spettacoli di giocolieri e acrobati. Il circo romano era costituito da due rettilinei paralleli separati nel mezzo da una balaustra e raccordati da due curve a 180 gradi. Gli spettatori di alto rango sedevano nelle postazioni più basse.
 
Nei secoli successivi alla caduta dell'Impero romano, diverse compagnie, generalmente di piccole dimensioni anche in virtù delle minori dimensioni dei centri abitati e delle difficoltà nei trasporti e negli spostamenti, viaggiavano per l'Europa proponendo spettacoli ed esibizioni varie, spesso consistenti in giochi di abilità, semplici rappresentazioni comiche o tragiche o esibizioni di animali ammaestrati. Gli artisti più ingegnosi erano in grado di costruire nuovi mezzi di trasporto, o modificare quelli esistenti, in modo che potessero convertirsi, al momento dello spettacolo, in veri e propri palcoscenici viaggianti; dell'esistenza di questi mezzi pittoreschi sono presenti numerose narrazioni nella letteratura dei secoli passati.
 
Nel XV secolo giunsero in Europa, provenienti probabilmente dal territorio dell'attuale Pakistan, i Sinti, etnia di origine gitana che aveva fatto dello spettacolo viaggiante e da strada la sua principale attività. Spesso le compagnie di Sinti usavano portarsi dietro, per attirare il pubblico, un orso o una scimmia ammaestrati, e per secoli l'immagine dello zingaro girovago era tradizionalmente associata a questi animali, oltre che ai cavalli.
 
Nel Settecento, e più precisamente nel 1768, l'ufficiale di cavalleria britannico Philip Astley ideò per la prima volta un'esibizione circense in senso moderno, ovvero uno spettacolo in cui, in una pista circolare sita in uno spazio chiuso, venivano esibiti in successione numeri con cavalli ammaestrati, giochi di abilità vari e intermezzi comici di clowneria. Astley è considerato da alcuni storici l'inventore del circo nel senso moderno, sebbene non provenisse da una famiglia dedita per tradizione allo spettacolo viaggiante e la sua stessa esibizione non fosse itinerante, bensì rappresentata stabilmente in un edificio appositamente realizzato, l'Astley Amphitheatre, distrutto da un incendio circa trent'anni più tardi.

 

 

 

 

indice



#111 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 22 giugno 2016 - 10:24

La gomma da cancellare
 
Dollarphotoclub_67171220.jpg
 
Quando fu inventato questo meraviglioso blocchetto? In realtà, prima dell'invenzione della gomma che conosciamo e usiamo tutti (nel 1770),  erano state trovate altre soluzioni, al problema degli errori di scrittura . 
Nell'antico Egitto, per esempio,  i geroglifici e le iscrizioni  su pietra erano cancellati con... uno scalpello. Le scritte sbagliate sui fogli di  papiro , invece, erano raschiate con pietra pomice o arenaria. Nell'antica Grecia prima e a Roma poi, la scrittura era fatta su  tavolette di cera  (dette "palinsesto") che potevano essere raschiate fino ad ottenere quella che veniva detta "tabula rasa", ossia una tavoletta nuova, pronta per essere scritta. Con l'arrivo della carta, per secoli si continuò a cancellare gli errori con l'aiuto di raschietti affilati, ma vennero usati anche la cera e la mollica del pane. 
Homepage | Scuola
CHI HA INVENTATO LA GOMMA PER CANCELLARE?
 Stampa
gomma-per-cancellare
Scrivendo abbiamo fatto un errore! Come rimediare? La gomma per cancellare viene in nostro soccorso! Ma chi l'ha inventata? E come funziona? 
Quando si commette un errore ci piacerebbe rimediare a quanto abbiamo fatto. Non è sempre possibile ma, per fortuna, per gli errori meno gravi e più comuni (per esempio quelli di scrittura o di disegno), esiste  la gomma per cancellare .
Quando fu inventato questo meraviglioso blocchetto? In realtà, prima dell'invenzione della gomma che conosciamo e usiamo tutti (nel 1770),  erano state trovate altre soluzioni, al problema degli errori di scrittura . 
Nell'antico Egitto, per esempio,  i geroglifici e le iscrizioni  su pietra erano cancellati con... uno scalpello. Le scritte sbagliate sui fogli di  papiro , invece, erano raschiate con pietra pomice o arenaria. Nell'antica Grecia prima e a Roma poi, la scrittura era fatta su  tavolette di cera  (dette "palinsesto") che potevano essere raschiate fino ad ottenere quella che veniva detta "tabula rasa", ossia una tavoletta nuova, pronta per essere scritta. Con l'arrivo della carta, per secoli si continuò a cancellare gli errori con l'aiuto di raschietti affilati, ma vennero usati anche la cera e la mollica del pane. 
 
La moderna gomma per cancellare
 
Il tuo vecchio jeans diventa una copertina per il quaderno con le tasche per penne e matite
 
La gomma da cancellare vera e propria nasce, nel 1770 quando un chimico inglese, Joseph Priestley , scoprì che il caucciù, ricavato dall’albero della gomma dell'America del Sud aveva il potere di cancellare i segni di matita.
La gomma per cancellare funziona, ancora oggi, per abrasione del foglio : quando la gomma strofina porta via lo strato più superficiale della carta , nello stesso tempo si consuma ed elimina, con le briciole, anche la scrittura cancellata, che altrimenti le rimarrebbe attaccata alla gomma.
Parecchi anni dopo, nel 1839 la scoperta del processo di vulcanizzazione della gonna permise di produrre gomme più resistenti, in grado di cancellare anche l'inchiostro (che penetra nella carta più in profondità). 
Una curiosità? La comodissima matita con la gommina all’estremità venne inventata nel 1858 da Imeneo Lipman , un emigrato di origine inglese trasferitosi negli Stati Uniti.

 

 

 

indice



#112 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 29 giugno 2016 - 04:34

ILTESSUTO INVISIBILE 
 
soldato.invisibile.jpg
 
PARMA-Riportiamo un articolo del Corriere della sera del 26 Gennaio che riprende ciò che avevamo pubblicato nel 2012,foto comprese (che riproponiamo appena sotto l’articolo del Corriere,ndr)
Un lenzuolo che sembra di plastica, ma il materiale riflette la luce, si mimetizza con l’ambiente e qualsiasi cosa o persona avvolta diventa invisibile. La magia di Harry Potter entra nel mondo militare. Già perché questo prodotto è stato pensato per i soldati americani, così da avere un vantaggio tattico sul campo di battaglia. «I test sono stati completati e tra sei mesi al massimo sarà disponibile anche sul mercato civile», spiega Guy Cramer a capo di Hyperstealth, un’azienda canadese specializzata in mimetica militare. Nella sua carriera Cramer ha disegnato oltre 120mila fantasie e fornisce forze armate in 50 paesi nel mondo. Il suo stand, numero 20145, è al secondo piano del Sand Expo Center a Las Vegas, dove ogni anno è organizzata la più grande convention al mondo di armi e gadget militari.
soldato.invisibile1
 
la foto diffusa dal produttore del tessuto che “rende invisibili”. Militari USA e Canadesi hanno accertato che non è un fotomontaggio
Fra poco un soldato, un fante, una intera forza armata, saranno “invisibili?
E’ stato presentato recentemente alle forze armate USA e canadesi un tessuto che si chiama Quantum Stealth (100% canadese), la Hyperstealth Biotechnology Corp di Guy Cramer. L’azienda risponde misteriosamente a chi chiede notizie: “Le persone che devono sapere che funziona, l’hanno visto”. Coloro che hanno visto il materiale hanno verificato che funziona senza telecamere, batterie, luci o specchi. E’ leggero e poco costoso e ti fa scomparire”. I tecnici hanno anche confermato che funziona anche contro gli scanner ad infrarossi e i visori termici”.
Secondo l’inventore/imprenditore , indossando un vestito di Quantum Stealth nessuno ti vede: il concetto alla base, dice il produttore, è che il tessuto “piega la luce intorno al soggetto”. Notevole sarà anche il fattore psicologico che questa scoperta avrà sul “nemico”, perché affrontare un’armata che non si può vedere è impossibile ( ammesso che possa scomparire). La foto pubblicata -dice il produttore- è indicativa di ALCUNE qualità. Le altre sono segrete.
 
 


#113 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 06 luglio 2016 - 03:08

La mano
574716478_1280x720.jpg
 
Noi esseri umani usiamo le mani per accendere un fuoco o cucire coperte, per pilotare aerei, scrivere, scavare, asportare tumori, tirare fuori conigli dal cilindro. Sarà anche il cervello, con la sua creatività illimitata, a renderci unici tra tutte le specie; ma senza le mani tutte le grandi idee che escogitiamo sarebbero solo una lunga lista di propositi irrealizzabili.
 
Se riusciamo a fare tante cose, è grazie alla straordinaria anatomia delle nostre mani. Sotto la pelle, le mani sono un raffinato sistema integrato di tessuti. Solo il pollice è controllato da ben nove muscoli: alcuni sono attaccati a ossa interne della mano, altri serpeggiano fino al braccio. Quanto al polso, è un fascio fluttuante di legamenti e ossa percorso da vasi sanguigni e nervi che hanno diramazioni fin nei polpastrelli. La mano può esercitare una forza delicata oppure gigantesca: con le mani l’orologiaio monta molle tanto piccole da doverle guardare al microscopio, mentre il lanciatore di baseball usa la stessa anatomia per scagliare una palla a 160 chilometri l’ora.
 
La mano è così eccezionale che nel 1833 il grande chirurgo scozzese Charles Bell scrisse un libro intero in sua lode: The Hand: Its Mechanism and Vital Endowments, as Evincing Design (“La mano, il suo meccanismo e le sue doti fondamentali quali prove di un disegno divino”). All’epoca cominciavano a circolare le prime idee sull’evoluzione, ma Bell pensava che un attento esame della mano umana avrebbe confutato simili sciocchezze. La mano, scrisse, “dimostra in maniera somma e definitiva quel principio di adattamento che evidenzia un disegno nel creato”.
 
Il problema è che la tesi di Bell non spiega perché anche altre specie siano dotate di mani. Nessuno direbbe che le cinque dita all’estremità del braccio di un orango siano qualcosa di diverso da una mano; in altri casi occorre guardare più da vicino. 
 
Le ali di un pipistrello possono sembrare membrane di pelle; sotto, però, un pipistrello ha le stesse cinque dita e un polso collegato allo stesso gruppo di ossa, collegate a loro volta alle stesse ossa lunghe del braccio.
 
Charles Darwin segnalò questa singolare coincidenza nel suo L’origine delle specie. “Cosa c’è di più singolare”, scrisse, “del fatto che la mano dell’uomo, conformata per afferrare, la zampa della talpa, fatta per scavare, la zampa del cavallo, la pinna della focena e l’ala del pipistrello siano strutturate tutte secondo lo stesso schema?”. Per Darwin la risposta era chiara: noi umani siamo cugini dei pipistrelli e di tutti gli altri animali dotati di mani; tutti le abbiamo ereditate da un antenato comune.
 
Negli ultimi 150 anni i ricercatori che studiano l’evoluzione della mano hanno portato alla luce fossili in tutti i continenti; hanno confrontato l’anatomia delle mani di vari animali viventi; hanno studiato i geni che presiedono alla formazione delle mani. E hanno ripetutamente trovato prove a sostegno della tesi di Darwin.
 
Le nostre mani hanno cominciato a evolversi almeno 380 milioni di anni fa dalle pinne: non quelle piatte dei pesci rossi, ma quelle robuste e muscolose di alcuni parenti ormai estinti degli odierni dipnoi. Queste pinne lobate avevano all’interno alcune ossa tozze corrispondenti a quelle delle nostre braccia. Col tempo, i discendenti di quegli animali svilupparono anche ossa più piccole, che corrispondono alle nostre ossa carpali e alle falangi. Più avanti si formarono le dita, che separandosi consentirono agli animali di afferrare la vegetazione sottomarina.
 
Le prime mani erano più strane di qualsiasi mano odierna. C’erano specie con sette e anche con otto dita. Ma 340 milioni di anni fa, quando ormai i vertebrati si erano insediati sulla terraferma, le dita si erano ridotte a cinque, e per motivi ancora ignoti alla scienza il loro numero non è più aumentato. 
 
Eppure, dalle natatoie dei delfini alle ali delle aquile, fino agli artigli dei bradipi, tra le specie viventi c’è ancora una grande varietà di mani. Studiandole, gli scienzati cominciano a individuare le trasformazioni molecolari che hanno dato origine a variazioni tanto radicali, e a capire che, malgrado le differenze esteriori, tutte le mani nascono più o meno nello stesso modo. Una mano si forma grazie a una rete integrata di diversi geni, e tutte le mani derivano la loro conformazione da variazioni interne a quella stessa rete. Alcune modellano il polso, altre sviluppano le dita. Basta qualche lieve mutamento nei geni per allungare le dita, per farne sparire alcune o per trasformare le unghie in artigli.
 
Scoprire che tutte le mani sono costruite con la stessa “cassetta degli attrezzi molecolare” ha permesso agli studiosi di capire meglio la grande intuizione di Darwin. Nonostante l’aspetto esterno, la differenza tra l’ala di un’aquila e la zampa di un leone può ridursi a qualche piccolo aggiustamento: un pizzico in più di una certa proteina, un pizzico in meno di un’altra. Darwin ipotizzò che le mani si erano evolute tutte da un antenato comune basandosi solo su pochi segni esteriori. Oggi la scienza sta svelando anche i segni “interni”. 
 
 


#114 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 13 luglio 2016 - 03:14

Polizia
 
1024px-Cavalli_Firenze_Polizia.png
 
Il concetto deriva dallo sviluppo della polis della Grecia antica. In senso storico si tratta dunque di un concetto molto prossimo a quello di governo, inteso come potere esecutivo, gestore dell'autorità conferitagli dalla comunità di riferimento al fine dell'amministrazione della cosa pubblica e spesso in funzione del bene comune. Ed è concetto affine anche a quello della pubblica sicurezza, uno degli elementi costituzionali del contratto sociale e una delle tematiche che più direttamente legano il concetto originario di polizia con quello moderno.
 
La polizia britannica è stata una delle prime organizzazioni istituzionali di polizia in senso moderno, avendo introdotto un concetto di polizia metropolitana già nel XVI secolo. Nello stesso paese intorno al 1821, nacque "Scotland Yard" (che prese però tale nome solo nel 1829). Prima di tale data i compiti di polizia erano affidati a dei "retti cittadini" secondo il codice di Winchester del 1285.
 
Oggi quasi tutti gli ordinamenti giuridici degli stati moderni prevedono l'istituzione e l'impiego di corpi di polizia, con differenziazioni che tengono conto delle relative specificità culturali (ed eventualmente anche religiose - ad esempio in regimi di teocrazia) e giuridiche.
 
Il ruolo e la funzione
 
Poliziotto statunitense in tenuta da ordine pubblico.
Il termine invidua oggi un generico corpo istituzionale preposto alla tutela dell'ordine pubblico contro gli attentati che questo potrebbe patire dalla condotta illegale di alcuni individui o da eventi fortuiti, che minerebbero appunto la sicurezza pubblica. Tipicamente una polizia dedica una quota maggioritaria delle proprie attività alla prevenzione ed alla repressione del crimine, ma in genere vi è sempre anche una parallela funzione di pubblico soccorso per situazioni di emergenza.
 
La funzione di polizia, per come generalmente la si intende in sistemi di cultura occidentale dei tempi nostri, attiene eminentemente alla lotta al crimine, individuale od organizzato. Non è raro, anzi, vedere che del termine "polizia" si abbia anche normativamente un uso esclusivamente limitato alle funzioni di tutela del rispetto ordinamentale. La polizia - così individuata - opera di fatto principalmente perché l'ordinamento ottenga il rispetto della collettività interessata attraverso l'osservanza delle leggi preposte a regolamentarne la vita, rispetto che perciò si esplicita tanto nell'induzione ad una condotta rispettosa delle leggi che nella punizione dei comportamenti sanzionati dall'ordinamento giuridico. In questo applica il complesso delle sue potenzialità operative, al fine di prevenire la commissione e la perpetrazione di atti e fatti costituenti crimine (o comunque turbativa dell'ordine pubblico) ed allo scopo di perseguire gli esecutori di eventuali atti e fatti illeciti.
 
Tipologia
Exquisite-kfind.png Lo stesso argomento in dettaglio: Polizia di prossimità.
La prevenzione della consumazione di delitti o comunque di illeciti viene in genere svolta attraverso attività di prevenzione a vari livelli, che rendano l'eventuale crimine assai difficoltoso da perpetrare oppure scarsamente conveniente, come ad esempio il pedinamento dei soggetti indiziariamente ritenuti probabilmente propensi a delinquere e loro neutralizzazione possibilmente prima che l'illecito sia commesso o prima che esso possa produrre effetti nocivi,  o anche un più capillare e costante controllo del territorio, concetto alla base della cosiddetta polizia di prossimità.
 
Il ruolo di norme concepite allo scopo è uno dei supporti più efficaci, ma anche una delle condizioni necessarie, per l'azione di polizia preventiva; ad esempio, la discussa previsione (comune a molti ordinamenti) di una fattispecie delittuosa come l'associazione per delinquere, che a talune condizioni sancisce l'illiceità del mero progetto di crimine, senza necessariamente attendere che un reato sia commesso per aversi l'illegalità. È in genere una norma ritenuta di ausilio alle attività di prevenzione poiché consente di prevenire la commissione del reato attraverso la punibilità del suo mero progetto, ed è strumento che assume valore di utilità ordinamentale quando appunto si possa applicarla per impedire il reato attraverso la punizione dell'organizzazione delle fasi preparatorie pratiche dello stesso.
 
La polizia giudiziaria
Exquisite-kfind.png Lo stesso argomento in dettaglio: Polizia giudiziaria.
Diversamente da ruoli di prevenzione ed attività operativa sul territorio, i suoi compiti sono essenzialmente di investigazione, che informa ed agisce su impulso della magistratura.
 
La polizia giudiziaria, valendosi anch'essa di strumenti normativi e di tecniche ed accorgimenti pratici, opera per assicurare all'ordinamento la punizione dei soggetti ritenuti responsabili di illecito, non sottoponendoli a diretto giudizio, bensì acquisendo elementi utili alle indagini, in modo da consentire all'autorità giudiziaria di svolgere il proprio ruolo, ed eventualmente incriminare gli indagati e promuovere azione legale contro di loro.
 
Le polizie specifiche
 
Appartenente alla polizia militare iraquena (dopo la guerra d'Iraq) che imbraccia una mitragliatrice PKM
 
Un reparto di Ordine pubblico della polizia della Danimarca
Sono istituite per svolgere funzioni dedicate alla tutela del rispetto ordinamentale per questioni di magari più pratica consistenza, di più minuziosa individuazione e solitamente di minore drammaticità sociale, ciò nonostante di più immediato contatto. Gli Stati federali possono inoltre costituire uno o più corpi - raggruppati sotto la definizione di polizia federale - con competenze delimitate ad un ambito geografico e/o in particolari materie.
 
Tra i vari esempi possiamo ricordare polizia amministrativa, che si occupa di regolamentare aspetti pratici della vita comune in genere incentrati sulla garanzia di rispetto di normazioni burocratiche, tecnologiche, commerciali, e genericamente pratiche, affinché tutta l'opera di regolamentazione legiferata per ordinare azioni più normalmente ascrivibili alla quotidianità possa godere di altrettanto efficace garanzia di correttezza. Altre funzioni di polizia a competenza speciale sono per esempio la polizia sanitaria, la polizia urbanistica, la polizia di frontiera, la polizia forestale e la polizia militare.
 
 


#115 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 20 luglio 2016 - 09:50

Lingua primigenia
 
countries800x400-800x400.jpg
 
Storia
Nel 1917 il linguista russo Nikolay Marr espose una teoria monogenetica di lingua che faceva risalire tutte le lingue moderne a quattro esclamazioni primordiali.
 
Attingendo all'opera di Vladislav Illich-Svitych, il linguista americano Joseph Greenberg sostenne che parentele a lunga distanza possono essere dimostrate concentrandosi sull'approccio controverso che chiamò "la comparazione lessicale di massa". Le lingue sono comparate con l'uso di un insieme limitato di parole (includendo parole funzionali e affissi) semplicemente facendo affidamento sulle parole affini per origine. Usò questo metodo per stabilire una classificazione delle lingue africane. Il suo lavoro ha suscitato un profondo interesse anche al di fuori della comunità linguistica. Ed è un argomento ancora molto dibattuto.
 
Sergei Starostin  suggerì con prudenza un numero di radici dalla "lingua boreale" - un antenato ipotetico delle diverse famiglie di linguaggi dell'emisfero boreale, per l'appunto; corrispondenze etimologiche possibili tra ciò che egli considerò le cinque maggiori macrofamiglie del Vecchio Mondo, l'Eurasiatico, l'Afroasiatico, il Sinocaucasico e l'Austrico con paralleli potenziali con l'Amerindo e diverse famiglie linguistiche africane.
 
Merritt Ruhlen è uno dei più vivaci e controversi sostenitori dell'ipotesi di una protolingua mondiale.
 
Ricostruzione
Il metodo comparativo è una tecnica utilizzata dai linguisti per dimostrare le relazioni genetiche tra le lingue. Facendo uso di questo metodo, i linguisti sono in grado di tentare di ricostruire una protolingua dalle sue varie lingue figlie. Imparentate sono le parole che hanno un'origine comune. Possiamo proporre come esempi: l'inglese "mouse", il tedesco "Maus", lo svedese "mus", il russo "myš'", il polacco "mysz", il greco "mys" e il latino "mus". Usando il metodo comparativo i linguisti deducono che la parola protoindoeuropea per "topo" fosse "mūs". Alcuni studiosi hanno identificato quelle parole, ritenute potenzialmente imparentate, che possono mettere in evidenza alcune caratteristiche della lingua primigenia. Joseph Greenberg propose di usare un nucleo di 300 parole che percepì costituire il nucleo di ogni linguaggio. Queste includono pronomi, parti del corpo e membri della famiglia. Credeva che queste parole-nucleo cambiassero molto più lentamente rispetto ad altre e che fossero un buon indice per la relazione genetica tra le lingue.
 
La tabella che segue mostra alcune radici nelle varie famiglie di lingue che presentano somiglianze.Il simbolo V sta per una vocale.
 
Lingua Chi? Che cosa? Due Acqua Uno/Dito Braccio-1 Braccio-2 Curva/Ginocchio Capelli Vagina/Vulva Odore/Naso
Khoisan !kū ma /kam k´´a //kɔnu //kū ≠hā //gom /´u !kwai ĉ'u
Nilo-sahariano na de ball nki tok kani boko kutu sum buti ĉona
Niger nani ni bala engi dike kono boko boŋgo butu
Afroasiatico k(w) ma bwVr ak'wa tak ganA bunqe somm put suna
Kartvelico min ma yor rts/q'a ert t'ot' qe muql toma put´ sun
Dravidico yāv irantu nīru birelu kaŋ kay menda pūta počču ĉuntu
Eurasiatico kwi mi pālā akwa tik konV bhāghu(s) bük(ä) punče p'ut'V snā
Dene-Caucasico kwi ma gnyis ʔoχwa tok kan boq pjut tshām put´i suŋ
Austrico o-ko-e m-anu ʔ(m)bar namaw ntoʔ xeen baγa buku śyām betik ijun
Indo-Pacifico mina boula okho dik akan ben buku utu sinna
Australiano ŋaani minha bula gugu kuman mala pajing buŋku puda mura
Amerindo kune mana p'āl akwā dik'i kano boko buka summe butie ĉuna)
Alcune parole indoeuropee che provengono da parole presenti in questa tabella sono "qui" (latino), who ("chi" in inglese), aqua (latino), dito, bough ("ramo" in inglese) (dalla radice bhāghu- che significa "gomito" o "spalla"), fud (inglese dialettale per vulva).
 
Sulla base di queste corrispondenze, il linguista Merritt Ruhlen ha sviluppato una tabella con le parole basilari della lingua primigenia:
 
Ku = Chi?
Ma = Che cosa?
Pal = Due
Akwa = Acqua
Kw = Bevanda
Kway = Umido
Tik = Dito della mano, Dito del piede, Uno
KanV = Braccio
Bungn = Ginocchio, Piegatura, Curva
Sum = Capelli
PutV = Vulva, Vagina
Cuna = Naso, Odore
 
L'idea
L'idea che tutte le lingue del mondo derivino da una sola è molto antica. Essa era sostenuta dall'interpretazione letterale della Bibbia, con Adamo ed Eva, prima coppia umana (la "lingua edenica" o "adamitica"), e successivamente con Noè, "secondo Adamo", capostipite dell'umanità dopo il diluvio universale. Il mito della torre di Babele confortava l'idea che un tempo l'umanità si esprimesse in un unico idioma, prima della differenziazione delle molteplici lingue e dialetti. Per molti autori, fino ad epoche relativamente recenti, tale lingua primigenia, progenitrice di tutte le altre, era l'ebraico.
 
Dato il carattere estremamente speculativo di ricerche che affondano così addietro nel tempo, la Société de linguistique de Paris pose, nel proprio atto costitutivo (1866) il veto a tutte le ricerche "glottogoniche" (tale è il nome delle ricerche tese a ricostruire la genesi finale di tutte le lingue).
 
I sostenitori della monogenesi linguistica hanno formulato teorie secondo le quali una lingua originaria sarebbe stata parlata più o meno tra i 50 e 100.000 anni fa, il periodo ipotizzato dall'archeogenetica a causa della separazione filogenetica degli antenati di tutti gli uomini oggi esistenti.
 
In uno scenario del genere, questa protolingua si sarebbe diffusa a partire da una piccola popolazione ad altre popolazioni a seguito della loro separazione. Va notato inoltre che essa non sarebbe necessariamente il primo linguaggio parlato in assoluto, ma solamente il più recente e comune antenato di tutte le lingue conosciute oggi, e potrebbe avere già avuto dietro di sé una lunga evoluzione, e addirittura potrebbe esser esistito insieme ad altre lingue di cui non è sopravvissuta alcuna traccia nei tempi storici. Per esempio, si discute se gli uomini di Neanderthal avessero la facoltà di parlare. Se ciò fosse vero, la loro lingua in tutta probabilità non sarebbe potuta derivare dalla protolingua mondiale di cui si sta parlando. Inoltre, se avessero avuto un linguaggio, ciò porterebbe argomenti a favore della tesi dell'esistenza di una lingua originaria (pur non permettendo di avanzare ipotesi a proposito della sua forma), perché comporterebbe che l'origine della lingua sia antecedente alla separazione filogenetica umana.
 
Tra l'altro, dato che forse tutti gli esseri umani odierni discendono da una Eva mitocondriale - una donna che si ritiene vivesse in Africa circa 150.000 anni fa -, si è ipotizzato che la lingua primigenia potesse essere datata approssimativamente in quel periodo. Ci sono anche teorie su un effetto a collo di bottiglia sulla popolazione umana, soprattutto la teoria della catastrofe di Toba, la quale ipotizza che la popolazione umana ad un certo punto, 70.000 anni fa, si sia ridotta a 15.000 o 2.000 individui. Se tale collo di bottiglia si ebbe realmente è possibile che la protolingua mondiale risalga a questo periodo, anche se ciò non implica che sia anche il momento in cui sia emerso il linguaggio come capacità.

 

 

indice



#116 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 27 luglio 2016 - 03:16

Videogame
 
800px-Wesnoth-1.3.4-g.jpg
 
Un cabinato a gettoni per il videogioco Computer Space
Exquisite-kfind.png Lo stesso argomento in dettaglio: Storia dei videogiochi.
Nel 1952 nei laboratori dell'Università di Cambridge A.S. Douglas, come esempio per la sua tesi di dottorato, realizzò OXO, la trasposizione del gioco Tris per computer. Questo non viene usualmente considerato il primo videogioco per computer, dato che non venne sviluppato per intrattenere gli utenti ma per completare la tesi di Douglas. Nel 1958, il fisico Willy Higinbotham del Brookhaven National Laboratory, notando lo scarso interesse che avevano gli studenti per la materia, realizzò un gioco (Tennis for Two) che aveva il compito di simulare le leggi fisiche che si potevano riscontrare in un vero incontro di tennis: il mezzo utilizzato era un oscilloscopio. Questo viene ricordato come un esperimento universitario più che come un gioco.
 
Nel 1961, sei giovani scienziati del MIT (Massachusetts Institute of Technology) riescono a dare movimento a puntini luminosi sullo schermo di un PDP-1: nasceva Spacewar!, il primo videogioco che la storia ricordi. Ma il grande sviluppo dei videogiochi si avrà solamente a partire dalla seconda metà degli anni settanta. I primi videogiochi apparvero negli anni settanta ed erano limitati a console con video in bianco e nero allestite nei locali pubblici. I giochi avevano una grafica essenziale (come il classico Pong).
 
Il gioco sviluppato da Higinbotham era una schematica simulazione di tennis in cui c'era una linea verticale sullo schermo a rappresentare la rete vista dall'alto e un puntino sullo schermo per la pallina. Non c'erano segnalini per le racchette e agendo sulla manopola di controllo un solo giocatore poteva far "rimbalzare" la palla da un lato all'altro dello schermo: se non si ruotava la manopola prima della fine dello schermo la pallina continuava la sua corsa e il gioco ricominciava senza assegnare alcun punteggio con una nuova pallina. In effetti, più che un gioco o un videogioco era una dimostrazione su come si potesse interagire con un computer. Il gioco funzionava grazie ad una serie di computer analogici Donner (enormi scatoloni da 50.000 dollari) a cui Higinbotham collegò dei relay che tramite uno oscilloscopio DuMont modello 804 erano in grado di generare e gestire punti mobili sullo schermo (la pallina).
 
Il nome di Higinbotham sarebbe oggi del tutto obliato oppure certamente non accostato ai videogiochi se non fosse per il fatto che la Nintendo lo pose sotto la luce dei riflettori in tribunale alla fine del 1982 chiamandolo come testimone in una causa (che Nintendo del Giappone perse) intentata nel tentativo di dimostrare che i videogiochi fossero stati inventati prima del deposito dei brevetti detenuti, già a far data dal 1966, dalla Sanders and Associates e per non pagare i diritti a quest'ultima. Il progetto di Douglas, così come quello di Higinbotham, era sì un gioco ma non certo un videogioco. Si trattava più un esperimento scientifico che una invenzione fruibile dalla gente comune: l'EDSAC o il Donner erano armadi che occupavano interamente una stanza e assorbivano una quantità enorme, industriale di energia elettrica, oltre ad avere un costo decisamente proibitivo per qualunque famiglia dell'epoca (circa 60.000 dollari per l'EDSAC e 50.000 dollari per un singolo computer Donner).
 
Lo Space War di Russel invece era un videogioco vero e proprio basato sulla visualizzazione vettoriale (fu il primo tentativo di simulazione dinamica che la storia ricordi). Ma per la complessità del progetto e gli elevati costi di sviluppo sul PDP-1, nonché per la difficoltà poi di adattare tale videogioco su computer dai costi più "abbordabili" si dovette attendere la fine del 1973 quando Space War raggiunse il grande pubblico come gioco da sala (coin-op). Tale gioco ebbe scarsissimo successo e le sue vendite non coprirono neppure un terzo dei costi di produzione. Il primo uomo che invece concepì l'idea di videogiocare, nel senso che in seguito sarebbe stato conosciuto, con i normali schermi TV da salotto, fu Ralph Baer. Il concetto di un giocatore, un gioco, un televisore, e una scatola ad essa collegata in cui inserire i videogiochi è suo.
 
Negli anni sessanta Ralph Baer era uno dei primi ingegneri televisivi al mondo e lavorava alla Sanders and Associates (una società che sviluppava sistemi radar aerei e sottomarini). Nel 1966, durante un viaggio di lavoro, annotò su un block notes alcuni schizzi e disegni tentando di schematizzare alcuni pensieri sul modo in cui si potesse interagire (giocando) con un normale televisore da casa. Tali appunti convinsero la Sanders a sviluppare il progetto e a depositare i brevetti di quella idea già nel 1966, inoltre la società incoraggiò Baer a continuarne lo sviluppo, mettendogli a disposizione una stanza debitamente attrezzata su indicazione delle stesso ingegnere. Dopo pochi mesi Baer aveva un puntino luminoso che si poteva muovere a piacimento sullo schermo di un normale televisore. Il generatore di allineamento Heathkit IG-62, da egli stesso realizzato per testare i televisori, rendeva ora possibile muovere il puntino bianco su schermo nero.
 
Benché all'inizio degli anni ottanta Atari rese famosi nel mondo i puntini neri su schermo bianco, la tecnologia inventata da Baer fu la prima che venne utilizzata agli inizi degli anni settanta per la creazione della prima console per videogiochi nella storia: il Magnavox Odyssey. Il prototipo del Magnavox Odyssey (chiamato in Sanders Brown Box oppure solo Odyssey) era già pronto nel 1970 e ne venne iniziata la commercializzazione in serie nel Natale del 1972 con un gioco di ping-pong. Si trattava in buona sostanza di una pallina (un punto bianco su schermo nero) che veniva ribattuta orizzontalmente sullo schermo della TV da due racchette (due bastoncini bianchi su schermo nero), controllabili dai giocatori (massimo 2) con due controller (attualmente li chiameremmo joypad) con rotelle, che consentivano di muovere le racchette verticalmente. Nell'anno di lancio l'Odyssey vendette oltre 165.000 unità, e grazie anche ad una estesa campagna pubblicitaria, l'unica e sola console casalinga per videogiochi, vendette nel secondo anno (siamo alla fine del 1973) ulteriori 200.000 scatole.
 
Nel 1972 Nolan Bushnell, un giovane ingegnere che lavorava in Ampex (una società che progettava circuiti integrati e nastri magnetici per la videoregistrazione), lasciò il suo impiego e fondò Atari. Bushnell con la sua nuova società si prefiggeva in pochi anni di sostituire i flipper dei bar con videogiochi a gettoni (coin-op). Nei primi mesi di produzione (siamo agli inizi del 1973) Atari vendette circa 2300 unità del coin-op Pong. Un gioco molto simile al ping-pong di Baer per l'Odissey. Sta di fatto che il coin-op Atari, nonostante sia stato commercializzato e sia apparso al pubblico dopo il lancio della console Odyssey, è passato alla storia come il primo videogioco.
 
Pong di Atari era un gioco destinato ai luoghi pubblici e non alle quattro mura domestiche, così anche chi non conosceva l'esistenza dei videogiochi ebbe il primo contatto con essi grazie a Pong. Per tale ragione Atari entrò nell'immaginario collettivo come la casa che aveva generato quel nuovo mondo del divertimento elettronico, anche se fu solo nel 1976 che Atari (grazie anche alla collaborazione di Activision) cominciò a commercializzare la sua versione della console casalinga, che, per ragioni di una diversa e migliore capacità pubblicitaria di Atari (più che per una effettiva qualità superiore) soppiantò immediatamente l'Odyssey della Sanders/Magnavox.
 
Nuovo fenomeno culturale
Divenuto ormai un fenomeno culturale di massa, il videogioco è un medium unico: infatti, come suggerisce James Paul Gee, i videogiochi sono ben diversi dagli altri tipi di media (film, letteratura, teatro..), pur riprendendone i vari linguaggi. Essi hanno diverse caratteristiche che li rendono unici e operano in modo diverso dagli altri, ad esempio il linguaggio del gameplay è unico tra i media narrativi tradizionali e inoltre è stato autorevolmente affermato che è l'interattività ciò che ha distinto i videogiochi dalle altre forme d'intrattenimento mediale di massa. Proprio tale caratteristica permette al videogioco di esercitare un potenziale di immersività e attrazione che altri media non hanno.
 
 
Uno stand dell'Electronic Entertainment Expo 2006, con molte postazioni dell'allora nuova console PlayStation 3. L'E3 si svolge dal 1995 solitamente a Los Angeles e la più importante fiera dedicata ai videogiochi nel mondo.
Il videogioco è un medium relativamente recente (soprattutto se comparato con la storia degli altri media), e solamente negli ultimi decenni ha conosciuto un rapido sviluppo, che gli ha permesso di crescere e di superare in maniera prepotente, più degli altri media, le critiche mosse contro di esso a torto o a ragione. Tutto ciò è stato possibile grazie al fatto che il videogioco, più di ogni altro (anche più di un film), è legato fortemente al progresso tecnologico. Quest'ultima caratteristica dona al videogioco un potenziale enorme e infatti come ha affermato il sociologo Alberto Abruzzese “i videogiochi sono la nostra più avanzata frontiera e il nostro più affascinante futuro” […]. L'influenza di questo medium – anche come nuovo fenomeno culturale di massa – viene da molti associata a quella del cinema degli albori o della televisione al momento della sua massima espansione e trasformazione in mezzo di comunicazione di massa vero e proprio.
 
Anzi, il videogioco rischia ora, o quanto meno rischierebbe, di surclassare lo stesso cinematografico, se è vero come è vero che già è stato infranto un ipotetico quanto significativo break even point: statistiche alla mano, le vendite di videogiochi hanno superato, almeno negli Stati Uniti, quelle di biglietti delle sale cinematografiche. E infatti tale superamento è già in qualche modo avvenuto in quanto un videogioco come Halo 3 o il più recente Call of Duty: Black Ops hanno guadagnato rispettivamente 170 milioni di dollari in 24 ore (fu considerato il più grande incasso per un prodotto d'intrattenimento) e l'altro 650 milioni di dollari in soli cinque giorni. Tutto ciò fa capire quanto il mercato videoludico sia divenuto importante e possiede un enorme potenziale. Ma con il cinema, il mondo dei videogiochi sembra aver stretto un patto: le trame di molti film prodotti oggi sono dichiaratamente mutuate da videogiochi (vedi film tratti da videogiochi), così come molti film vengono in tempi assai rapidi trasformati in videogiochi più o meno di successo. La trasposizione da film a videogioco era una pratica diffusa con successo già nei primi anni ottanta; se si esclude Superman, che all'epoca era celebre al cinema ma nasce come fumetto, il primo titolo ufficialmente tratto da un film fu Towering Inferno del 1982 (dal film L'inferno di cristallo).
 
Ai film si aggiungono serie televisive, fumetti, romanzi, riviste, mostre e fiere. Dagli anni 1990 sono comparsi programmi televisivi dedicati al mondo dei videogiochi, quali X-Play, e interi canali televisivi dedicati ai videogiochi, come Game Network e G4. Vengono organizzati inoltre gli sport elettronici, competizioni di videogiochi, anche a livello professionistico. Il riconoscimento dell'importanza culturale dei videogiochi si sta manifestando con l'ingresso della materia nelle Università e con il proliferare di pubblicazioni scientifiche, anche in italiano, sull'argomento.
 
Peculiarità del medium
« Un game designer non crea tecnologia. Un game designer crea un'esperienza. »
(Katie Salen e Eric Zimmerman - Rules of Play.)
Il videogioco presenta diverse unicità se comparato con i media tradizionali come cinema e romanzo. Per questo motivo non può essere considerato come semplice “film o romanzo interattivo” visto che un tale approccio di decostruzione risulta improduttivo. Infatti un gioco non racconta una storia ma sono i giocatori a “raccontarla” e a crearla attraverso le loro performance. Tale peculiarità può essere notata maggiormente in titoli come Heavy Rain, The Walking Dead e in alcuni celebri giochi di ruolo giapponesi, quali Chrono Trigger o Final Fantasy VI, quest'ultimo uno dei primi videogiochi in assoluto in cui le azioni e le scelte del giocatore modificavano la trama stessa (per esempio, a seconda dei personaggi salvati dopo l'Apocalisse, il finale subirà numerose variazioni, così come è possibile impedire la morte di Cid o il suicidio di Celes).
 
Ad esempio in un dipinto, una canzone, un film, un libro o un episodio TV, il pubblico non può modificare l'esito di un episodio e quindi non può intervenire attivamente sull'opera artistica. In un buon gioco invece il giocatore modifica l'esito con ogni sua azione, poiché in un videogioco l'utente è spettatore e attore allo stesso tempo. D'altronde Jesper Juul nella sua opera A Clash between Game and Narrative afferma che non può esistere interattività e narrazione nello stesso tempo perché è impossibile influenzare qualcosa che è già successo. Nel corso della Game Developers Conference 2010, Warren Spector ha ribadito che i videogiochi non sono dei film (“Se vuoi realizzare il tuo gioco come un film, dovresti fare film”) e che questi dovrebbero offrire al giocatore sempre una grande libertà di espressione creativa; poiché l'intervento del giocatore è una delle unicità del videogioco e i giocatori sono i veri protagonisti che dovrebbero vivere la loro personale storia.
 
Anche Ivan Fulco, giornalista e traduttore, ha sottolineato questa peculiarità del medium affermando che i videogiochi non sono storie spaziali ma luoghi dove vivere altre vite, ovvero brandelli della nostra vita per quanto virtuale. Inoltre se una storia è lineare, un videogioco è l'opposto visto che è un sistema dinamico, uno spazio di possibilità[14]. Nella fattispecie una partita in un gioco è un continuo divenire, tutto è in costante mutamento, basti pensare alle migliaia di video che affollano YouTube che mostrano sequenze di gameplay sempre diverse. Tutto ciò è dovuto dal fatto che le possibilità offerte da un videogioco e l'interazione dell'utente con quest'ultimo garantiscono partite uniche, originali e mai uguali per ogni giocatore.
 
In definitiva un videogioco può essere paragonato a un triangolo di possibilità, con la situazione iniziale a un vertice e le conclusioni possibili lungo il lato opposto, con una miriade (idealmente un'infinità) di percorsi tra lo stato iniziale e il risultato finale[. Attraverso l'intervento del giocatore queste possibilità si concretizzano in una sequenza di eventi e azioni ben precisa che può essere trasformata in una storia, ovvero l'esperienza di gioco può dar vita a una storia da raccontare. Tra l'altro Apple ha depositato (intorno al 2010) il brevetto di una tecnologia in grado di estrapolare dati da un videogioco per creare un fumetto. L'idea di base è un'applicazione in grado di connettersi al videogioco, da cui prendere immagini, dialoghi e azioni per poi organizzarli in una struttura logica per realizzare un fumetto o anche un e-book personalizzato Tale idea non fa altro che evidenziare la dinamicità propria dei videogiochi in cui gli eventi del gameplay dipendono dalle scelte, dalle azioni del giocatore, dall'intelligenza artificiale e dalle possibilità che vengono offerte.
 
Età dei videogiocatori
 
Sala giochi dei primi anni 2000.
La fascia anagrafica più cospicua di coloro che praticano il videogioco è tra i 16 e i 29 anni, sebbene in alcuni paesi, come il Regno Unito, l'età media sia più alta, arrivando comunque ad un massimo di 49 anni; in Italia l'età media è di 28 anni.[19] Oggi nel mondo i videogiochi sono praticati da almeno 130-145 milioni di persone di tutte le età. In Italia nel 2008 il numero dei possessori di una console era di 8 milioni.
 
Internet e "intelligenza connettiva"
La massiccia diffusione di Internet negli anni novanta ha favorito una diffusione altrettanto massiccia dei videogiochi. Sul web è possibile infatti giocare allo stesso videogioco anche in gruppi composti da più persone situate in diverse postazioni sparse per il globo. Questa possibilità di dare vita ad una intelligenza connettiva (data appunto dalla interconnessione di più persone fra loro comunicanti), sembra destinata ad essere presa in considerazione anche dal mondo della scuola. Si starebbe cercando, in altre parole, di dare al videogioco una funzione pedagogica, ovviamente senza destrutturarlo troppo e pur tuttavia sostituendone la componente competitiva con una meramente collaborativa. Un esempio di questo tentativo è rappresentato da Stopdisasters, un videogioco on line lanciato dall'Organizzazione delle Nazioni Unite con l'intento di sensibilizzare i più piccoli sugli accorgimenti per costruire città e villaggi più sicuri dal rischio di calamità e disastri ambientali.
 
Generi
Come qualsiasi gioco, il videogioco può rappresentare oggetti astratti o riprodurre simbolicamente determinati contesti culturali, astraendoli dal loro ambito ed applicandoli a contesti e situazioni che possono andare dalla simulazione più fedele fino alla parodia. Dalla nascita, i videogiochi si sono costantemente evoluti formando man mano dei generi completamente diversi tra loro, con meccaniche di gioco differenti e differenti abilità richieste al giocatore. Oltre ad una naturale crescita tecnica dei giochi, l'uscita di un titolo innovativo può essere talmente diverso dal punto di vista concettuale da creare un tipo di videogioco a sé. I principali gruppi nei quali si possono dividere i videogiochi sono due: simulativo o arcade.
 
Un gioco simulativo è un gioco basato sulla simulazione delle regole del mondo reale, chi opta per programmare un gioco orientato su questo genere sa che il giocatore vuole investire anche ore del proprio tempo giocando a qualcosa di inedito e molto difficile. Un gioco di guida con la reale rappresentazione della fisica, oppure un gioco di guerra dove con un solo colpo la partita finisce, sono ottimi esempi.Il gioco arcade invece ne è l'esatto opposto. Chi sceglie un gioco arcade non ha voglia di cimentarsi nell'apprendimento delle meccaniche di un gioco troppo complicato, ed il suo unico desiderio è avviare il gioco e divertirsi all'istante, evitando se possibile di leggere il manuale.
 
Segue una lista dei generi più comuni. Tra parentesi il termine inglese con cui sono spesso conosciuti:
 
 


#117 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 03 agosto 2016 - 06:27

Carbone
 
800px-Mineral_Lignito_GDFL028.jpg
 
La parola "carbone" deriva dalla parola latina carbo, -onis (accusativo "carbone" > volgare: carbone(m)), simile al greco karpho (καρφω), che significa rendere asciutto, arido. La radice indoeuropea car significa ardere. Il carbone non fu estratto che a partire dal tardo Medioevo.
 
Formazione geologica
Exquisite-kfind.png Lo stesso argomento in dettaglio: Carbogenesi.
 
Sezione lungo una miniera che mostra l'occorrenza dei banchi di carbone, ben visibili come neri livelli con spessore metrico, intercalati, con altri strati di roccia sedimentaria più chiara
Il carbone è composto da materiali carboniosi: Si stima che tali materiali compongano oltre il 50% del suo peso ; in termini volumici, la composizione supera il 70% del suo volume. Il carbone è il risultato della trasformazione di resti vegetali che sono stati compressi, alterati chimicamente e trasformati, da calore e pressione, nel corso dei tempi geologici.
 
Dalle osservazioni paleontologiche, stratigrafiche e sedimentarie si è concluso che il carbone si sia formato prevalentemente a partire da piante cresciute in ecosistemi paludosi. Quando queste piante morirono, la loro biomassa si depositò in ambienti subacquei anaerobici, nei quali il basso livello di ossigeno presente prevenne il loro decadimento, impedì l'ossidazione, la decomposizione e rilascio di biossido di carbonio. La nascita e la morte di generazioni successive di piante formarono spessi depositi di materia organica lignea non ossidata, in seguito ricoperti da sedimenti e compattati in depositi carbonacei come torba, bitume o antracite. Indizi sul tipo di piante che hanno originato un deposito possono essere rintracciati nelle rocce scistose o nell'arenaria che lo ricopre o, con tecniche particolari, nel carbone stesso.
 
L'era geologica, durante la quale si formò la maggior parte dei depositi di carbone attualmente conosciuti nel mondo, è il Carbonifero (fra i 280 e i 345 milioni di anni fa). Si tratta dell'era che vide l'esplosione della vita vegetale sulla terraferma, e che ha preso il nome proprio per l'abbondanza di questi giacimenti originatisi rinvenibili entro formazioni geologiche appartenenti a questo periodo.
 
Utilizzi
Il carbone è una delle principali fonti di energia dell'umanità. Nel 2010 circa il 40% dell'energia elettrica mondiale è stata prodotta bruciando carbone, e le riserve accertate ammontavano ad almeno 300 anni di produzione.
 
Dal carbone è possibile ottenere altri tipi di combustibile, più facilmente trasportabili e con un maggior rendimento, ma comunque inquinanti; i processi normalmente utilizzati per raffinarlo sono la gassificazione e la liquefazione.
 
Gassificazione
Exquisite-kfind.png Lo stesso argomento in dettaglio: Gassificazione.
In passato, il carbone veniva convertito in gas, poi distribuito per mezzo di tubature ai clienti, per poter esser bruciato per illuminazione, riscaldamento e cucina. Oggi vengono usati gas naturali, come il metano, perché più sicuri. La gassificazione rimane comunque una possibilità per un utilizzo futuro del carbone, visto che in genere brucia a temperature più alte ed è più pulito del carbone convenzionale.
 
Liquefazione
Il carbone può essere convertito anche in combustibili liquidi come benzina o gasolio, attraverso svariati procedimenti. Il processo Fischer-Tropsch di sintesi indiretta di idrocarburi liquidi fu usato nella Germania nazionalsocialista, e per svariati anni in Sudafrica; in entrambi i casi la motivazione fu che questi regimi furono isolati politicamente, e quindi impossibilitati ad acquistare petrolio greggio sui mercati internazionali. Il carbone veniva gassificato in modo da produrre syngas (una mistura purificata e bilanciata di CO e H2), che veniva poi fatto condensare utilizzando un catalizzatore Fischer-Tropsch per produrre idrocarburi leggeri, poi trasformati in benzina e gasolio. Il Syngas può essere inoltre convertito in metanolo, un ulteriore combustibile o additivo a carburanti, che può essere ulteriormente riconvertito in benzina tramite il processo M-gas della Mobil.
 
Esiste anche un processo di liquefazione diretta processo Bergius (liquefazione attraverso idrogenazione), mai usato al di fuori della Germania, che lo sfruttò durante la Prima e la Seconda guerra mondiale. In Sud Africa fece qualche esperimento in questa direzione la compagnia SASOL.
 
Un ulteriore procedimento per ottenere idrocarburi liquidi dal carbone è la low temperature carbonization (LTC), o carbonizzazione a bassa temperatura. Il carbone viene trasformato in coke a temperature fra i 450 e i 700 °C, invece degli 800-1000º del coke utilizzato in metallurgia. Questa temperatura facilita la produzione di catrami più ricchi di idrocarburi leggeri dei catrami normali. Il catrame viene poi trasformato in combustibile. Questo processo fu sviluppato da Lewis Kerrick, un tecnico specializzato in argilliti petrolifere, all'ufficio minerario degli Stati Uniti negli anni 1920.
 
Tutti questi metodi di produzione di combustibile liquido rilasciano CO2 (anidride carbonica). L'isolamento della CO2 è auspicabile, per evitare di rilasciare questo gas nell'atmosfera e contribuire all'effetto serra. Visto che la produzione di CO2 è uno dei flussi principali del processo, la sua separazione è più facile di quanto non sia possibile partendo dai gas prodotti dalla combustione del carbone con l'aria, nei quali la CO2 è miscelata con azoto e altri gas.
 
La liquefazione del carbone è una delle tecnologie che limitano la crescita del prezzo del petrolio. Le stime del costo della produzione di carburanti liquidi partendo dal carbone suggeriscono che essa diventi competitiva quando il prezzo del petrolio superi una certa soglia. Avendo tecnologie commercialmente mature, il vantaggio economico della liquefazione indiretta del carbone, rispetto a quella diretta, fu reso noto da William e Larson, nel 2003.
 
Grafitazione
La grafitazione è un processo chimico di elettro-induzione che trasforma il carbone amorfo in grafite artificiale.[4] Il processo avviene in forni alimentati in corrente continua ad altissimo amperaggio.
 
Tipi di carbone
Carboni fossili
Torba
Exquisite-kfind.png Lo stesso argomento in dettaglio: Torba.
 
Catasta di torba.
La torba non è un vero e proprio carbone fossile, in quanto deriva da piante erbacee che hanno subito una trasformazione parziale. Ha un aspetto spugnoso o addirittura filamentoso e un colore scuro. Si trova in giacimenti superficiali detti torbiere, da cui viene estratta con una draga (macchina da scavo). Contiene molta acqua e ha un alto contenuto di ceneri. Viene usata soprattutto in agricoltura, per arricchire il suolo con sostanze ricche di humus.
 
È leggera, spugnosa, con colorazione dal bruno chiaro al nerastro.
 
Si è formata dalla decomposizione di vegetali in zone paludose con clima umido temperato o freddo, ma non caldo (la velocità di evaporazione dell'acqua e la decomposizione veloce e totale non consentono la formazione di torba ad alte temperature; alcune di queste zone sono la Terra del Fuoco, l'Irlanda, le Falkland, l'Islanda, la Germania, i Paesi Bassi, l'Austria)
 
Anche in Italia ci sono giacimenti di torba: sulle Alpi, in particolare colle del Moncenisio, passo del San Gottardo, colle del Piccolo San Bernardo, nelle valli del Brenta, del Piave, ad Alice Superiore presso Ivrea, a Iseo, Varese, Verona, Udine; alle foci di fiumi come Po, Adige, Arno, Tevere, esse ammontano a circa 36 milioni di tonnellate.
 
La percentuale di acqua appena estratta è piuttosto alta, circa 70–90%; essa può scendere per essiccamento all'aria per alcuni giorni fino a circa 50%, lasciando per settimane si arriva al massimo al 30%. Ottenerla artificialmente non è conveniente perché si consumano più di 20,3 MJ/kg (4850 kcal/kg) per produrre torba secca, ottenendo un prodotto con potere calorifero non superiore a 23,0 MJ/kg (5500 kcal/kg).
 
È poco usata come combustibile, se non in loco; il principale utilizzo è come fertilizzante (si impregna facilmente con i concimi)
 
Lignite
Exquisite-kfind.png Lo stesso argomento in dettaglio: Lignite.
 
Lignite.
Ha un contenuto di carbonio di circa 70% e un potere calorifico di 18,8-25,1 MJ/kg (4500-6000 kcal/kg); la sua formazione risale a circa 80 milioni di anni fa. Questo carbone presenta ancora la struttura del legno da cui ha avuto origine. I giacimenti si trovano prevalentemente in superficie e pertanto viene estratto in miniere a cielo aperto. Non è un buon combustibile e quindi economicamente poco conveniente; viene di solito utilizzata per alimentare centrali elettriche o per produrre gas, ammoniaca, petrolio sintetico.
 
La lignite è un carbone fossile di formazione relativamente recente, originatosi da foreste del secondario e del terziario.
 
È un sedimento fossile, organico e combustibile; si presenta con colore da bruno a nero e pertanto viene chiamato anche carbone marrone.
 
La lignite possiede un'umidità relativa piuttosto elevata, mediamente superiore al 21% (può superare anche il 45%) e la sua carbonificazione non è mai del tutto completa, ciò ne fa un combustibile di limitato pregio.
 
Ha un potere calorifico superiore intorno a 23,9 MJ/kg (5700 kcal/kg), considerando la sostanza senza ceneri.
 
Il tenore di umidità è quello che si stabilisce ad una temperatura di 30 °C per un'umidità relativa dell'aria del 96%.
 
Questo combustibile è stato ampiamente utilizzato in tutta Italia fino agli anni cinquanta e sessanta, soprattutto per la produzione dell'energia elettrica necessaria alla nascente industria italiana.
 
È difficile da immagazzinare e trasportare perché presenta un forte rischio di combustione, e all'aria aperta tende a polverizzarsi.
 
Il calore generato dalla lignite varia fra i 9 e i 17 milioni di Btu/ton (da 10 a 20 MJ/kg), per materiale umido e privo di componenti minerali. Il calore generato da lignite degli Stati Uniti è in media di 13 milioni di Btu/ton (15 MJ/kg).
 
Le ligniti sono di tre tipi:
 
lignite picea, con tenore di umidità compreso tra 20 e 25% e tenore in ceneri da 9 a 13%;
lignite xiloide, con tenore di umidità da 40 a 70% e tenore in ceneri da 2 a 6%; in taluni giacimenti tale tenore può raggiungere il 13%. Tipica di questo tipo di lignite è la coltivazione a giorno;
lignite torbosa, con alto tenore di umidità e basso potere calorifico.
Alcune loro caratteristiche sono illustrate in tabella:
 
Sostanza Riserve (milioni di tonn) % H2O % ceneri P.C. sul secco (MJ/kg)
Picea 71 10,3 14.4 27,2 (6490 kcal/kg)
Xiloide 112 38 15,7 20,8 (4960 kcal/kg)
Torbosa 217 45 27,4 17,2 (4100 kcal/kg)
 
Grazie ad essiccamento all'aperto sotto tettoie si possono raggiungere concentrazioni di H2O del 20–25%.
 
L'uso principale è come combustibile, in focolai a griglie adatti a combustibili in pezzatura minuta o in impianti a combustibile polverizzati.
 
Per distinguere la lignite dal litantrace esistono alcuni saggi:
 
riscaldamento in assenza di aria: sviluppo di acido acetico (con litantrace si libera ammoniaca);
riscaldamento in HNO3 diluito: si liberano gas che colorano il liquido in rosso (ossidrili fenolici);
riscaldamento in NaOH diluito: liquido bruno, per aggiunta di H+ precipitano fiocchi bruni (acidi umici).
 
Produzione mondiale
Produzione di lignite in milioni di tonnellate
1970 1980 1990 2000 2001
1. Germania Germania 369,3 388,0 356,5 167,7 175,4
2. Russia Russia 127,0 141,0 137,3 86,4 83,2
3. Stati Uniti Stati Uniti 5,4 42,3 82,6 83,5 80,5
4. Australia Australia 24,2 32,9 46,0 65,0 67,8
5. Grecia Grecia 8,1 23,2 51,7 63,3 67,0
6. Polonia Polonia 32,8 36,9 67,6 61,3 59,5
7. Turchia Turchia 4,4 15,0 43,8 63,0 57,2
8. Rep. Ceca Rep. Ceca 67,0 87,0 71,0 50,1 50,7
9. Cina Cina 13,0 22,0 38,0 40,0 47,0
10. Serbia e Montenegro Serbia e Montenegro 26,0 43,0 60,0 35,5 35,5
11. Romania Romania 14,1 27,1 33,5 17,9 29,8
12. Corea del Nord Corea del Nord 5,7 10,0 10,0 26,0 26,5
13. Austria Austria 3,7 1,7 2,5 1,3 1,2
14. altri 103,3 157,9 213,5 116,4 113,5
Totali 804,0 1.028,0 1.214,0 877,4 894,8
 
Litantrace
 
Litantrace.
Il litantrace è il carbone fossile inteso nel senso vero e proprio del termine.
 
Ha un contenuto di carbonio tra il 75% e il 90% e un potere calorifico di 29,3-35,6 MJ/kg (7000-8500 kcal/kg); la sua formazione risale a circa 250 milioni di anni fa e si trova in strati compressi tra rocce di composizione diversa. È il carbone più diffuso in natura e il più utilizzato a livello industriale e per la produzione di energia elettrica. Da esso si ottiene anche il coke, un carbone artificiale compatto e resistente impiegato negli altiforni.
 
Duro e compatto, presenta in genere una percentuale molto bassa di umidità dell'ordine del 2-3% con un tenore di ceneri abbastanza piccolo, che di solito è sul 3-7% e solo raramente raggiunge valori più elevati.
 
Aumentando il tempo di fossilizzazione, diminuisce la quantità di acqua: questo è un aspetto molto importante perché la presenza di acqua fa aumentare i costi di trasporto e diminuire il P.C. del carbone.
 
Le litantracee sono classificate, secondo Gruner, in cinque grandi categorie in base a due proprietà fondamentali:
 
il tenore di sostanze volatili: litantraci a lunga fiamma: sostanze volatili > 25%; litantraci a corta fiamma < 25%
il potere cokificante: litantraci grasse: coke compatto e coerente e con elevato potere cokificante; litantraci magre: coke pulverulento e incoerente e con basso potere cokificante.
Il termine sostanze volatili indica quella frazione che in seguito al riscaldamento necessario per ottenere il coke viene eliminata sotto forma di composti gassosi.
 
La lunghezza della fiamma è in relazione con il tenore delle sostanze volativi, le quali durante la combustione in parte distillano e poi bruciano, originando appunto a seconda della quantità fiamme più o meno lunghe.
 
Litantrace % C % S.V. Aspetto del coke Potere calorifico sup. (MJ/kg)
Magro a lunga fiamma 75 – 80 >40 Incoerente 32,7-34,3 (7800-8200 kcal/kg)
Grasso a lunga fiamma 80 – 85 40 – 32 Coerente molto poroso 34,3-36,8 (8200-8800 kcal/kg)
Grasso propriamente detto 85 – 88 32 – 26 Coerente poroso 36,4-37,3 (8700-8900 kcal/kg)
Grasso a corta fiamma 88 – 90 26 – 18 Coerente poco poroso 36,4-37,7 (8700-9000 kcal/kg)
Magro a corta fiamma 90 – 93 18 – 10 Incoerente 36,0-37,3 (8600-8900 kcal/kg)
I litantraci più pregiati sono i grassi a corta fiamma e i grassi propriamente detti, dai quali si può ricavare un coke relativamente poco poroso e dotato di elevata resistenza meccanica alla compressione.
 
Esso trova largo impiego nella produzione della ghisa a partire dai minerali di ferro e viene perciò chiamato coke siderurgico
 
Litantrace sub-bituminoso
Le proprietà di questo materiale sono intermedie fra quelle della lignite e del litantrace bituminoso. Viene utilizzato prevalentemente come combustibile nelle centrali elettriche a turbina, bruciando genera molto fumo, e si polverizza abbastanza lentamente. Può variare a seconda del livello al quale viene estratto: cedevole al tatto, friabile, marrone scuro o nerastro negli strati inferiori, oppure più chiaro, legnoso e relativamente duro negli strati superiori.
 
Il litantrace sub-bituminoso può contenere umidità dal 20 al 30% del suo peso. Il calore generato da questo materiale varia dai 17 ai 24 milioni di Btu/ton (dai 20 ai 21 MJ/kg), partendo da materiale grezzo. La maggior produzione di litantrace sub-bituminoso degli Stati Uniti è il bacino del Powder River, nello Stato del Wyoming.
 
Litantrace bituminoso
Il litantrace bituminoso è un carbone denso, generalmente nero, a volte marrone scuro, spesso con strisce ben definite di materiale chiaro e friabile, usato principalmente nelle centrali elettriche a turbina, ma in quantità non trascurabili per riscaldamento e in impianti di produzione per ottenere coke. Produce fumo durante la combustione, e si decompone facilmente se esposto all'aria.
 
Il litantrace bituminoso è il carbone più prodotto negli Stati Uniti. Il suo tasso di umidità è inferiore al 20%, quando non addirittura del 12% per la qualità seaborne trade, adatta al trasporto via mare.
 
Il suo potere calorifico varia dai 21 ai 30 milioni di Btu/ton (da 24 a 35 MJ/kg) per il materiale puro. Questa qualità di carbone negli Stati Uniti genera in media 24 milioni di Btu/ton (28 MJ/kg), allo stato grezzo.
 
Antracite
 
Antracite.
È il più antico carbone proveniente da resti vegetali preistorici; contiene una percentuale di carbonio pari al 90% ed ha un potere calorifico di 35.6 MJ/kg (8500 kcal/kg). Questo tipo di carbone risale a circa 400 milioni di anni fa. Ha colore nero e lucentezza metallica, è un carbone duro e fragile e più pesante degli altri, dà una fiamma corta, con poco fumo, sviluppa moltissimo calore, essendo il carbone più antico è il più ricco di carbonio, ma viene utilizzato molto poco perché assai costoso, essendo difficilmente reperibile.
 
L'antracite è il carbone di qualità superiore, usato principalmente per il riscaldamento domestico. È duro, fragile e nero lucido, contiene un'alta percentuale di carbonio fissato e una bassa percentuale di materia volatile. L'umidità contenuta nell'antracite appena estratta è in genere inferiore al 15%. Il potere calorifico specifico dell'antracite pura varia dai 22 ai 28 milioni di Btu/ton (da 26 a 33 MJ/kg). L'antracite consumata negli Stati Uniti contiene in media 25 milioni di Btu/ton (29 MJ/kg).
 
A partire dal 1980, gli scarti e i detriti di antracite vengono usati per la generazione di energia elettrica. Questo combustibile in media contiene 15 milioni di Btu/ton (17 MJ/kg), o meno.
 
Giaietto
Il giaietto[5] è un mineraloide ossia una forma naturale e compatta di lignite che perlopiù viene lucidata ed utilizzata come pietra ornamentale sin dall'età del ferro.
 
Carboni non fossili
Carbone vegetale
Tipologia di carbone prodotto da un processo di carbonizzazione della legna, tramite una carbonaia.
 
Forni a coke per siderurgia (Aberdare)
 
Coke
Il coke è un residuo solido carbonioso di litantrace bituminoso con bassi livelli di cenere e di solfuri, dal quale le componenti volatili siano state estratte attraverso la cottura in forno alla temperatura di 1000 °C e in assenza di ossigeno. Questo procedimento permette di fondere il carbonio fisso con le ceneri.
 
È grigio, duro e poroso, e ha potere calorifico pari a 29.6 MJ/kg. I sottoprodotti della conversione del carbone in coke sono catrame o pece, ammoniaca, oli leggeri e "carbone gassificato", o "gas di cokeria".
 
Il coke è ottenuto da dei processi di raffinazione del petrolio e del litantrace in impianti chiamati cokerie, che solitamente fan parte del complesso di un impianto siderurgico. La cokeria è composta da forni costituiti da una serie di celle rivestite internamente di mattoni refrattari silicei o silico-alluminosi, disposte l'una di fianco all'altra in batteria. Le celle hanno una forma stretta e allungata; sono larghe grosso modo 0,40/0,60 m, alte 4/6 m e profonde 10/16 m.
 
Il carbone fossile viene chiuso ermeticamente nelle celle che vengono riscaldate dall'esterno con le fiamme di un gas che brucia nell'intercapedine tra una cella e l'altra. Il carbone rimane nelle celle alla temperatura di 1200/1300 °C per un tempo di 14/15 ore, durante il quale si libera di buona parte dello zolfo e delle materie volatili e acquista quelle caratteristiche di porosità e resistenza meccanica necessarie per il suo utilizzo nell'altoforno.
 
Mediamente per ogni 1000 kg di carbone fossile vengono ottenuti 300 Nm³ di gas, 700 kg di coke, 55 kg di idrocarburi pesanti e aromatici (naftalina, benzolo, catrame, acqua ammoniacale, coloranti, materie prime per l'industria farmaceutica, fertilizzanti, ecc.). Il gas è un ottimo combustibile, dato che ha un potere calorifico di 17/21 MJ/Nm³, e dopo un'adeguata depurazione viene utilizzato nello stesso stabilimento siderurgico come combustibile per la cokeria, per i ricuperatori Cowper, per la centrale termoelettrica, ecc. Il carbone fossile non può essere utilizzato in applicazioni metallurgiche, perché è compatto, friabile, ricco di zolfo e di materie volatili.
 
In virtù del suo alto potere calorifico, il coke è utilizzato come combustibile e come agente riducente nei forni fusori dei minerali metalliferi (altoforni).
 
Caratteristiche del carbon coke
Composizione del coke
carbonio 88-92%
idrogeno 0,6%
ossigeno 1,8%
zolfo 0,8%
azoto 0,7%
ceneri 5-10%
umidità 1%
Potere calorifico: 30 MJ/kg
Massa volumica reale: 1,8-2,2 kg/dm³
Massa volumica apparente: 1 kg/dm³
Resistenza alla compressione: 1400-2000 N/m²
Pezzatura alla compressione: 20–60 mm
 
Storta
Carbone di storta si forma sulle parti alte delle storte in cui avviene la distillazione di carbone fossile. Si usa per elettrodi, lampade ad arco, pile a secco.
 
Riserve mondiali di carbone
 
Miniera di carbone a cielo aperto (Wyoming)
 
1908: ragazzi minatori e muli in un galleria di miniera di carbone
Nel 1996 è stato stimato che le riserve mondiali di carbone economicamente accessibile con le tecniche minerarie conosciute oggi ammontino a circa 15 bilioni di tonnellate, la metà delle quali di antracite. L'energia contenuta nel carbone di tutto il mondo supera ampiamente i 10 trilioni di yottajoule. Con l'attuale ritmo di consumo si stima che le riserve dureranno poco meno di 300 anni.
 
Il Dipartimento per l'Energia degli Stati Uniti stima le riserve nazionali in 1.081.279 milioni di tonnellate, corrispondenti a circa 4.786 BBOE (barili di petrolio equivalenti). La quantità di carbone bruciata nel corso del 2001 ammonta a 2,337 GTOE (gigatonnellate equivalenti di petrolio), corrispondenti a 46 MBOED (milioni di barili di petrolio equivalenti giornalieri). Con questo andamento, le riserve dureranno 285 anni. In confronto, nel corso del 2001, il gas naturale fornì 51 MBOED, e il petrolio 76 MBD (milioni di barili al giorno).
 
La nazione con il maggior consumo di carbone è la Cina, la cui produzione e consumo di petrolio è in crescita continua dal 2000. Nel 2012 la Cina estraeva il 46% della produzione mondiale di carbone e consumava il 49% della produzione mondiale, in gran parte per produrre corrente elettrica necessaria al suo sviluppo economico. Più in generale il 90% della produzione mondiale di carbone è fornita da dieci paesi, con gli USA al secondo posto che estraggono il 12% del totale mondiale dietro la Cina; sul piano del consumo l'85% del carbone viene consumato da dieci paesi, di cui otto fanno parte del gruppo dei maggiori produttori, gli USA sono il secondo produttore consumando l'11% della produzione mondiale.
 
Pericolosità delle miniere
Le miniere a cielo aperto hanno un enorme impatto ambientale. Quelle tradizionali, invece, solitamente si spingono a più di 200 metri di profondità, in cunicoli polverosi e con alte temperature (intorno ai 30 °C). Questo comporta, anche con le più moderne tecnologie minerarie, forti rischi per la salute dei minatori e una considerevole mortalità, sia per la possibilità di contrarre malattie come la silicosi, che per incidenti dovuti all'incendio dei gas prodotti dal carbone, innescati anche solo da una piccola scintilla[8]. Ogni anno, solo in Cina, muoiono più di 5000 minatori; nonostante questo, alcuni enti elettrici continuano a favorire il lavoro dei minatori per poter così acquistare il carbone ad un prezzo più basso che nel resto del mondo. Inoltre, i gas prodotti dall'attività della miniera comportano un effetto serra importante, che viene stimato superiore alla CO2 rilasciata dalla combustione del carbone estratto.
 
Utilizzo del carbonio
Il carbone è una fonte di carbonio naturale. La principale fonte rimane comunque il petrolio. Le tecnologie moderne sembrano dimostrare che da questo elemento si possano ricavare prodotti chiave per lo sviluppo, come le fibre di carbonio e le nanostrutture.
 
Diversi utilizzi delle miniere
Tecnologie non ancora collaudate consentirebbero di sfruttare le miniere di carbone esistenti per produrre combustibile in modi alternativi, ad esempio recuperando il metano generato dalla decomposizione del carbone. Questo consentirebbe di ottimizzare la quantità di carbonio estratto da una miniera, e nel frattempo limitare il rilascio del gas nell'atmosfera ed il conseguente effetto serra. Questo comporterebbe anche la custodia degli impianti dismessi, prevenendo l'innesco di giganteschi incendi sotterranei che oggi, in tutto il mondo, sono fonte considerevole di inquinamento, gas serra e gas tossici.
 
Analisi e valutazione tecnologica del carbone
È possibile effettuare un'analisi elementare, per valutare la composizione percentuale nei vari elementi costituenti (% di C, H, N, S, …).
 
Un altro tipo di analisi è quella cosiddetta immediata, cui fanno riferimento i contratti commerciali ed i requisiti di qualità; tra queste ci sono la percentuale di acqua, di sostanze volatili e di ceneri.
 
La percentuale di acqua (% H2O) si determina come perdita in peso a 105 °C; la percentuale di sostanze volatili (% S.V.) si determina, invece, come perdita in peso a 950 °C; infine la percentuale di ceneri si determina come residuo dopo calcinazione. Si effettuano anche misure della plasticità e della resistenza meccanica quali l'indice di libero rigonfiamento, il potere agglutinante ed il potere agglomerante.
 
L'indice di libero rigonfiamento (i.l.r.) si misura dopo riscaldamento ad 820 °C confrontando il residuo con un profilo di riferimento.
 
Il potere agglutinante (p.a.) si determina riscaldando il campione polverizzato e disperso in un materiale inerte; si ottiene un materiale cementato di cui si misura la resistenza meccanica: si misura l'attitudine del carbone a cementare a sé materiali inerti. È indice della compattezza e resistenza del coke ottenibile.
 
Il potere cokificante è invece l'attitudine del carbone, scaldato in assenza di aria, ad aumentare di volume formando una massa porosa. Si effettua scaldando il campione a 600 °C e valutando forma e consistenza del residuo.
 
Esistono diversi tipi di carboni fossili, che si differenziano a seconda dell'età (carbogenesi): il più antico è l'antracite, quindi litantrace, poi lignite e il più giovane, la torba.
 
La composizione chimica elementare varia con l'età, arricchendosi in carbonio e perdendo ossigeno:
 
Sostanza % C % H % O % N % S % ceneri
Legno 50 - 54 6 - 6,5 43,5 - 44 0,3 - 0,5 0 0,5 - 1,2
Torba 50 - 60 5,5 - 6,5 30 - 48 0,8 - 3 0,1 - 0,2 3 - 25
Lignite 60 - 75 5 - 6 20 - 45 0,7 - 2 1 - 12 3 - 8
Litantrace 75 - 90 4,5 - 5,5 5 - 15 0,7 - 2 0,5 - 4 0,5 - 4
Antracite 92 - 95 2 - 2,5 3 0,5 - 1 0,5 - 2 0,5 - 2
Il loro potere calorifico aumenta da torba ad antracite, mentre il rapporto H/C è sempre più piccolo:
 
Sostanza rapporto H/C P.C. (MJ/kg)
Legno 1,55 10,5-18,8 (2500-4500 kcal/kg)
Torba 1,30 12,6-18,8 (3000-4500 kcal/kg)
Lignite 0,97 16,7-26,0 (4000-6200 kcal/kg)
Litantrace 0,72 31,8-37,7 (7600-9000 kcal/kg)
Antracite 0,29 34,8-37,7 (8300-9000 kcal/kg)
 
Comportamento al riscaldamento in assenza di aria
Inizialmente si ha una reazione endotermica (~ 150 °C) con perdita di acqua e formazione di una fase instabile M.
 
Tra 350 e 500 °C si ha la rottura dei legami intermolecolari, lo sviluppo di CH4 e H2 (fase G1) derivanti dalla rottura dei legami pendenti, formazione di radicali nel residuo solido e loro ricombinazione.
 
Si formano quindi dei prodotti di decomposizione liquidi che fungono da lubrificante per il resto del solido: si forma il cosiddetto semicoke ®, un materiale rigonfiato che si forma per solidificazione della massa solida molle.
 
Tra 600 e 700 °C si ha un'altra depolimerizzazione (che continua fino a 900-1000 °C) con sviluppo di un secondo gas G2 (NH3 acquosa, catrame, altri prodotti) e formazione di un solido S, il coke.
 
Infine si ha la risolidificazione di S, con sviluppo di calore, dovuta alla fusione totale con distruzione della struttura originaria del carbone: questa presenta unità aromatiche condensate disposte a strati, con formazione di piani paralleli a tratti.
 
All'inizio del processo di cokificazione (80% di C) si ha una "struttura aperta", caratterizzata da strati brevi, legami intermolecolari e struttura porosa. Durante il processo, quando gli idrocarburi lubrificano la massa, si ha una "struttura liquida" (89% C) con strati più orientati e diminuzione dei legami intermolecolari e della porosità. Alla fine si ha una "struttura antracitica" (94% C) che presenta strati più estesi e più orientati, e pori di forma allungata tra pacchetti di strati.
 
Effetti nocivi della combustione del carbone
La combustione del carbone, come quella di ogni altro composto del carbonio, produce anidride carbonica (CO2), monossido di carbonio, anidride solforosa ed ossidi di azoto.Per ridurre le emissioni sono state proposte tecniche di "sequestro" della CO2, anche se tali applicazioni sono ancora in fase di approfondimento e messa a punto in numerosi paesi avanzati: USA, Germania, U.K., Italia, Giappone, ecc., causa l'elevato costo che tali tecnologie richiedono per un'applicazione in larga scala.
 
L'anidride solforosa reagisce con l'acqua, formando acido solforoso. Quando l'anidride solforosa viene rilasciata nell'atmosfera, reagisce con il vapore acqueo ed eventualmente torna sulla terra in forma di pioggia acida. Per evitare questo, le moderne centrali sono equipaggiate con sistemi di desolforazione e denitrificazione, oltre che di filtrazione dei fumi post-combustione, per ridurre l'emissione di particolato in atmosfera.
 
Tali tecnologie hanno spostato la pressione inquinante di questi impianti: non sono più gli ossidi di azoto e di zolfo il problema più rilevante, ma l'emissione di monossido di carbonio e metalli pesanti.
 
La combustione del carbone a basso tenore di ossigeno, nelle caldaie ipersupercritiche, riduce infatti ulteriormente ed alla fonte l'emissione di ossidi di zolfo (SOx) ed azoto (NOx), incrementando però d'altra parte inevitabilmente l'emissione di monossido di carbonio (il cui ruolo nella genesi delle malattie cardiovascolari[9] i è oramai ben noto) ed il volume di carbone che ogni anno è possibile incenerire senza superare i limiti emissivi dei NOx ed SOx.
 
Le emissioni della combustione di carbone in centrali elettriche rappresentano così, oltre alla più grande fonte artificiale di anidride carbonica, anche quella di monossido di carbonio.
 
Tra le emissioni della combustione del carbone occorre poi ricordare i metalli pesanti. Il carbone minerale, può contenere oltre allo zolfo, anche tracce di metalli pesanti (quali nichel, cadmio, vanadio, piombo, mercurio, cromo e arsenico), di alogeni, in particolare fluoro, cloro e loro composti, e di materiali naturalmente radioattivi . La combustione del carbone è considerata tra le principali fonti di emissione antropogenica di Arsenico e Mercurio. Le ceneri leggere (fly ash) e altri rifiuti di una centrale a carbone, rilascerebbero nell'area circostante una quantità di radiazioni 100 volte superiore a quella di un impianto nucleare a parità di energia prodotta,
 
L'impatto ambientale della combustione del carbone è indicato come responsabile di 366 morti premature ogni anno in Italia, secondo uno studio commissionato da Greenpeace all'istituto di ricerca indipendente non-profit SOMO.
 
Tradizion
Il carbone viene associato al segno astrologico del Capricorno. Veniva portato indosso dai ladri come protezione dall'individuazione e come aiuto alla fuga durante gli inseguimenti. Fa parte di rituali popolari associati alla notte di capodanno. Sognare di bruciare carbone è considerato segno di disappunto, problemi, afflizione e perdita. La Befana lascia un sacchetto di carbone, al posto dei regali, ai bambini che si sono comportati male durante l'anno.
 
 


#118 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 10 agosto 2016 - 04:55

Gli Hacker
 
hacker.jpg
 
Storia
Al MIT degli anni 1920-26 vigeva un elevato livello di competizione e l'attività di hacking emerse sia come reazione sia come estensione di una tale cultura competitiva. L'istituto, con la miriade di corridoi e tunnel sotterranei, offriva ampie opportunità esplorative agli studenti. Fu così che "tunnel hacking" divenne l'accezione usata dagli stessi studenti per indicare queste incursioni sotterranee non autorizzate. In superficie il sistema telefonico del campus offriva analoghe opportunità. Grazie a esperimenti, gli studenti impararono a fare scherzi traendo ispirazione dal "tunnel hacking", questa nuova attività venne presto battezzata "phone hacking", per poi diventare il phreaking.
 
La combinazione tra divertimento creativo ed esplorazioni costituirà la base per le future mutazioni del termine hacking. I primi ad auto-qualificarsi "computer hacker" nel campus del MIT negli anni 1960 furono un gruppo di studenti appassionati di modellismo ferroviario, che negli ultimi anni 1950 si erano riuniti nel Tech Model Railroad Club. Una ristretta enclave all'interno di quest'ultimo era il comitato Signals and Power (segnali ed elettricità) - gli addetti alla gestione del sistema del circuito elettrico dei trenini del club. Un sistema costituito da un sofisticato assortimento di relè e interruttori analogo a quello che regolava il sistema telefonico del campus. Per gestirlo era sufficiente che un membro del gruppo inviasse semplicemente i vari comandi tramite un telefono collegato al sistema, osservando poi il comportamento dei trenini.
 
Bruce Sterling autore del libro Giro di vite contro gli hacker
I nuovi ingegneri elettrici responsabili per la costruzione e il mantenimento di tale sistema considerarono lo spirito di simili attività analogo a quello del phone hacking. Adottando il termine hacking, iniziarono così a raffinarne ulteriormente la portata. Dal punto di vista del comitato Signals and Power, usare un relè in meno in un determinato tratto di binari significava poterlo utilizzare per qualche progetto futuro. In maniera sottile, il termine hacking si trasformò da sinonimo di gioco ozioso, a un gioco in grado di migliorare le prestazioni o l'efficienza complessiva del sistema ferroviario del club. Quanto prima i membri di quel comitato cominciarono a indicare con orgoglio l'attività di ricostruzione e miglioramento del circuito per il funzionamento delle rotaie con il termine "hacking", mentre "hacker" erano quanti si dedicavano a tali attività.
 
Considerata la loro affinità per i sistemi elettronici sofisticati - per non parlare della tradizionale avversione degli studenti del MIT verso porte chiuse e divieti d'ingresso - non ci volle molto prima che gli hacker mettessero le mani su una macchina appena arrivata al campus. Noto come TX-0, si trattava di uno dei primi modelli di computer lanciati sul mercato. Sul finire degli anni cinquanta, l'intero comitato Signals and Power era emigrato in massa nella sala di controllo del TX-0, portandosi dietro lo stesso spirito di gioco creativo. Il vasto reame della programmazione informatica avrebbe portato a un ulteriore mutamento etimologico. "To hack" non indicava più l'attività di saldare circuiti dalle strane sembianze, bensì quella di comporre insieme vari programmi, con poco rispetto per quei metodi o procedure usati nella scrittura del software "ufficiale". Significava inoltre migliorare l'efficienza e la velocità del software già esistente che tendeva a ingolfare le risorse della macchina. Ed è qui che successivamente si colloca una diversa radice del termine hacker, la forma sostantiva del verbo inglese "to hack" che significa "tagliare", "sfrondare", "sminuzzare", "ridurre", "aprirsi un varco", appunto fra le righe di codice che istruiscono i programmi software. Un hacker era quindi uno che riduceva la complessità e la lunghezza del codice sorgente, con un "hack", appunto, una procedura grossolana ma efficace, che potrebbe essere tradotta in italiano come "zappata" o "accettata" (tagliata con l'accetta) o altrimenti con una "furbata". Rimanendo fedele alla sua radice, il termine indicava anche la realizzazione di programmi aventi l'unico scopo di divertire o di intrattenere l'utente, come "scrivere numeri romani" (cit. Richard Stallman).
 
Spacewar!
Un classico esempio di quest'ampliamento della definizione di hacker è Spacewar!, il primo video game interattivo. Sviluppato nei primi anni sessanta dagli hacker del MIT, Spacewar! includeva tutte le caratteristiche dell'hacking tradizionale: era divertente e casuale, non serviva ad altro che a fornire una distrazione serale alle decine di hacker che si divertivano a giocarvi. Dal punto di vista del software, però, rappresentava una testimonianza incredibile delle innovazioni rese possibili dalle capacità di programmazione. Inoltre era completamente libero (e gratuito). Avendolo realizzato per puro divertimento, gli hacker non vedevano alcun motivo di mettere sotto scorta la loro creazione, che finì per essere ampiamente condivisa con altri programmatori. Verso la fine degli anni sessanta, Spacewar! divenne così il passatempo preferito di quanti lavoravano ai mainframe in ogni parte del mondo.
 
Furono i concetti di innovazione collettiva e proprietà condivisa del software a distanziare l'attività di computer hacking degli anni sessanta da quelle di tunnel hacking e phone hacking del decennio precedente. Queste ultime tendevano a rivelarsi attività condotte da soli o in piccoli gruppi, per lo più limitate all'ambito del campus, e la natura segreta di tali attività non favoriva l'aperta circolazione di nuove scoperte. Invece i computer hacker operavano all'interno di una disciplina scientifica basata sulla collaborazione e sull'aperto riconoscimento dell'innovazione. Non sempre hacker e ricercatori "ufficiali" andavano a braccetto, ma nella rapida evoluzione di quell'ambito le due specie di programmatori finirono per impostare un rapporto basato sulla collaborazione - si potrebbe perfino definire una relazione simbiotica.
 
Richard Stallman
Il fatto che la successiva generazione di programmatori, incluso Richard Stallman, aspirasse a seguire le orme dei primi hacker, non fa altro che testimoniare le prodigiose capacità di questi ultimi. Nella seconda metà degli anni settanta il termine "hacker" aveva assunto la connotazione di élite. In senso generale, computer hacker era chiunque scrivesse il codice software per il solo gusto di riuscirci. In senso specifico, indicava abilità nella programmazione. Al pari del termine "artista", il significato conteneva delle connotazioni tribali. Definire hacker un collega programmatore costituiva un segno di rispetto. Auto-descriversi come hacker rivelava un'enorme fiducia personale. In entrambi i casi, la genericità iniziale dell'appellativo computer hacker andava diminuendo di pari passo alla maggiore diffusione del computer.
 
Con il restringimento della definizione, l'attività di computer hacking acquistò nuove connotazioni semantiche. Per potersi definire hacker, una persona doveva compiere qualcosa di più che scrivere programmi interessanti; doveva far parte dell'omonima cultura e onorarne le tradizioni allo stesso modo in cui un contadino del Medio Evo giurava fedeltà alla corporazione dei vinai. Pur se con una struttura sociale non così rigida come in quest'ultimo esempio, gli hacker di istituzioni elitarie come il MIT, Stanford e Carnegie Mellon iniziarono a parlare apertamente di "etica hacker": le norme non ancora scritte che governavano il comportamento quotidiano dell'hacker. Nel libro del 1984 "Hackers. Gli eroi della rivoluzione informatica", l'autore Steven Levy, dopo un lungo lavoro di ricerca e consultazione, codificò tale etica in cinque principi fondamentali.
 
Sotto molti punti di vista, i principi elencati da Levy continuano a definire l'odierna cultura del computer hacking. Eppure l'immagine di una comunità hacker analoga a una corporazione medievale, è stata scalzata dalle tendenze eccessivamente populiste dell'industria del software. A partire dai primi anni ottanta i computer presero a spuntare un po' ovunque, e i programmatori che una volta dovevano recarsi presso grandi istituzioni o aziende soltanto per aver accesso alla macchina, improvvisamente si trovarono a stretto contatto con hacker di grande livello via ARPANET. Grazie a questa vicinanza, i comuni programmatori presero ad appropriarsi delle filosofie anarchiche tipiche della cultura hacker di ambiti come quello del MIT. Tuttavia, nel corso di un simile trasferimento di valori andò perduto il tabù culturale originato al MIT contro ogni comportamento malevolo, doloso. Mentre i programmatori più giovani iniziavano a sperimentare le proprie capacità con finalità dannose - creando e disseminando virus, facendo irruzione nei sistemi informatici militari, provocando deliberatamente il blocco di macchine quali lo stesso Oz del MIT, popolare nodo di collegamento con ARPAnet - il termine "hacker" assunse connotati punk, nichilisti. Quando polizia e imprenditori iniziarono a far risalire quei crimini a un pugno di programmatori rinnegati che citavano a propria difesa frasi di comodo tratte dall'etica hacker, quest'ultimo termine prese ad apparire su quotidiani e riviste in articoli di taglio negativo. Nonostante libri come quello di Levy avessero fatto parecchio per documentare lo spirito originale di esplorazione da cui nacque la cultura dell'hacking, per la maggioranza dei giornalisti "computer hacker" divenne sinonimo di "rapinatore elettronico". Contro l'originale definizione da questo momento si insinua nella conoscenza popolare l'uguaglianza Hacker-Malvivente.
 
Analisi storica
Anche di fronte alla presenza, durante gli ultimi due decenni, delle forti lamentele degli stessi hacker contro questi presunti abusi, le valenze ribelli del termine risalenti agli anni cinquanta rendono difficile distinguere tra un quindicenne che scrive programmi capaci di infrangere le attuali protezioni cifrate, dallo studente degli anni sessanta che rompe i lucchetti e sfonda le porte per avere accesso a un terminale chiuso in qualche ufficio. D'altra parte, la sovversione creativa dell'autorità per qualcuno non è altro che un problema di sicurezza per qualcun altro. In ogni caso, l'essenziale tabù contro comportamenti dolosi o deliberatamente dannosi trova conferma a tal punto da spingere la maggioranza degli hacker ad utilizzare il termine cracker - qualcuno che volontariamente decide di infrangere un sistema di sicurezza informatico per rubare o manomettere dei dati - per indicare quegli hacker che abusano delle proprie capacità.
 
Questo fondamentale tabù contro gli atti dolosi rimane il primario collegamento culturale esistente tra l'idea di hacking del primo scorcio del XXI secolo e quello degli anni cinquanta. È importante notare come, mentre la definizione di computer hacking abbia subìto un'evoluzione durante gli ultimi quattro decenni, il concetto originario di hacking in generale - ad esempio, burlarsi di qualcuno oppure esplorare tunnel sotterranei - sia invece rimasto inalterato. Nell'autunno 2000 il MIT Museum onorò quest'antica tradizione dedicando al tema un'apposita mostra, la Hall of Hacks. Questa comprendeva alcune fotografie risalenti agli anni venti, inclusa una in cui appare una finta auto della polizia. Nel 1993, gli studenti resero un tributo all'idea originale di hacking del MIT posizionando la stessa macchina della polizia, con le luci lampeggianti, sulla sommità del principale edificio dell'istituto. La targa della macchina era IHTFP, acronimo dai diversi significati e molto diffuso al MIT e attualmente la stessa macchina è esposta all'interno dell'edificio del MIT, Ray and Maria Stata Center. La versione maggiormente degna di nota, anch'essa risalente al periodo di alta competitività nella vita studentesca degli anni cinquanta, è "I hate this fucking place" (Odio questo fottuto posto). Tuttavia nel 1990, il Museum riprese il medesimo acronimo come punto di partenza per una pubblicazione sulla storia dell'hacking. Sotto il titolo "Institute for Hacks Tomfoolery and Pranks" (Istituto per scherzi folli e goliardate), la rivista offre un adeguato riassunto di quelle attività.
 
"Nella cultura dell'hacking, ogni creazione semplice ed elegante riceve un'alta valutazione come si trattasse di scienza pura", scrive Randolph Ryan, giornalista del Boston Globe, in un articolo del 1993 incluso nella mostra in cui compariva la macchina della polizia. "L'azione di hack differisce da una comune goliardata perché richiede attenta pianificazione, organizzazione e finezza, oltre a fondarsi su una buona dose di arguzia e inventiva. La norma non scritta vuole che ogni hack sia divertente, non distruttivo e non rechi danno. Anzi, talvolta gli stessi hacker aiutano nell'opera di smantellamento dei propri manufatti".
 
A questo proposito all'ingresso del MIT Ray and Maria Stata Center è presente il cartello della Hacking Etiquette (galateo dell'hacking) che riporta undici regole sviluppate dalla comunità hacker studentesca.
 
Be Safe – Your safety, the safety of others, and the safety of anyone you hack should never be compromised.
Sta' attento: la tua sicurezza, la sicurezza degli altri e la sicurezza di chiunque tu stia hackerando non dovrebbero mai essere compromesse.
Be Subtle – Leave no evidence that you were ever there.
Sii sottile: non lasciare alcuna prova che tu sia mai stato lì.
Leave things as you found them – or better.
Lascia le cose come le hai trovate, o meglio.
If you find something broken call F-IXIT.
Se trovi qualcosa di rotto, chiama F-IXIT [il numero interno per segnalare problemi alle infrastrutture].
Leave no damage.
Non lasciare danni.
Do not steal anything.
Non rubare nulla.
Brute force is the last resort of the incompetent.
La forza bruta è l'ultima risorsa degli incompetenti.
Do not hack while under the influence of alcohol or drugs.
Non hackerare sotto l'effetto di alcool o droghe.
Do not drop things off (a building) without a ground crew.
Non far cadere oggetti (da un edificio) senza personale di terra.
Do not hack alone.
Non hackerare da solo.
Above all exercise some common sense.
Sopra ogni cosa, fa' uso del tuo buon senso.
Inoltre, sempre all'ingresso del MIT, è presente un altro cimelio della storia dell'hacking proprio accanto ai "comandamenti" dell'etica di un Hacker: L'idrante del MIT collegato a una fontana indicante la famosa frase del presidente del MIT Jerome Weisner (1971-1980) "Getting an education at MIT is like taking a drink from a fire hose", ovvero, "Essere istruiti al MIT è come bere da un tubo antincendio".
 
Il desiderio di confinare la cultura del computer hacking all'interno degli stessi confini etici appare opera meritevole ma impossibile. Nonostante la gran parte dell'hacking informatico aspiri al medesimo spirito di eleganza e semplicità, il medium stesso del software offre un livello inferiore di reversibilità. Smontare una macchina della polizia è opera semplice in confronto allo smantellamento di un'idea, soprattutto quando è ormai giunta l'ora per l'affermazione di tale idea. Da qui la crescente distinzione tra "black hat" e "white hat" ("cappello nero" e "cappello bianco") - hacker che rivolgono nuove idee verso finalità distruttive, dolose contro hacker che invece mirano a scopi positivi o, quantomeno, informativi.
 
Una volta oscuro elemento del gergo studentesco, la parola "hacker" è divenuta una palla da biliardo linguistica, soggetta a spinte politiche e sfumature etiche. Forse è questo il motivo per cui a così tanti hacker e giornalisti piace farne uso. Nessuno può tuttavia indovinare quale sarà la prossima sponda che la palla si troverà a colpire.
 
Il concetto
Il termine hacker, nel gergo informatico, è spesso connotato da un'accezione negativa, in quanto nell'immaginario collettivo identifica un soggetto dedito a operazioni e comportamenti illeciti o illegali. Tipicamente si tratta di un informatico con una vasta cultura informatica che copre sia gli aspetti sistemistici che quelli programmativi.
 
Egli può svolgere, dal punto di vista professionale, una serie di attività pienamente lecite e utili: i sistemi informatici sono infatti sottoposti a specifici e costanti test al fine di valutarne e comprovarne sicurezza e affidabilità. L'attività di hacking assume rilievo anche poiché di frequente le informazioni tecniche e le potenzialità di un sistema non sono interamente rese note dal produttore, o addirittura in certi casi volutamente protette (per motivi industriali, commerciali o per tutelarne sicurezza e affidabilità). L'hacker agisce quindi nella ricerca di potenziali falle, per aumentare la propria competenza, rendere più sicuro un sistema o violarlo (si veda, più propriamente, cracker).
 
Il New Hacker Dictionary, compendio online dove sono raccolti i termini gergali dei programmatori, elenca ufficialmente nove diverse connotazioni per la parola "hack" e un numero analogo per "hacker". Eppure la stessa pubblicazione include un saggio d'accompagnamento in cui si cita Phil Agre, un hacker del Massachusetts Institute of Technology (MIT) che mette in guardia i lettori a non farsi fuorviare dall'apparente flessibilità del termine. "Hack ha solo un significato" - sostiene Agre - "Quello estremamente sottile e profondo di qualcosa che rifiuta ulteriori spiegazioni."
 
A prescindere dall'ampiezza della definizione, la maggioranza degli odierni hacker ne fa risalire l'etimologia al MIT, dove il termine fece la sua comparsa nel gergo studentesco all'inizio degli anni cinquanta. Secondo una pubblicazione diffusa nel 1990 dal MIT Museum, a documentare il fenomeno dell'hacking, per quanti frequentavano l'istituto in quegli anni il termine "hack" veniva usato con un significato analogo a quello dell'odierno "goof" (scemenza, goliardata). Stendere una vecchia carcassa fuori dalla finestra del dormitorio veniva considerato un "hack", ma altre azioni più pesanti o dolose - ad esempio, tirare delle uova contro le finestre del dormitorio rivale, oppure deturpare una statua nel campus - superavano quei limiti. Era implicito nella definizione di "hack" lo spirito di un divertimento creativo e innocuo.
 
È a tale spirito che s'ispirava il gerundio del termine: "hacking". Uno studente degli anni cinquanta che trascorreva gran parte del pomeriggio chiacchierando al telefono o smontando una radio, poteva descrivere quelle attività come "hacking". Di nuovo, l'equivalente moderno per indicare le stesse attività potrebbe essere la forma verbale derivata da "goof" - "goofing" o "goofing off" (prendere in giro qualcuno, divertirsi).
 
Significati
Volendo specificare tutti i vari ambiti in cui viene usato il termine "hacker", si possono evidenziare questi significati:
 
Qualcuno che conosce la programmazione abbastanza bene da essere in grado di scrivere un software nuovo e utile senza troppa fatica, in una giornata o comunque rapidamente.
Qualcuno che riesce ad inserirsi in un sistema o in una rete per aiutare i proprietari a prendere coscienza di un problema di sicurezza. Anche detti "white hat hacker" o "sneaker". Molte di queste persone sono impiegate in aziende di sicurezza informatica e lavorano nella completa legalità. Gli altri vengono definiti "black hat hacker" sebbene spesso il termine venga connotato anche in maniera più negativa del semplice "aiutare i proprietari" e collegato al vero e proprio vandalismo.
Qualcuno che, attraverso l'esperienza o per tentativi successivi, modifica un software esistente in modo tale da rendere disponibile una nuova funzione. Più che una competizione, lo scambio tra diversi programmatori di modifiche sui relativi software è visto come un'occasione di collaborazione.
Un "Reality Hacker" o "Urban Spelunker" (origine: MIT) è qualcuno che si addentra nei meandri più nascosti di una città, spesso mettendo a segno "scherzi" elaborati per il divertimento della comunità.
Un Hacker in senso stretto è colui che associa ad una profonda conoscenza dei sistemi una intangibilità dell'essere, esso è invisibile a tutti eccetto che a se stesso. Non sono certamente Hacker in senso stretto tutti coloro che affermano di esserlo, in un certo senso gli Hacker in senso stretto non esistono, perché se qualcuno sapesse della loro esistenza per definizione non esisterebbero.
 
"Script kiddie" è un termine che indica un utente con poca o nessuna cultura informatica che segue semplicemente delle istruzioni o un "cook-book" senza capire il significato di ciò che sta facendo. Spesso viene utilizzato per indicare chi utilizza exploit creati da altri programmatori e hacker.
 
Un "lamer" è uno script kiddie che utilizza ad esempio trojan (NetBus, subseven) per pavoneggiarsi con gli altri e far credere di essere molto esperto, ma in realtà non sa praticamente nulla e si diverte ad arrecare danno ad altri. I Lamer sono notoriamente disprezzati dagli Hacker appunto per la loro tendenza a danneggiare gratuitamente i computer e successivamente a vantarsi di quello che hanno fatto.
 
Un "newbie" (niubbo) è una persona alle prime armi in questo campo.
 
Hacker famosi
Questa voce non è neutrale!
La neutralità di questa voce o sezione sull'argomento informatica è stata messa in dubbio.
Motivo: Allo stato lista pov, mancano criteri oggettivi e fonti a supporto.
Per contribuire, correggi i toni enfatici o di parte e partecipa alla discussione. Non rimuovere questo avviso finché la disputa non è risolta. Segui i suggerimenti del progetto di riferimento.
Richard Greenblatt e Bill Gosper - programmatori, considerati i fondatori della comunità hacker nella prima parte degli anni 1960
Richard Stallman - programmatore (autore, tra gli altri, di Emacs e GCC), ideatore del concetto di Software libero e di copyleft
Ward Cunningham - ideatore del concetto di wiki
Johan Helsingius - mantenne il più famoso anonymous remailer del mondo, finché non lo chiuse nel 1996
Eric S. Raymond - fondatore del movimento open source, scrittore di libri e saggi sulla cultura hacker
Tsutomu Shimomura - avversario del famoso cracker Kevin Mitnick, che riuscì a far arrestare
Ken Thompson e Dennis Ritchie - autori del sistema operativo Unix
Linus Torvalds - autore del Kernel Linux
Larry Wall - autore del Perl
Tron - abile phreaker tedesco morto in modo misterioso
John Draper - Meglio conosciuto come Capitan Crunch, primo phreaker della storia
Loyd Blankenship - Meglio conosciuto come The Mentor. Scrittore del breve saggio The Hacker Manifesto, considerato una pietra miliare della cultura hacker
George Francis Hotz - È stato il primo a violare la sicurezza della PlayStation 3, è diventato famoso con alcuni tool da lui sviluppati per il jailbreak dell'IPhone
Rafael Núñez - noto anche come RaFa (...), hacker venezuelano, membro dei World of Hell
Adrian Lamo
Anonymous
Steve Wozniak
Robert Morris
Gary McKinnon (hacker) anche noto come "Solo" È accusato dalla giustizia statunitense di aver perpetrato "la più grande intrusione informatica su computer appartenenti alla difesa che si sia mai verificata in tutti i tempi."
Jono Bacon
Ingo Molnar è un programmatore e hacker ungherese attualmente impiegato presso la Red Hat
Fredrik Neij alias TiAMO (27 aprile 1978), è un hacker svedese. È cofondatore di The Pirate Bay
Georg C. F. Greve È il fondatore e presidente della Free Software Foundation Europe
Bradley M. Kuhn è un programmatore e hacker statunitense.
Benjamin Mako Hill È un collaboratore dei progetti Debian e Ubuntu e sviluppatore di software libero
William John Sullivan
Onel de Guzmán
Ricardo Galli è un programmatore e hacker spagnolo
Un gruppo di hacker, sono gli Anonymous
 
 


#119 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 17 agosto 2016 - 05:15

Il cinema delle origini
 
800px-Phenakistoscope_3g07690u.jpg
 
'La sortie des usines Lumière'
La data della nascita del cinema, convenzionalmente riconosciuta, è il 28 dicembre 1895, quando i fratelli Lumière proiettano per la prima volta in pubblico il loro primo cortometraggio intitolato La sortie des usines Lumière: l'unica inquadratura che lo compone ritrae degli operai che escono dalla fabbrica di materiali fotografici Lumière, appunto, ed è l'esempio essenziale degli elementi del cinema primitivo: immagini di soggetti in movimento in un contesto reale.Questo nuovo mezzo d'intrattenimento offre alle masse popolari uno spettacolo economico, più semplice da portare in giro rispetto alle produzioni teatrali, nuovo rispetto ai precedenti mezzi artistici, come libri fotografici o lanterne magiche, che raffigurano immagini statiche o movimenti stilizzati.
 
L'invenzione del cinema
La prima regola da comprendere per realizzare un mezzo complesso come il cinema è quella secondo cui l'occhio umano percepisce il movimento quando guarda una serie di immagini in successione ad una velocità di almeno 16 fotogrammi al secondo. A seguito di questa constatazione, si commercializzano vari dispositivi in grado di simulare il movimento: nel 1832 Joseph Plateau e Simon Stampfer, fisico belga il primo e professore di geometria austriaco il secondo inventano il fenachistoscopio
 
 
Fenachistoscopio
separatamente l'uno dall'altro; nel 1833 William George Horner inventa invece lo zootropio, e nel 1877 Émile Reynaud costruisce il prassinoscopio. Tali strumenti si basano sulla ripetizione di un solo movimento, dato che sono principalmente composti da una serie di figure disegnate su un disco o una striscia di carta, che gira dietro un disco o all'interno di un cilindro forato: guardando nei buchi si ha l'illusione del movimento, che si ripete di continuo.
 
Un secondo requisito fondamentale che soggiace all'esistenza del cinema è la possibilità di proiettare le immagini su una superficie: le lanterne magiche non permetto una riproduzione tanto veloce da creare l'illusione del movimento.In terzo luogo, dev'essere possibile riprendere le immagini in rapida successione, prima di proiettarle: la prima fotografia è realizzata da Joseph Nicéphore Niépce su una lastra di vetro, ma l'esposizione dura circa 8 ore. Il primo negativo su carta, invece, è introdotto nel 1839 da William Henry Talbot, ma i tempi di esposizione non riescono ancora a ridursi a frazioni di secondo. La quarta condizione richiede che le immagini siano impressionate su una base flessibile, che possa scorrere velocemente in una macchina da presa e un proiettore: il vetro non è adatto a questo compito. George Eastman, quindi, nel 1888 inventa un apparecchio che impressiona rulli di carta sensibile e che semplifica radicalmente la fotografia, permettendone la diffusione su larga scala: la macchina fotografica Kodak.
 
L'ultimo ostacolo da superare, infine, consiste nell'escogitare un meccanismo intermittente che permetta alla pellicola di scorrere a scatti, perché se le immagini fossero state proiettate senza interruzioni, sarebbero risultate confuse. Non è solo il cinema, però, che ha bisogno di un simile dispositivo: anche la macchina per cucire, inventata nel 1846, ferma il tessuto molte volte al secondo per permettere all'ago di forarlo.
 
Studio di Muybridge sul movimento
Alcuni inventori che si dedicano all'analisi del movimento danno anch'essi il loro contributo allo sviluppo del cinema: Eadweard Muybridge, durante uno studio per analizzare la corsa dei cavalli, posiziona 12 macchine fotografiche - ciascuna con il tempo di esposizione di 1/1000 s - in fila; costruisce poi una lanterna magica in cui proiettare delle copie delle sue immagini. Questo lavoro ispira il fisiologo francese Étienne-Jules Marey, il quale studia i movimenti veloci degli animali e riesce a immortalarne le fasi grazie al fucile fotografico, che impressiona in un secondo 12 fotogrammi posti intorno a un disco di vetro. Un altro francese, Augustine Le Prince, riesce quasi ad inventare il cinema quando nel 1888 realizza un breve film alla velocità di 16 fotogrami/secondo con il rullo di carta Kodak. Tuttavia, manca di un supporto flessibile e trasparente per proiettare queste immagini, e la sua macchina non influenza la futura storia del cinema perché non è sfruttata commercialmente.
 
Vista interna di un kinetoscopio
Dopo aver osservato il cronofotografo di Marey, Thomas Alva Edison e W.K.L. Dickson brevettano il kinefotografo e il kinetoscopio, apparecchio – quest'ultimo – all'interno del quale la pellicola flessibile scorre su dei cilindri: è un passo storico per la storia del cinema come mezzo tecnico perché Dickson inventa il formato 35 mm, tutt'ora usato. Egli, infatti, taglia le strisce kodak in nastri di circa 35mm con quattro fori ai lati di ogni fotogramma, in modo che una ruota dentata possa trascinare la pellicola attraverso la macchina da presa e il kinetoscopio. La velocità con cui impressionano inizialmente la pellicola è però di 46 fotogrammi al secondo, molto maggiore di quella adottata successivamente dal cinema muto.
 
Edison e Dickson hanno bisogno di un repertorio di film e spettacoli per trarre profitto dalla loro invenzione: costruiscono così il primo teatro di posa che chiamano Black Maria. I film che realizzano durano però solo 20 secondi, e non possono che mostrare brevi estratti di incontri di boxe o varietà sportivi e comici; sono mostrati in dei locali a cui Edison affitta il kinetoscopio, che riscuote un grande successo economico finché non nasce la proiezione su schermo. Un altro sistema per girare e proiettare film è quello di Max ed Emil Skladanowsky ed è chiamato bioskop; è però molto ingombrante e viene presto abbandonato.
 
Il cinematografo
Il metodo di proiezione che rende il cinema un successo commerciale internazionale è il cinematografo, che, come detto, i fratelli Lumière inventano; quest'apparecchio riprende su una pellicola da 35 mm e, se posto davanti a una lanterna magica, funge anche da proiettore. I Lumière stabiliscono anche la velocità di 16 fotogrammi al secondo, che resta lo standard per circa 25 anni. Il 28 dicembre 1895, insieme con La sortie des usines lumiere, vengono trasmessi altri 10 corti tra cui il celeberrimo Arroseur et arrosé e l'altrettanto famoso L'Arrivèe d'un train en gare de La Ciotat. Un analogo processo di invenzione si sviluppa anche in Inghilterra: Robert W. Paul, fabbricante di materiail fotografici, costruisce dei kinetoscopi su richiesta di Edison e li vende liberamente nel suo paese, dato che il brevetto dello stesso Edison non era stato esportato dagli Stati Uniti. Nel 1895, Paul realizza con Birt Acres un apparecchio basato sul modello di Marey, e nel 1896 quest'ultimo mostra alla Royal Photographic Society alcuni dei suoi film, tra cui Rough sea at Dover: uno tra i più famosi film del cinema primitivo.
 
Interessante è un resoconto di tale spettacolo:
 
«L'effetto più stupefacente, quello che strappò gli applausi ai membri della Royal, generalmente pacati, fu la riproduzione di un numero di onde che si infrangevano sulla riva, che si increspavano contro un molo, e si rompevano in nuvole di spruzzi bianchi come la neve che sembravano nascere dallo schermo».
Nello stesso periodo, gli imprenditori Francis C. Jenkins e Thomas Armat presentano il loro proiettore phantoscope a un'esposizione commerciale di Atlanta (1895), ma la scarsa affluenza di pubblico li spinge a migliorare il loro prodotto, che viene anche rinominato vitascope e introdotto sul mercato come vitascope di Edison, per motivi pubblicitari. Un'altra importante invenzione per il cinema americano nasce dal mutoscope di Herman Casler del 1904, simile a un peepshow, che funziona attraverso un congegno di fotografie rotanti azionato da una manovella. Qualche anno prima, nel 1896, Casler ha infatti fondato con Dickson l'American Mutoscope Company: sviluppano macchine da prese e proiettori che producono immagini più nitide perché impresse su una pellicola da 70 mm, un formato doppio di quello classico.
 
Rudimenti di meccanica
Il cuore di ogni proiettore cinematografico è costituito dal meccanismo di avanzamento alternato della pellicola (che può essere una croce di malta o una griffa, ma in alcuni modelli più recenti - prodotti da un'azienda tedesca titolare del brevetto - è sostituito da un motore ausiliario a rotazione intermittente - cosiddetta trazione diretta). Il fotogramma della pellicola (cioè la singola fotografia) viene collocato per un ventiquattresimo di secondo (laddove si adotti la velocità standard di 24 ft/s) davanti ad una lampada che genera un fascio di luce; questo, dopo aver illuminato il fotogramma, transita per un obiettivo il quale ha il compito di indirizzarlo sullo schermo consentendone la messa a fuoco.
 
Durante il funzionamento del meccanismo di avanzamento intermittente, un altro componente del proiettore (cd. otturatore: a pale o a farfalla) ha il compito di interrompere il fascio di luce onde impedire all'occhio dello spettatore di cogliere il fotogramma durante il suo spostamento.
 
Lampi di luce
Il numero di lampi di luce emessi però non è 24 al secondo - come sembrerebbe logico, atteso che la cadenza di proiezione è di 24 fotogrammi per secondo - ma 48: il fenomeno della persistenza delle immagini sulla retina consente all'occhio di non cogliere l'alternanza di buio e di luce solo a partire da circa cinquanta cicli al secondo.
 
Perciò l'otturatore deve essere costruito in modo da consentire almeno due otturazioni per ogni fotogramma proiettato: ne consegue che ogni due interruzioni del fascio di luce, una serve ad occultare il cambio di fotogramma, ed una ha una mera funzione compensativa onde incrementare la frequenza dei lampi sullo schermo. In questo modo durante una normale proiezione si determinano quarantotto lampi al secondo sullo schermo, valore, questo, abbastanza vicino a quei cinquanta cicli necessari. Con l'avvento di proiettori delle ultime generazioni sono state introdotte anche cadenze multiple, con il raggiungimento di 72 lampi.
 
Le lampade
 
Carboni e specchio di una lanterna di un proiettore
Le prime lampade per proiezione utilizzavano miscele di eteri e ossigeno. Ciò, unito alla forte infiammabilità del primitivo supporto (la celluloide) era fonte di gravi pericoli per gli spettatori. E infatti nel 1897, durante una festa di beneficenza organizzata a Parigi dall'aristocrazia francese, un violento incendio, causato dall'errata manovra di riaccensione della lampada, distrusse il padiglione di legno che ospitava la festa provocando la morte di centoventuno persone. Le lampade a fiamma furono così bruscamente abbandonate.
 
La diffusione della rete elettrica consentì l'adozione delle prime lampade ad arco elettrico (inventato da Davy nel 1808). A questa famiglia appartengono le lampade tuttora impiegate nei proiettori professionali.
 
L'arco è dovuto al passaggio di corrente nello spazio gassoso che separa due conduttori. Le prime lanterne ad arco contenevano due elettrodi (costituiti da lunghi cilindretti di carbone di storta ricoperti di rame) i quali, una volta avvicinati, dopo essere stati messi in tensione, provocavano una scintilla (cd. adescamento dell'arco); il successivo allontanamento dei due elettrodi determinava il formarsi dell'arco. Un apposito motorino elettrico li faceva avanzare, mantenendoli nella posizione di fuoco ottico, compensando il loro consumo (molto approssimativamente 20 cm/h).
 
Attualmente, anche nei proiettori cinematografici di tipo digitale, la sorgente di luce è la stessa, sempre un arco elettrico, ma generato da lampade allo Xeno ad alta pressione.
 
Tipi di lampade
 
Lampade per proiettori 16 mm
Oggi gli elettrodi di tungsteno sono contenuti in ampolle riempite con particolari gas (come lo xeno) e terre rare; l'innesco è provocato non meccanicamente, ma inviando agli elettrodi una scarica elettrica ad alta tensione.
 
Le lampade ad arco del tipo descritto emettono una luce molto bianca la cui temperatura di colore è tra i 5600 e 6200 K, equivalente alla temperatura di colore della luce solare nelle ore di massima luminosità (quando una fonte luminosa è accreditata di una certa temperatura di colore vuol dire che fornisce la stessa luce che verrebbe emessa da un corpo nero riscaldato alla temperatura indicata; un indice di misurazione più preciso, ma anche più complesso, è il cosiddetto indice di resa cromatica).
 
Nei proiettori destinati all'uso domestico si adottano, invece, lampade alogene ad incandescenza, la cui temperatura colore è di 3200 K. Questo significa che questo tipo di luce contiene in misura maggiore le frequenze del rosso, ma ciò non si deve considerare un difetto, dato che le pellicole per uso amatoriale – come il Kodachrome – risultano più gradevoli alla proiezione se si impiega una luce più calda, com'è appunto quella di tali lampade.
 
Il trascinamento della pellicola
I bordi di una pellicola cinematografica sono perforati in maniera regolare. Nel formato standard più diffuso, il 35mm, ogni fotogramma ha quattro perforazioni per lato, il formato 16mm ha invece, per ogni fotogramma, due perforazioni per ogni lato oppure due su di un solo lato. Lo scopo di queste perforazioni è quello di consentire l'avanzamento o il trascinamento regolare della pellicola attraverso una serie di rocchetti dentati, collegati ad un motore elettrico grazie ad un sistema di cinghie e di pulegge. Altri rocchetti non motorizzati (rocchetti "folli") servono a impedire che la pellicola scivoli fuori dal suo percorso e si strappi. La pellicola viene avvolta su di una bobina della capacità adeguata per dimensioni e durata del film, detta bobina di svolgimento, posta a monte del proiettore (in genere in alto o posteriormente) e viene raccolta da un'altra bobina uguale, detta bobina d'avvolgimento.
 
 

 



#120 Guest_deleted32173_*

Guest_deleted32173_*
  • Guests
Reputazione: 0

Inviato 24 agosto 2016 - 02:17

Terremoto
 
400px-Schema_Terremoto2.jpg
 
Schema di cosa genera un terremoto. L'improvviso spostamento di una massa rocciosa, di solito non superficiale, genera le onde sismiche che raggiungono in breve tempo la superficie terrestre facendo vibrare gli strati rocciosi e i terreni soprastanti.
In geofisica i terremoti (dal latino: terrae motus, che vuol dire "movimento della terra"), detti anche sismi o scosse telluriche (dal latino Tellus, dea romana della Terra), sono vibrazioni o assestamenti improvvisi della crosta terrestre, provocati dallo spostamento improvviso di una massa rocciosa nel sottosuolo.
 
Tale spostamento è generato dalle forze di natura tettonica che agiscono costantemente all'interno della crosta terrestre provocando la liberazione di energia in una zona interna della Terra detta ipocentro, tipicamente localizzato al di sopra di fratture preesistenti della crosta dette faglie; a partire dalla frattura creatasi una serie di onde elastiche, dette "onde sismiche", si propaga in tutte le direzioni dall'ipocentro, dando vita al fenomeno osservato in superficie. Il luogo della superficie terrestre posto sulla verticale dell'ipocentro si chiama epicentro ed è generalmente quello più interessato dal fenomeno. La branca della geofisica che studia questi fenomeni è la sismologia.
 
Quasi tutti i terremoti che avvengono sulla superficie terrestre sono concentrati in zone ben precise, ossia in prossimità dei confini tra due placche tettoniche dove il contatto è costituito da faglie: queste sono infatti le aree tettonicamente attive, ossia dove le placche si muovono più o meno lentamente "sfregando" o "cozzando" le une rispetto alle altre, generando così i terremoti d'interplacca. Più raramente i terremoti avvengono lontano dalle zone di confine tra placche, per riassestamenti tettonici. Terremoti localizzati e di minor intensità sono registrabili in aree vulcaniche per effetto del movimento di masse magmatiche in profondità.
 
Secondo il modello della tettonica delle placche il movimento delle placche è lento, costante e impercettibile (se non con strumenti appositi), e modella e distorce le rocce sia in superficie che nel sottosuolo. Tuttavia in alcuni momenti e in alcune aree, a causa delle forze interne (pressioni, tensioni e attriti) tra le masse rocciose, tali modellamenti si arrestano e la superficie coinvolta accumula tensione ed energia per decine o centinaia di anni fino a che, al raggiungimento del carico di rottura, l'energia accumulata è sufficiente a superare le forze resistenti causando l'improvviso e repentino spostamento della massa rocciosa coinvolta. Tale movimento improvviso, che in pochi secondi rilascia energia accumulata per decine o centinaia di anni, genera così le onde sismiche e il terremoto associato.
 
Descrizione
Oggi definiamo terremoto (o sisma) l'evento che ha origine quando lo scontro tra due zolle causa una rapida vibrazione della crosta terrestre capace di sprigionare quantità elevatissime di energia, indipendentemente dagli effetti che provoca. Ogni giorno sulla Terra si verificano migliaia di terremoti: sperimentalmente si osserva che la stragrande maggioranza di terremoti al mondo, così come di eruzioni vulcaniche, avviene lungo la cosiddetta cintura di fuoco Pacifica e quindi interessa spesso la crosta oceanica come zona di innesco o fratturazione. Solo qualche decina sono percepiti dalla popolazione e la maggior parte di questi ultimi causano poco o nessun danno. La durata media di una scossa è molto al di sotto dei 30 secondi; per i terremoti più forti può però arrivare fino a qualche minuto.
 
 
Mappa delle zone sismiche terrestri
La sorgente del sisma è generalmente distribuita in una zona interna della crosta terrestre. Nel caso dei terremoti più devastanti questa può avere un'estensione anche dell'ordine di un migliaio di chilometri ma è idealmente possibile identificare un punto preciso dal quale le onde sismiche hanno avuto origine: questo si chiama "ipocentro" e qui si è originato il movimento a partire dalla frattura preesistente (faglia) o la sua improvvisa generazione. La proiezione verticale dell'ipocentro sulla superficie terrestre viene invece detta "epicentro", ed è il punto in cui di solito si verificano i danni maggiori. Le onde elastiche che si propagano durante un terremoto sono di diverso tipo e in alcuni casi possono risultare in un movimento prevalentemente orizzontale (scossa ondulatoria) o verticale del terreno (scossa sussultoria).
 
Alcuni terremoti si manifestano o sono preceduti da sciami sismici (foreshocks) più o meno lunghi e intensi, caratterizzati da più terremoti ripetuti nel tempo e particolarmente circoscritti in una determinata area, altri invece si manifestano subito e improvvisamente con una o più scosse principali (main shock); un'altra forma sono le sequenze sismiche, caratterizzate ciascuna da più terremoti sprigionati in successione ravvicinata e non circoscritti in una determinata zona. I terremoti di maggiore magnitudo sono di solito accompagnati da eventi secondari (non necessariamente meno distruttivi) che seguono la scossa principale e si definiscono repliche (aftershocks, spesso definite erroneamente scosse di assestamento). Quando più eventi si verificano contemporaneamente o quasi, può trattarsi di terremoti indotti (il sisma innesca la fratturazione di altra roccia che era già prossima al punto critico di rottura).
 
Un terremoto, inoltre, può essere accompagnato da forti rumori che possono ricordare boati, rombi, tuoni, sequenze di spari, eccetera: questi suoni sono dovuti al passaggio delle onde sismiche all'atmosfera e sono più intensi in vicinanza dell'epicentro.
 
Cause
Exquisite-kfind.png Lo stesso argomento in dettaglio: Teoria della reazione elastica.
In generale i terremoti sono causati da improvvisi movimenti di masse rocciose (più o meno grandi) all'interno della crosta terrestre.
 
La superficie terrestre è infatti in lento, ma costante movimento (vedi tettonica delle placche) e i terremoti si verificano quando la tensione risultante accumulata da stress meccanici eccede la capacità o resistenza del materiale roccioso di sopportarla, cioè supera il cosiddetto carico di rottura.
 
Questa condizione si verifica molto spesso ai confini delle placche tettoniche. Gli eventi sismici che si verificano ai confini tra placche sono detti terremoti tettonici, quelli meno frequenti che avvengono all'interno delle placche della litosfera sono invece detti terremoti intraplacca.
 
Quasi tutti i terremoti che avvengono sulla superficie terrestre sono quindi concentrati in zone ben precise, ossia in prossimità dei confini tra una placca tettonica e l'altra: queste sono infatti le aree tettonicamente attive, dove cioè le placche si muovono più o meno lentamente e improvvisamente le une rispetto alle altre. Secondo la tettonica delle placche la superficie della Terra è infatti modellata come se fosse composta da circa una dozzina di grandi placche tettoniche che si muovono molto lentamente, a causa delle correnti di convezione del mantello terrestre posto sotto la crosta terrestre. Poiché esse non si muovono tutte nella stessa direzione, le placche spesso collidono direttamente slittando lateralmente lungo il bordo di un'altra (faglia trasforme). In generale il movimento delle placche è lento, impercettibile (se non con strumenti appositi) e costante; tuttavia in alcuni momenti e in alcune aree, il movimento si arresta e la zona coinvolta accumula energia per decenni o secoli fino al raggiungimento del cosiddetto carico di rottura, quando a causa delle forze interne, ovvero del bilancio tra pressioni, tensioni e attriti tra le masse rocciose, tali movimenti avvengono in maniera improvvisa e repentina rilasciando l'energia accumulata e sviluppando così un terremoto.
 
La disposizione delle zone sismiche risulta localizzata in massima parte lungo i margini tra le zolle tettoniche (es. cintura di fuoco) e in particolare lungo le fosse abissali (zone di subduzione), dove lo sprofondamento della crosta oceanica al di sotto di altre porzioni di crosta terrestre porta alla fusione per attrito di parte della zona rocciosa di contatto, oppure lungo le dorsali oceaniche dove il magma del mantello terrestre risale in superficie attraverso le fratture della crosta oceanica e una volta solidificato va a "saldare" le placche stesse; i terremoti lungo le dorsali sono dunque l'effetto della rottura repentina di queste saldature al raggiungimento di un certo livello di stress meccanico. In queste zone i fenomeni sismici sono spesso associati anche al vulcanismo per la concomitanza delle forze tettoniche in gioco e per questo motivo le eruzioni vulcaniche in loco sono spesso precedute da terremoti.
 
Si presume dunque che la dislocazione delle placche sia il meccanismo scatenante dei terremoti. Causa secondaria è il movimento magmatico all'interno di un vulcano, che può essere indice di una imminente eruzione assieme al caratteristico tremore. In rarissimi casi, terremoti sono stati associati all'accumulo di grandi masse d'acqua nei bacini delle dighe, come per la diga di Kariba in Zambia, Africa, e con l'iniezione o estrazione di fluidi dalla crosta terrestre (Arsenale delle Montagne Rocciose). Tali terremoti avvengono perché la resistenza della crosta terrestre può essere modificata dalla pressione del fluido.
 
Tipi di faglie
Exquisite-kfind.png Lo stesso argomento in dettaglio: Faglia.
I terremoti si verificano su fratture o spaccature della crosta terrestre note come faglie sismiche, laddove cioè si accumula lo stress meccanico indotto dai movimenti tettonici. I confini tra placche tettoniche non sono infatti definiti da una semplice rottura o discontinuità, ma questa spesso si manifesta attraverso un sistema di più fratture, che possono essere indipendenti tra loro ed anche parallele per alcuni tratti, che rappresentano appunto le faglie. Esistono diversi tipi di faglie suddivise a seconda del movimento relativo delle porzioni tettoniche adiacenti alla frattura stessa e dell'angolo del piano di faglia. Il processo di formazione e sviluppo della faglia, nonché dei terremoti stessi, è noto come fagliazione e può essere studiato attraverso tecniche di analisi proprie della meccanica della frattura.
 
L'intensità di un sisma dipende dalla quantità di energia accumulata nel punto di rottura che dipende a sua volta in generale dal tipo di rocce coinvolte nel processo di accumulo, cioè dal loro carico di rottura, dal tipo di sollecitazione o stress interno e dal tipo di faglia.
 
Le onde sismiche
Exquisite-kfind.png Lo stesso argomento in dettaglio: Onde sismiche.
Si distinguono tre tipi di onde sismiche:
 
Onde di compressione o longitudinali (P)
Le onde longitudinali fanno oscillare le particelle della roccia nella stessa direzione di propagazione dell'onda. Esse generano quindi "compressioni" e "rarefazioni" successive nel materiale in cui si propagano. La velocità di propagazione dipende dalle caratteristiche elastiche del materiale e dalla sua densità; in genere però viaggiano a una velocità compresa tra i 4 e gli 8 km/s. Poiché le onde P si propagano più rapidamente, sono anche le prime (P = Primarie) a raggiungere i sismometri, e quindi ad essere registrate dai sismografi. Queste onde sismiche attraversano longitudinalmente tutti i tipi di materia: solidi, liquidi e gas.
 
Onde di taglio o trasversali (S)
Le onde S, ovvero onde "secondarie", si propagano solo nei solidi perpendicolarmente alla loro direzione di propagazione (onde di taglio). Esse sono più lente delle onde P, viaggiando nella crosta terrestre con una velocità fra 2 e 4 km/s. Le onde S non possono propagarsi attraverso i fluidi e i gas perché questi non oppongono resistenza al taglio. A differenza delle onde P le onde S non causano variazioni di volume.
 
Onde superficiali (R e L)
Le onde superficiali, a differenza di ciò che si potrebbe pensare, non si manifestano nell'epicentro, ma solo ad una certa distanza da questo. Tali onde sono il frutto del combinarsi delle onde P e delle onde S, e sono perciò molto complesse. Le onde superficiali sono quelle che provocano i maggiori danni.
 
Le onde di Rayleigh, dette anche onde R, muovono le particelle secondo orbite ellittiche in un piano verticale lungo la direzione di propagazione, come avviene per le onde in acqua.
 
Le onde di Love, dette anche onde L, muovono invece le particelle trasversalmente alla direzione di propagazione (come le onde S), ma solo sul piano orizzontale.
 
Tutte le onde sismiche sono soggette ad attenuazione con la distanza in funzione delle caratteristiche del mezzo di propagazione.
 
Rilevazione e misurazione
Le onde sismiche sono rilevabili e misurabili attraverso particolari strumenti detti sismografi, usati comunemente dai sismologi, e visualizzabili su sismogrammi; l'elaborazione incrociata dei dati di più sismografi sparsi su un territorio ad una certa distanza dal sisma consente di stimare in maniera abbastanza accurata l'epicentro, l'ipocentro e l'intensità del sisma; quest'ultima può essere valutata attraverso le cosiddette scale sismiche, principalmente la Scala Richter, la Scala Mercalli e la Scala di magnitudo del momento sismico.
 
Lo spostamento tettonico della crosta terrestre nelle 3 coordinate spaziali in seguito a un forte terremoto può essere misurato accuratamente attraverso tecniche di telerilevamento quali le rilevazioni geodetiche e l'interferometria radar-satellitare tramite SAR nell'intera area colpita a partire dall'epicentro.
 
Effetti e danni
 
Danni provocati da un terremoto
 
Il disallineamento dei blocchi delle colonne del Tempio di Efesto è attribuito all'effetto sull'edificio di terremoti avvenuti nel passato
I terremoti sono gli eventi naturali di gran lunga più potenti sulla terra; i sismi possono rilasciare in pochi secondi un'energia superiore a migliaia di bombe atomiche, solitamente misurata in termini di momento sismico. A tal riguardo basti pensare che un terremoto riesce a spostare in pochi secondi volumi di roccia di centinaia di chilometri cubi.
 
In conseguenza di ciò i terremoti possono causare gravi distruzioni e alte perdite di vite umane attraverso una serie di agenti distruttivi, il principale dei quali è il movimento violento del terreno con conseguente sollecitazione delle strutture edilizie in posa (edifici, ponti ecc.), accompagnato eventualmente anche da altri effetti secondari quali inondazioni (ad esempio cedimento di dighe), cedimenti del terreno (frane, smottamenti o liquefazione), incendi o fuoriuscite di materiali pericolosi; se il sisma avviene sotto la superficie oceanica o marina o nei pressi della linea costiera può generare maremoti o tsunami. In ogni terremoto uno o più di questi agenti possono dunque concorrere a causare ulteriori gravi danni e vittime.
 
I terremoti più forti, come quello del Giappone dell'11 marzo 2011 (terremoto del Tōhoku del 2011), possono anche spostare di alcuni centimetri il Polo Nord Geografico (questo ad esempio lo ha spostato di circa 10 cm) a causa dell'elasticità della crosta terrestre. A livello locale gli effetti di un sisma possono variare anche sensibilmente in conseguenza dei cosiddetti effetti di sito.
 
Il singolo evento che ha fatto registrare più vittime negli ultimi mille anni è il terremoto dello Shaanxi (Cina) del 1556, di magnitudo 8,3, a causa del quale morirono 830.000 persone. Quello a più alta magnitudo, invece, è il Terremoto di Valdivia (Cile) del 1960, che raggiunse 9,5.
 
I terremoti più forti degli ultimi due secoli[modifica | modifica wikitesto]
Exquisite-kfind.png Lo stesso argomento in dettaglio: Lista di terremoti.
I terremoti più forti del XX e XXI secolo[modifica | modifica wikitesto]
Classifica in base alla magnitudo. Secondo quanto riportato sul sito USGS sono i seguenti.
 
Valdivia, Cile - magnitudo 9,5 - 22 maggio 1960
Sumatra, Indonesia - magnitudo 9,3 - 26 dicembre 2004
Stretto di Prince William, Alaska - magnitudo 9,2 - 28 marzo 1964
Tōhoku, Giappone - magnitudo 9,0 - 11 marzo 2011
Kamčatka, Russia - magnitudo 9,0 - 4 novembre 1952
Al largo della costa dell'Ecuador - magnitudo 8,8 - 31 gennaio 1906
Concepción, Cile - magnitudo 8,8 - 27 febbraio 2010
Isole Rat, Alaska - magnitudo 8,7 - 4 febbraio 1965
Sumatra, Indonesia - magnitudo 8,7 - 28 marzo 2005
Sumatra, Indonesia - magnitudo 8,6 - 11 aprile 2012
Haiyuan, Cina - magnitudo 8,6 - 16 dicembre 1920
Assam, Tibet - magnitudo 8,6 - 15 agosto 1950
Isole Andreanof, Alaska - magnitudo 8,6 - 9 marzo 1957
Regione di Atacama, Cile - magnitudo 8,5 - 11 novembre 1922
Penisola di Kamčatka, Russia - magnitudo 8,5 - 3 febbraio 1923
Mare di Banda, Indonesia - magnitudo 8,5 - 1º febbraio 1938
Isole Curili, Russia - magnitudo 8,5 - 13 ottobre 1963
Sumatra, Indonesia - magnitudo 8,5 - 12 settembre 2007
Arequipa, Camana, Perù - magnitudo 8,4 - 23 giugno 2001
Regione di Coquimbo, Cile - magnitudo 8,3 - 17 settembre 2015
Città del Messico, Messico - magnitudo 8,3 - 19 settembre 1985
Iquique, Cile - magnitudo 8,2 - 1º aprile 2014
Ica, Perù - magnitudo 8,0 - 15 agosto 2007
 
La distribuzione del momento sismico nei terremoti del XX e XXI secolo. Si noti la percentuale di momento complessivo, espressa dai primi tre terremoti rispetto al totale.
I terremoti più disastrosi del XX e XXI secolo[modifica | modifica wikitesto]
Classifica in base al numero di morti dichiarati[6]. (I numeri sono da considerarsi sempre approssimativi e quasi sempre sottostimati).
 
Port-au-Prince, Haiti (2010) - 316.000 morti
Tangshan, Cina (1976) - 255.000 morti
Sumatra settentrionale, Indonesia (2004) - 230.000 morti
Haiyuan, Cina (1920) - 200.000 morti (dal punto di vista degli effetti, questo terremoto è stato classificato al massimo grado della scala Mercalli, il dodicesimo)
Qinghai, Cina (1927) - 200.000 morti
Kanto, Giappone (1923) - 143.000 morti
Messina e Reggio Calabria, Italia (1908) - 120.000 morti
Ashgabat, Turkmenistan (1948) - 110.000 morti
Sichuan orientale, Cina (2008) - 88.000 morti
Muzzarrafad, Pakistan e India (2005) - 86.000 morti
Gansu, Cina (1932) - 70.000 morti
Chimbote, Perù (1970) - 70.000 morti
Iran occidentale (1990) - 45.000 morti
Gulang, Cina (1927) - 41.000 morti
Avezzano, Italia (1915) - 33.000 morti
Erzincan, Turchia (1939) - 33.000 morti
Bam, Iran (2003) - 31.000 morti
Quetta, Pakistan (1935) - 30.000 morti
Chillan, Cile (1939) - 28.000 morti
Sendai, Giappone (2011) - 27.000 morti (non confermati)
Spitak, Armenia (1988) - 25.000 morti
Guatemala (1976) - 23.000 morti
Cina (1974) - 20.000 morti
Gujarat, India (2001) - 20.000 morti
Kangra, India (1905) - 19.000 morti
Karamursel/Golyaka, Turchia (1999) - 17.000 morti
India, (1993) - 16.000 morti
Agadir, Marocco (1960) - 15.000 morti
Tabas, Iran (1978) - 15.000 morti
Qazvin, Iran (1962) - 12.500 morti
Qaratog, Tagikistan (1907) - 12.000 morti
Khait, Tajikistan (1949) - 12.000 morti
Bihar, India-Nepal (1934) - 11.000 morti
Fuyun, Xinjiang (Sinkiang), Cina (1931) - 10.000 morti
Dasht-e Bayaz, Iran (1968) - 10.000 morti
Tonghai, Yunnan, Cina (1970) - 10.000 morti
Terremoti più forti in Italia
Exquisite-kfind.png Lo stesso argomento in dettaglio: Terremoto dell'Aquila del 1703, Terremoto della Marsica, Terremoto di Messina del 1908, Terremoto dell'Irpinia, Terremoto dell'Emilia del 2012, Terremoto dell'Aquila del 2009 e Terremoto del Friuli del 1976.
Prevedibilità
Exquisite-kfind.png Lo stesso argomento in dettaglio: Rischio sismico.
Alcuni terremoti, specialmente i più forti, sono anche accompagnati, preceduti o seguiti da fenomeni naturali insoliti detti precursori sismici come: lampi o bagliori (luci telluriche); variazioni improvvise del campo magnetico, elettrico o della radioattività locale (emissione di radon); interferenze nelle comunicazioni radio; nervosismo degli animali; variazione del livello delle falde o delle acque costiere; attività vulcanica. Tutte queste manifestazioni hanno trovato riscontro nelle osservazioni e nelle testimonianze e sono state studiate e in parte confermate dalla ricerca scientifica che è giunta alla spiegazione di ognuna di esse, anche se, in mancanza di consenso unanime, non costituiscono di fatto misure effettivamente riconosciute e adottate sul fronte della previsione.
 
Il terremoto di Haicheng del 4 febbraio 1975 è stato storicamente il primo e unico terremoto previsto con tali tecniche, ma in quel caso i precursori sismici di natura geologica furono talmente intensi e regolarmente progressivi da non lasciare alcun dubbio sulla prossimità e imminenza dell'evento.
 
Già dall'Ottocento sono state inoltre studiate le correlazioni tra le variazioni dell'altezza della falda idrica e della gravità locale, oltre che dell'emissione di radon, ma purtroppo allo stato attuale delle conoscenze non sono ancora stati elaborati modelli che permettano di evidenziare segnali utili alla previsione efficace di un terremoto o delle sue possibili caratteristiche, intensità e localizzazione spaziotemporale.
 
In particolare il radon si forma dal decadimento radioattivo del radio ed essendo un gas nobile non si combina con gli altri elementi e composti chimici; pertanto gran parte del radon che si forma all'interno delle rocce rimane intrappolato in esse. Se improvvisamente si verificano movimenti, fessurazioni, compressioni e distensioni di rocce, come avviene durante o immediatamente prima di un terremoto, il radon contenuto in profondità affiora sulla superficie terrestre, dove peraltro è già presente in una certa concentrazione, aumentando la concentrazione locale con picchi improvvisi o i cosiddetti "spifferi". Nella speranza di poter realizzare un sistema di previsione a breve termine e affidabile dei terremoti, vari studi sono in corso; per tale ricerca si utilizza una rete di rivelatori di radon, opportunamente distribuiti sulla superficie delle zone interessate.
 
La prevedibilità dei fenomeni sismici è stata oggetto in Italia di discussioni e polemiche fuori dell'ambito scientifico, a seguito del Terremoto dell'Aquila del 6 aprile 2009; in occasione del tragico evento, la stampa riportò con enfasi la notizia secondo la quale Giampaolo Giuliani, un tecnico di laboratorio non laureato dell'INAF, che svolge studi sui terremoti a titolo personale fuori dall'orario di lavoro dell'INAF, nelle settimane precedenti il sisma aveva sostenuto varie ipotesi dell'imminenza di una scossa disastrosa procurando anche alcuni falsi allarmi[9]; questa si sarebbe verificata, a suo dire, in marzo, a grandi linee in quella stessa regione; egli basò la sua analisi sull'aumento improvviso di emissioni di Radon[10], utilizzando però strumentazioni e metodi previsionali che non sono stati ritenuti rigorosamente validi dalla comunità scientifica.
 
Sullo studio dei precursori sismici di origine elettromagnetica, osservati per la prima volta nel 1880, si sta attivamente impegnando l'Associazione Radioamatori Italiana (ARI) ed altri gruppi di ricerca privati, predisponendo stazioni di ascolto delle emissioni elettromagnetiche in bassa frequenza ELF (Extremely Low Frequency).
 
Anche il monitoraggio dell'eventuale sciame sismico prima di un mainshock spesso non sembra portare a risultati concreti in termini di previsione in quanto la stragrande maggioranza degli sciami sismici evolvono senza produrre catastrofi ovvero dissipandosi più o meno lentamente nel tempo secondo la Legge di Omori.
 
Attualmente alcuni modelli fisici sperimentali di previsione sismica di natura statistica si sono rivelati abbastanza efficaci nel prevedere alcune sequenze di aftershock, ma abbastanza deludenti nel prevedere il main shock.
 
Allo stadio attuale della ricerca sismologica i risultati più concreti per la previsione dei terremoti si hanno dunque per via statistica nel lungo periodo ovvero consultando mappe di pericolosità che tengono conto dei tempi di ritorno di un sisma in un dato territorio, cioè calcolandone la probabilità di occorrenza. Tuttavia l'intervallo di tempo in cui si ritiene probabile il verificarsi di un sisma è piuttosto esteso, anche decine di anni, rendendo vano ogni tentativo ragionevole di prevenzione tramite evacuazione delle popolazioni.
 
Esistono tuttavia rilevanti voci fuori dal coro che ritengono possibile la previsione di un terremoto sia attraverso precursori sismici come il radon in alcuni casi, sia attraverso raffinati modelli di previsione statistica a medio termine.
 
Modelli previsionali alternativi
Questi modelli, che non accettano la moderna teoria basata sui movimenti delle placche litosferiche indotti tramite i moti convettivi nel mantello terrestre come chiave interpretativa delle cause dei terremoti, si basano principalmente sul ritenere che i terremoti siano indotti da cause non terrestri, ma astronomiche.
 
Un'altra ipotesi per la previsione di un terremoto fu proposta da Raffaele Bendandi, uno pseudo-scienziato autodidatta, secondo il quale i terremoti, come le maree, sono dovuti all'influenza della Luna e degli altri pianeti sulla crosta terrestre. Tale tesi è stata però sempre smentita dagli studi ufficiali nel campo e Bendandi non ha descritto un metodo preciso e verificabile e la documentazione che ha lasciato rimane vaga.
 
Dong Choi, direttore della rivista "New Concepts in Global Tectonics (NCGT) Newsletter" che propugna teorie alternative alla Tettonica delle placche e cofondatore e Direttore delle Ricerche presso l'International Earthquake and Volcano Prediction Center (IEVPC), Orlando. Florida, in un comunicato stampa dell'8 febbraio 2013 ha dichiarato: "...in questo momento non dovrebbe esserci alcun dubbio sul fatto che i terremoti più importanti possono essere previsti; infatti i nostri processi (metodologie di indagine) sono stati applicati su gruppi di siti di controllo distribuiti in aree ad alto rischio sismico". In un successivo comunicato stampa datato 29 maggio 2014, ha specificato: "La credenza di lunga data che i terremoti non possono essere previsti è stata dissipata dalla capacità dimostrata dallo IEVPC di prevedere con precisione i principali eventi sismici in anticipo. La nostra nuova tecnologia con il nostro sistema integrato di analisi dei precursori rappresenta un cambiamento del paradigma della previsione dei terremoti il cui tempo è terminato".
 
Prevenzione
Se all'atto pratico la previsione esatta di un sisma è, allo stadio attuale della ricerca scientifica, ancora lontana, il rimedio più praticabile e saggio contro i danni materiali ed umani dei terremoti è rappresentato dalla protezione attiva, ovvero dall'uso di efficaci tecniche antisismiche di costruzione di edifici proprie dell'ingegneria sismica come ad esempio l'isolamento sismico: queste tecniche allo stadio attuale sono in grado di minimizzare i danni anche di terremoti estremamente potenti e sono diffusamente utilizzate in alcune delle aree più sismiche al mondo come il Giappone.
 
Per individuare zone a significativo pericolo sismico e a conseguente rischio sismico si fa usualmente ricorso a studi di sismologia storica, paleosismologia e a tecniche di microzonazione sismica fornendo relative mappe di rischio, mentre per valutare gli effetti di un sisma si può ricorrere a tecniche di simulazione (vedi simulazione di terremoto).
 
Studi e credenze
Durante la Guerra fredda, le onde P sono state studiate per tenere sotto controllo le nazioni che praticavano esperimenti nucleari. Ognuno dei due blocchi studiava i progressi nucleari del blocco contrapposto, grazie all'utilizzo dei sismometri, al punto che i test nucleari (sotterranei o in atmosfera) furono usati sia dagli USA sia dall'URSS come una sorta di avvertimento — o comunicazione indiretta — nei confronti del nemico.
La Chiesa cattolica venera Sant'Emidio come protettore dal terremoto.
Nell'antica Grecia, Poseidone era considerato il dio dei terremoti, oltre che del mare. Il suo corrispondente romano era Nettuno.
 
 






Anche taggato con informazione, cultura, guinness, scienza

0 utente(i) stanno leggendo questa discussione

0 utenti, 0 visitatori, 0 utenti anonimi