Home / Salute / Batteri carnivori il dolore fortissimo che provi: di cosa si tratta

Batteri carnivori il dolore fortissimo che provi: di cosa si tratta

COS’E’ LA FASCITE NECROTIZZANTE

La fascite necrotizzante è una rara patologia che interessa tutti gli strati cutanei e muscolari. Da un punto di vista istologico è caratterizzata da un’estesa necrosi fasciale con relativo risparmio della cute e dei muscoli sottostanti. La fascite necrotizzante è spesso associata ad un’importante tossicità sistemica ed è spesso rapidamente fatale, a meno che non venga riconosciuta in tempi rapidi ed adeguatamente trattata.

La diagnosi è difficile a causa della scarsità di fenomeni clinici, soprattutto nella fase iniziale della malattia. Nonostante il trattamento sia ormai ben codificato, il tasso di mortalità resta elevato in quanto legato alla precocità della diagnosi. È di fondamentale importanza, quindi, riconoscere tempestivamente la patologia per poter ridurre il rischio di mortalità. A causa della differente prognosi e delle diverse modalità di trattamento, è opportuno distinguere tra le infezioni della cute e dei tessuti molli sottostanti. Le comuni piodermiti superficiali non si estendono oltre la cute, coinvolgendo unicamente epidermide e derma; in queste troviamo l’erisipela, l’impetigine, le follicoliti, l’eczema e la foruncolosi; mentre le celluliti sono infezioni più profonde della cute. La fascite necrotizzante coinvolge invece primariamente la fascia superficiale, il grasso sottocutaneo nel quale sono contenute le strutture vascolari e nervose e la fascia profonda. La mionecrosi si riferisce a una rapida necrosi dei muscoli, con un ritardo nell’interessamento dei tessuti molli soprastanti e della cute.

Risulta fondamentale la stretta collaborazione clinica tra diversi specialisti che sono coinvolti nella corretta gestione di tale patologia. Si tratta di una malattia dall’aspetto multidisciplinare, causata da agenti microbici virulenti, che colpiscono l’apparato tegumentario con segni locali e generali altamente aspecifici. Nella diagnosi e nel trattamento vengono quindi coinvolti oltre al chirurgo, il medico del Pronto Soccorso, l’intensivista, l’infettivologo ed il dermatologo. La fascite necrotizzante viene classificata, a seconda del gruppo di agenti patogeni che la causano, in 4 tipi: Il primo tipo rappresenta l’80% dei casi riportati in letteratura e nella pratica clinica. E’ causata da un’ infezione sinergica da parte di anaerobi, aerobi e anareobi facoltativi, spesso derivati dalla flora addominale (E.coli, Pseudomonas e Bacteroides). Questo tipo di fascite può essere scarsamente sintomatica soprattutto nelle fasi iniziali della malattia e la mortalità è spesso correlata ad altre patologie sistemiche sottostanti.

Colpisce principalmente gli immunocompromessi o pazienti affetti da patologie addominali. Le fasciti necrotizzanti del secondo tipo sono poco meno del 20% dei casi osservati nella pratica clinica. Spesso monomicrobiche, determinate da organismi gram positivi; tra essi il patogeno più frequentemente coinvolto è lo Streptococco del gruppo A, occasionalmente possono essere causate anche dallo Stafilococco aureus. Il terzo tipo presente nella classificazione eziologica, include fasciti necrotizzanti monomicorbiche da gram negativi. I più comuni tra essi sono appartenenti alla specie dei Vibrio, come il Vibrio damselae ed il Vibrio vulnificus. Quest’ultimo può essere contratto ingerendo mitili crudi, ma anche contaminando ferite con acqua di mare in cui è presente l’agente patogeno; spesso colpisce persone con patologie epatiche e alterazioni nel metabolismo del ferro. Un elevato fattore di virulenza e gli enzimi digestivi prodotti da tale microbo, contribuiscono a determinare un elevata mortalità del 30-40%, nonostante possa essere effettuata una rapida diagnosi ed una terapia aggressiva. Le fasciti appartenenti al 4° gruppo, sono determinate principalmente patogeni fungini come la Candida, estremamente rare e principalmente colpiscono gli immunocompromessi. L’alcolismo, l’immunosoppressione, il diabete, le patologie del circolo periferico, l’insufficienza renale, piccoli e grandi traumi, le ferite chirurgiche, le procedure endoscopiche od altre procedure invasive in genere, la gravidanza ed il parto, l’obesità e la malnutrizione, le pregresse infezioni spesso di origine odontogena e l’uso illecito di farmaci per via endovenosa sono considerati come fattori predisponenti.

PATOGENESI La patogenesi della fascite necrotizzante oggi riconosce un meccanismo a catena, in cui l’azione di varie citochine sembra essere di fondamentale importanza. I batteri possono raggiungere il tessuto sottocutaneo passando attraverso le ferite o tramite focolai di infezione primari lontani dalla zona di insorgenza, attraverso il circolo ematico. Punture di insetti, morsi di animali, ferite penetranti possono far si che i microrganismi raggiungano direttamente il tessuto sottocutaneo, dove possono trovare le condizioni ottimali per iniziare il processo infettivo. La patogenesi della fascite necrotizzante è dovuta a diversi fattori: i batteri possono dare un’ attivazione delle interleuchine, interferone gamma e TNF-alfa, i quali sono i principali attivatori della trombosi capillare, che è il primum movens degli eventi necrotici che coinvolgono la fascia, la cute e il tessuto sottocutaneo. I meccanismi patogenetici alla base della fascite necrotizzante dipendono molto dalla virulenza del ceppo batterico, dalle condizioni generali di salute del paziente, dalla presenza o assenza dei fattori predisponenti. Istopatologicamente la fascite necrotizzante è determinata da una necrosi della fascia superficiale, con una trombosi dei vasi sanguigni ed un conseguente processo suppurativo. Altre caratteristiche sono una importante necrosi e infiammazione del grasso sottocutaneo, vasculiti ed endoarteriti ed emorragia nelle zone interessate dal processo infettivo.

Nei reperti istopatologici nella maggior parte dei casi, l’epidermide non mostra grandi cambiamenti. La dilatazione dei vasi sanguigni del derma papillare è stata riscontrata alla biopsia, soprattutto nelle fasi acuta. Compare inoltre, a tutti i livelli tissutali della regione interessata, una coagulazione intravascolare non infiammatoria. Alcuni pazienti hanno presentato stati di necrosi delle ghiandole sudoriparee e dei dotti annessi, come il risultato della trombosi e dell’infarcimento infiammatorio. La fascia è suppurativa e edematosa, con necrosi e trombosi dei vasi nelle lesioni avanzate. La fascite necrotizzante spesso comincia con la caratteristica modificazione della cute nell’arco dei primi 7 giorni dall’evento iniziale, che porta all’infezione dei tessuti cutanei e sottocutanei e si presenta con un area cellulitica eritematosa, calda e gonfia, che si accompagna a un dolore localizzato e a febbre, che di norma è il primo sintomo. Il dolore insorge precocemente ed è sproporzionato rispetto all’obbiettività riscontrabile; ciò, associato alle classiche evidenze cliniche della sepsi, deve far supporre per una fascite necrotizzante.

L’infezione, evolvendo, rende la cute liscia, lucente tesa e tumefatta, come se l’eritema procedesse diffusamente; sono assenti margini distinti o induriti, con la parte di cute coinvolta dal processo infettivo che si confonde a margini non netti nella cute sana. In pochi giorni la cute diventa più scura e compaiono bolle e vescicole bluastre nella zona interessata, le quali sono piene di liquido sieroso che diventerà presto emorragico. Da questo momento l’infezione interessa chiaramente lo spazio sottocutaneo. La necrosi della fascia superficiale e del grasso procede, creando uno strato sottile fluido maleodorante purulento. L’estensione della necrosi fasciale è assai maggiore rispetto all’interessamento dello strato cutaneo soprastante e nel caso avvenga una trombosi delle arterie che irrorano la cute, clinicamente possono presentarsi lesioni simili ad ustioni. Al quarto o quinto giorno dall’inizio del processo, la cute e francamente gangrenosa, le terminazioni nervose sottocutanee sono distrutte dal processo infettivo e compare quindi ipoestesia e/o anestesia nelle aree degenerate. Nel momento in cui l’agente patogeno e le sue tossine riescono ad entrare nel torrente circolatorio, il paziente inizia a mostrare i sintomi della sepsi, oltre alla quale si può associare inoltre ipocalcemia a causa dell’importante necrosi del grasso sottocutaneo ed occasionalmente possono presentarsi emboli settici. Durante la seconda settimana la pelle cade spontaneamente. Se non trattata ovviamente tale patologia è quasi sempre fatale.

APPROCCIO TERAPEUTICO Nella letteratura internazionale, si evidenziano fondamentalmente tre tipi di approccio terapeutico che sono stati ampiamente studiati e che si è visto siano di certo aiuto nella lotta contro questa patologia. La terapia chirurgica È il cardine terapeutico per questa patologia ed è l’unico che può dare una probabilità di sopravvivenza. Deve essere effettuata nel minor tempo possibile dal momento della diagnosi. Si basa su un ampio e aggressivo debridement di tutto il tessuto necrotico. La terapia antibiotica Considerato che l’antibiotico-terapia dovrebbe essere guidata dalla colorazione di gram dell’aspirato o del tampone, la scarsa sensibilità di tale test e la natura fulminante dell’infezione, rendono la copertura antibiotica empirica ad ampio spettro l’unica scelta attuabile, alla quale, tra l’altro, la maggior parte degli agenti patogeni causanti fascite necrotizzante è sensibile. Una volta che si conosce il microbo responsabile dell’infezione, si deve ridurre lo spettro d’azione utilizzando antibiotici ai quali esso è sensibile. Nonostante la maggior parte dei microbi sia sensibile alla penicillina, l’alta concentrazione di Streptoccocco del gruppo A nelle fasciti necrotizzanti da esso determinate, trova tali microbi in una condizione di resistenza, nella quale tale antibiotico non riesce a svolgere la sua funzione. Di fatto è stato dimostrato da diversi studi, come la Clindamicina sia decisamente più efficace contro Streptococchi del gruppo A, riducendo notevolmente il tasso di mortalità della patologia. La terapia iperbarica Per quanto riguarda l’ossigeno terapia iperbarica, questa è stata dimostrata utile soprattutto per infezioni sinergiche coinvolgenti principalmente la specie Clostridium, dove ha la capacità di inattivare la produzione delle alfa-tossine. L’ossigeno terapia iperbarica sembra che abbia inoltre la capacità di aumentare l’azione battericida da parte dei neutrofili, poiché a tensioni basse di ossigeno i meccanismi perossido-dipendenti sono meno efficienti. Un fattore che influisce in modo significativo sulla possibilità di effettuare questo tipo di terapia, è il fatto che non sempre sono disponibili centri vicini a disposizione del Medico che ha intenzione di effettuare la Terapia Iperbarica. Di conseguenza, tale approccio terapeutico deve essere attentamente valutato in base a diversi fattori, quali le condizioni cliniche del paziente, la vicinanza di un centro iperbarico disponibile, il tipo di agente microbico che ha causato l’infezione ed eventuali fattori di rischio associati a questo tipo di patologia.

BATTERI PATOGENI

Il genere Salmonella, appartenente alla famiglia delle Enterobacteriaceae, è costituito da microrganismi di forma bastoncellare, Gram-negativi, tipici della flora microbica intestinale dei vertebrati a sangue caldo e, di conseguenza, rientra nella cosiddetta microflora secondaria o alloctona del pescato. Poiché il principale serbatoio di diffusione nell’ambiente è sempre costituito dalle feci d’animali da allevamento e uomo, è verosimile che i prodotti della pesca possano inquinarsi con Salmonella spp. in due modi essenziali: per contatto con acque costiere, dolci o salmastre, in prossimità di foci di fiume o scarichi fognari; per inquinamento da manipolazione secondaria in fase di lavorazione (decapitazione, sfilettatura, ecc.), per inquinamento d’attrezzi di lavoro, superfici, ecc. non va dimenticato che a volte anche l’uomo può fungere da portatore asintomatico del microrganismo. Salmonella è un patogeno noto come causa di tossinfezione a partire da alimenti quali: carni (di pollo, suino e bovino) e uova, nei prodotti ittici la presenza è aumentata da quando si è sviluppata l’importazione da paesi terzi, dove l’igiene di lavorazione è abbastanza scarsa.

I molluschi bivalvi vivi sono i prodotti della pesca più a rischio, seguiti da filetti di pesce e crostacei cotti sgusciati.
La prevenzione delle Salmonellosi da consumo di prodotti ittici si basa sul controllo della lavorazione nei paesi terzi e dei prodotti importati. A rischio i bivalvi allevati in prossimità di foci di fiumi di provenienza da zone altamente urbanizzate ed a vocazione zootecnica: controllo delle acque di produzione.
Sebbene la legislazione nazionale sia molto restrittiva riguardo la contaminazione da Salmonella, in quanto ne esige l’assenza in 25 g di prodotto, va considerato che non sempre la sua presenza è associata a malattia. Dei circa 2500 sierotipi o sierovarietà di Salmonella oggi identificati, S. enteritidis, S. typhimurium, S. newport e S. heidelberg sono tra quelli maggiormente implicati nelle tossinfezioni alimentari.

Shigella spp
La Shigella è un germe Gram-negativo il cui serbatoio di diffusione permanente è rappresentato dall’uomo che funge da eliminatore attraverso le feci, per cui i prodotti della pesca possono risultare già inquinati all’origine (se provengono o sono messi a contatto con acque costiere) oppure possono essere contaminati in fase di lavorazione, nel caso di prodotti trasformati. Le shigelle sono gli agenti eziologici della dissenteria bacillare e, tra queste, la S. dysenteriae occupa uno spazio particolare nella sanità pubblica perché causa infezioni molto gravi che possono determinare epidemie esplosive e pandemie. Questi microrganismi hanno la capacità di sviluppare una forte resistenza a numerosi antibiotici e producono una esotossina citotossica. La Shigellosi viene contratta tramite ingestione di acqua od alimenti contaminati per via fecale. Questi microrganismi sono in grado di tollerare l’acidità gastrica e possono essere rinvenuti nello stomaco 20 ore dopo l’ingestione. In generale tutti gli alimenti possono essere a rischio di causare shigellosi nel consumatore anche se i prodotti della pesca sembrano tra quelli più probabili. Fra le principali cause di infezione si ricordano: scarse condizioni igieniche, utilizzo di acque contaminate, consumo di prodotti ittici contaminati crudi o poco cotti. La Shigellosi può essere efficacemente controllata con un adeguato smaltimento delle feci e assicurando una idonea distribuzione di acqua potabile. Acquistano quindi grande valore l’educazione volta ad una corretta igiene personale e nella preparazione dei cibi: il frequente ed accurato lavaggio delle mani assume una significativa importanza persino nelle aree ad elevata endemia.

Vibrio spp
I vibrioni sono germi Gram-negativi molto comuni in ambienti acquatici. Molti di questi microrganismi sono del tutto saprofiti e presenti negli strati superficiali del terreno ed acque. Altri sono invece potenzialmente patogeni per l’uomo sia per consumo di alimenti inquinati che per contagio diretto tramite piccole ferite. Tutti i prodotti della pesca ed in particolare molluschi e crostacei sono tra gli alimenti più a rischio di infezione e la loro presenza è collegata a fenomeni di inquinamento. Si tratta di microrganismi tendenzialmente poco resistenti alle condizioni ambientali avverse e che sono facilmente inattivati dai vari trattamenti di conservazione cui possono essere sottoposti gli alimenti (cottura, disidratazione, essiccamento, aggiunta di sostanze acide, etc.). Mentre la maggior parte degli appartenenti al genere Vibrio non determinano malattia, le specie patogene che suscitano maggiormente preoccupazione per i consumatori di frutti di mare sono: Vibrio parahaemolyticus, Vibrio vulnificus e Vibrio algynoliticus. Il primo una volta ingerito attraverso il consumo di molluschi e crostacei crudi o poco cotti, può causare gastroenterite entro 24 ore e la malattia può durare fino a tre giorni. L’effetto patogeno avviene per la produzione di due tossine. Nelle tossinfezioni da V. cholerae e parahaemolyticus non vi è evidenza di una produzione di tossine preformate nell’alimento ed è necessaria una elevata carica microbica per scatenare l’evento tossinfettivo. La dose infettante può essere però notevolmente ridotta se, per esempio, vi è contemporanea assunzione di sostanze antiacido. Vibrio vulnificus di solito non determina sintomi clinici in persone in buona salute, ma può causare gastroenteriti e setticemie in soggetti ad alto rischio come quelli con malattia epatica o con un sistema immunitario indebolito. Vibrio algynoliticus è uno dei germi responsabili della produzione di tetradotossina.

Vibrio cholerae
Agente eziologico di epidemie e pandemie gastroenteriche soprattutto nei paesi che sono per tradizione forti consumatori di pesce crudo (Giappone, India, America latina ecc.). Ma tale patologia, che si caratterizza con una diarrea profusa incolore e biancastra – si parla infatti di “feci ad acqua di riso”-, è stata negli anni passati descritta anche nel nostro paese, in conseguenza del lavaggio dei prodotti della pesca con acque non idonee o per consumo di MEL raccolti da acque non autorizzate. La patogenicità di V. cholerae sierogruppo O1 è legata alla produzione della tossina colerica (CT).
Mutanti di V. cholerae privi di tale tossina sono ancora in grado di causare diarrea ma in questi casi la patologia è indotta da una seconda tossina simile a quella di Shigella. Nell’ambito di V. cholerae esisitono ceppi non appartenenti al sierogruppo O1 causanti fenomeni gastroenterici per lo più isolati e mai fino ad ora coinvolti in epidemie; tali ceppi sono stati definiti V. cholerae non O1. Studi sperimentali hanno dimostrato la produzione di una tossina simile a quella colerica. Nell’ambito di V. cholerae esistono ceppi non appartenenti al sierogruppo O1 bensì al sierogruppo O139, con caratteristiche di patogenicità in vivo ed in vitro e coinvolti in episodi epidemici. Tali ceppi sono stati definiti V. cholerae O139 ed in essi è stata isolata una tossina analoga a quella colerica classica.

Aeromonas spp.
Microrganismo Gram-negativo appartenente alla famiglia Vibrionaceae. A. hydrophila, A. sobria,
A. veronii biot. veronii sono state identificati quali agenti eziologici di patologie umane. Risulta cosmopolita dei sistemi acquatici grazie alla capacità di sopravvivenza a diverse condizioni ambientali: è presente nei fiumi, laghi, acque marine (soprattutto costiere) e nelle acque di scarico. Possiede diversi fattori di virulenza ma non è ancora chiarito come tali fattori contribuiscano alla patogenicità del microrganismo Le patologie associate ad Aeromonas possono avere localizzazione intestinale ed extraintestinale: in questo caso si possono avere setticemie, meningiti, infezioni da ferite che possono esitare anche nella morte del paziente quando esso risulti immunocompromesso. Finora sono stati segnalati solo casi isolati e mai episodi epidemici da attribuire con certezza a questo microrganismo. Generalmente provoca diarrea con feci acquose o diarrea con contemporanea emissione di sangue e muco nelle feci. Entrambe le patologie sono comunque autolimitanti e si risolvono nel giro di 24-48 h. Non vi è produzione di tossina preformata negli alimenti. Per scatenare l’evento tossinfettivo è necessaria una elevata carica del microrganismo sull’alimento. I fattori che contribuiscono a rendere questo microrganismo particolarmente insidioso negli alimenti sono la capacità di crescita a basse temperature e la resistenza ad alcuni disinfettanti comunemente utilizzati come il cloro. Una ricerca routinaria di tale microrganismo nelle feci, alimenti ed acque non viene attualmente condotta in Italia. Strategie di controllo sono il consumo esclusivamente dopo cottura adeguata, l’assenza di ricontaminazioni crociate post-cottura, la conservazione a 43 fino al momento del consumo in quanto, nonostante la psicrofilia del germe, le basse temperature rallentano comunque la moltiplicazione ed allungano quindi il tempo necessario al raggiungimento delle concentrazioni a rischio per la tossinogenesi.

Virus epatici ed enteropatogeni

Epatite A
Poiché i frutti di mare sono organismi filtratori in grado di concentrare gli agenti patogeni al loro interno, tra i possibili rischi bisogna annoverare anche il virus dell’epatite A (HAV). La sua identificazione nei molluschi è difficile per diversi motivi: la concentrazione del virus nei tessuti dei frutti di mare è generalmente molto bassa, i metodi di rilevazione basati sulla propagazione in vitro non sono attendibili, il recupero di virioni da tessuti di molluschi è inefficiente e gli inibitori della PCR nei tessuti di molluschi limitano il successo di tecniche biomolecolari. Questi fattori sono alla base delle difficoltà nella determinazione di causa ed effetto fra l’epatite A e l’individuazione di focolai di contaminazione da HAV in campioni di molluschi. La malattia che ha un corso acuto e iperacuto ha un periodo di incubazione di 4 settimane ed è caratterizzata da febbricola improvvisa, nausea, sintomi intestinali e dalla comparsa di ittero dopo circa una settimana. Esiste tuttavia un vaccino efficace contro la malattia.

Norovirus
I Norovirus della famiglia dei Caliciviridae fanno parte di un gruppo di virus che provocano gastroenteriti (insieme ai Rotavirus, Adenovirus e Sapovirus). Arrivano sulle nostre tavole attraverso alimenti contaminati come frutta, verdura, bevande e soprattutto frutti di mare come ostriche e cozze consumati crudi o poco cotti.
Anche in questo caso i frutti di mare che si nutrono attraverso la filtrazione dell’acqua, in presenza di Norovirus o di altri microorganismi, sono in grado di concentrarli a livello di epatopancreas. L’elevata stabilità ambientale di Norovirus, la contaminazione fecale delle acque e la bassa dose infettante sono alla base dell’elevata diffusione di questo virus. L’uomo presenta un tempo d’incubazione della malattia che non supera le 48 ore. Il sintomo principale che caratterizza l’infezione è il vomito compulsivo accompagnato da crampi addominali, cefalea, diarrea e a volte febbre. La malattia dura circa 48 ore e durante il decorso il rischio di diffusione del virus è elevato fino a 48 ore dopo la fine della sintomatologia. La breve durata dei sintomi e le varie difficoltà di diagnosi in molti casi non permettono l’identificazione della malattia; ne deriva una sottostima sull’effettiva diffusione di Norovirus nella popolazione. L’approccio diagnostico usato in virologia è basato generalmente sull’isolamento del virus in colture cellulari, ma i virus appartenenti alla famiglia dei Caliciviridae non sono in grado di replicare su colture cellulari da qui la difficoltà diagnostica.
Le tecniche usate per la rilevazione di Norovirus nelle feci sono la Microscopia Elettronica Diretta ma per visualizzare le particelle virali mediante tali tecniche, la concentrazione del virus nelle feci deve essere molto alta. In questo momento le tecniche di biologia molecolare rappresentano gli strumenti più utilizzati per la rilevazione di Norovirus nelle feci, campioni alimentari e ambientali.

Dopo gli uragani: i bambini sono ancora troppo vulnerabili ?

Nell’ultimo decennio si è assistito ad un aumento delle situazioni di maxiemergenza, sia a causa di un incremento delle calamità naturali sia a causa delle guerre, degli attacchi terroristici, disastri infettivologici e di altre forme di stragi provocate dall’uomo .
Tutto ciò ha determinato una maggiore attenzione verso questo fenomeno, soprattutto nelle regioni più colpite (prima fra tutte l’America), portando allo sviluppo di strategie e programmi diretti a rendere più efficienti tali interventi.

Un articolo pubblicato nel supplemento di settembre dell’AJPN richiama l’attenzione sulla particolare vulnerabilità dei bambini in caso di disastro, per svariati motivi sia fisici che psicologici: maggiore suscettibilità a patogeni/tossici/agenti infettivi, maggiore superficie corporea relativa e frequenza respiratoria, maggiore dipendenza dagli altri, difficoltà a comunicare i sintomi. Di fatto nello tsunami del 2004 nell’Oceano Indiano un terzo delle vittime era in età pediatrica, nel terremoto di Haiti del 2010 lo era la metà. Inoltre in caso di disastri intenzionali i bambini diventano un bersaglio privilegiato per il maggior impatto che hanno sull’opinione pubblica. Ciononostante numerosi aspetti della risposta ai disastri, come evacuazione, decontaminazione, riparo, che richiederebbero risposte specifiche, non sono oggetto di specifiche pianificazioni o esercitazioni, e le linee di indirizzo spesso non danno informazioni sulle gestione della popolazione pediatrica. Di conseguenza gli operatori possono non riconoscere le specifiche vulnerabilità dell’età pediatrica. Un report del NACCD (National Advisory Committee on Children and Disasters) sottolinea come solo il 47% dei presidi ospedalieri degli USA che effettuano operazioni di maxi-emergenze abbia dei programmi specifici per la popolazione pediatrica .

In considerazione della fondamentale importanza di una appropriata inclusione dell’età pediatrica, e dell’assenza di una pianificazione adeguata negli USA a livello nazionale, regionale e locale nonostante l’incremento delle risorse e delle strategie rivolte ad affrontare i bisogni dei bambini durante le emergenze di salute pubblica, è necessaria una maggiore diffusione dei modelli di gestione esistenti. In particolare va sottolineata l’importanza di fornire ai servizi di emergenza non pediatrici soluzioni per la cura delle vittime in età pediatrica, considerando che in caso di maxi emergenza possono essere coinvolti tutti gli ospedali , e non solo quelli pediatrici.

Diversi approcci sono in sviluppo per implementare lo sviluppo di programmi di gestione del paziente pediatrico in caso di maxiemergenza:
• Implementazione dei programmi di organizzazione delle maxi-emergenze nelle strutture pediatriche e preparare i presidi non pediatrici a questa evenienza, creando quindi una rete di gestione dell’emergenza in grado di aumentare la capacità e l’efficienza dell’intervento  .
• Educazione dei genitori alla gestione di un evento disastroso: è stato dimostrato infatti come fornendo prima dell’evento ai genitori le risorse umane e materiali utili per affrontare il disastro aumenta la resilienza dei figli e si riducono le conseguenze sia fisiche che psicologiche.

La gestione pediatrica delle maxi-emergenza diventa quindi un intervento complesso e articolato sia a breve che a lungo termine:
• In ACUTO i bambini rappresentano la popolazione con maggiore mortalità e morbilità dovute ad esplosioni, ferite o effetto di armi chimiche
• A LUNGO TERMINE: Le situazioni di maxi-emergenza possono
determinare conseguenze croniche a lungo termine. E’ stato infatti osservato come dopo l’Uragano Harvey in Texas siano aumentati il numero di visite pediatriche, il consumo di farmaci, i casi di patologie infettive gastrointestinali per esposizione ad acque contaminate 4,5 Durante gli anni della guerra in Siria si è assistito ad un aumento di patologie respiratorie, neurologiche, gastrointestinali in età pediatrica, con 2/3 dei bambini affetti da malattie infettive 6.
Le conseguenze a lungo termine delle maxi-emergenze non riguardano solamente le patologie fisiche, ma anche i disturbi neuropsichiatrici.
Sia che si tratti di calamità naturali che di guerre è stato dimostrato un aumento di patologie neuropsichiatriche variabili in base all’età del bambino: nei bambini più piccoli si può presentare una regressione comportamentale, enuresi notturna o un incrementato attaccamento al genitore; nei bambini più grandi lo sviluppo di sentimenti come tristezza, rabbia o paura, mentre nell’adolescente si può assistere ad abuso di alcol e droghe. A tutte le età è stato inoltre osservato un incremento di casi di depressione e di sindrome da stress post-traumatico E’ importante quindi pensare come i grandi disastri ambientali o umani possano provocare nei bambini un trauma sia fisico che mentale, entrambi in forma acuta o a lungo termine. E’ necessario che venga costruita attorno alla Società Italiana di Medicina di Emergenza ed Urgenza Pediatrica
bambino che vive l’esperienza della maxi-emergenza una rete tridimensionale, fatta di interventi acuti, follow-up nel tempo, confort familiare, sociale ed economico.

Come riportato nelle analisi condotte da IPCC (Intergovernmental Panel on Climate Change), negli ultimi 100-150 anni, è stato introdotto nel bilancio energetico del sistema climatico un flusso aggiuntivo di energia pari a circa 2.8 watt/m2,. E’ un “surplus” di energia che le attività umane hanno introdotto, rispetto al bilancio naturale (pari a 160-170 watt/m2), e che viene denominato: effetto serra aggiuntivo a quello naturale. Questo effetto serra aggiuntivo è, per la maggior parte, causato dall’accumulo in atmosfera di gas, detti appunto gas serra, che hanno cambiato la composizione dell’atmosfera, provocando, di conseguenza, una modifica delle sue capacità termiche, modifica che, per quanto piccola (meno del 2%), è comunque significativa sul delicato equilibrio energetico del sistema climatico. Il maggiore contributo a questo disequilibio è stato causato dall’anidride carbonica (55% circa), ma hanno contribuito anche altri gas serra originati direttamente o indirettamente dalle attività antropiche (30% circa). Inoltre, alcune cause naturali, come l’aumento dell’attività solare ed il vulcanismo hanno concorso, anche se in piccola parte (circa il 15%), ad aumentare il disequilibrio.
A causa del “surplus” di energia derivante dall’introduzione di gas ad effetto serra di origine antropica, la temperatura media globale del nostro pianeta è aumentata e tenderà ancora ad aumentare, ma tenderanno ad aumentare anche i fenomeni meteorologici estremi sia in frequenza che in intensità. Se questa affermazione, tratta dalle valutazioni di IPCC (Intergovernmental Panel on Climate Change), può essere dimostrata con relativa semplicità sulla base delle leggi della fisica e di conservazione dell’energia, diventa, viceversa, difficile, se non impossibile, dimostrare che un singolo evento meteorologico, per quanto estremo possa essere, derivi in tutto o in parte dal riscaldamento globale.
In quanto fenomeni estremi, gli uragani più intensi e disastrosi possono, quindi, direttamente o indirettamente aumentare sia in frequenza che in intensità, in conseguenza dell’aumento di concentrazione dei gas serra in atmosfera, ma è impossibile sapere se l’uragano Katrina o altri uragani altrettanto disastrosi, avrebbero ugualmente avuto luogo se le concentrazioni di anidride carbonica non fossero aumentate ai livelli in cui sono. I singoli fenomeni meteorologici, infatti, sono il risultato di una combinazione di fattori, alcuni dei quali deterministici (derivanti dalle leggi della fisica, tra cui appunto la maggiore energia nel sistema climatico a causa dell’effetto serra aggiuntivo) ed altri stocastici (derivanti dalla variabilità stessa del sistema climatico).
Analizzando un uragano è molto difficile individuare in dettaglio la combinazione di tutti i possibili fattori causali ed è, poi, praticamente impossibile stabilire in quale misura ciascuno di tali fattori causali abbia dato il suo singolo contribuito alla sommatoria totale. Ma, se non possiamo trarre conclusioni certe sul singolo uragano, possiamo, invece, capire meglio cause, effetti, processi e correlazioni se esaminiamo opportunamente un gran numero di uragani su intervalli di tempo abbastanza lunghi.
Discorso ben diverso è quello delle conseguenze di un uragano, conseguenze che solo in parte dipendono dalla intensità e dalla violenza dell’uragano. L’uragano Katrina avrebbe potuto produrre danni maggiori o minori di quelli causati, oppure una loro diversa distribuzione (tra danni economici, ambientali e di perdita di vite umane), se il contesto ambientale fosse stato diverso da quello costiero di New Orleans e della Luisiana. In altre parole le maggiori o minori conseguenze negative derivano, non solo dalla maggiore o minore intensità dell’uragano, ma anche dalla maggiore o minore vulnerabilità del territorio, dall’esistenza o meno di rischi aggiuntivi introdotti dalle attività umane e dalla maggiore o minore adeguatezza di misure di prevenzione e di protezione.
In quanto segue cercheremo di esaminare se l’uragano Katrina, in base alle conoscenze scientifiche attuali, rientra in un quadro tendenziale di intensificazione degli uragani e se tale tendenza all’intensificazione sia o meno causata dai cambiamenti del clima; e cercheremo di approfondire se il contesto ambientale e territoriale esistente abbia avuto un ruolo più o meno importante sull’amplificazione delle conseguenze negative.
1. I cicloni tropicali
Prima di analizzare se e come è cambiata l’intensità e la frequenza degli uragani in relazione al riscaldamento climatico globale, è necessario premettere quali sono le condizioni climatiche e meteorologiche che determinano e favoriscono la formazione di un uragano, o più in generale di un ciclone tropicale (“uragano” è infatti il nome dato ai cicloni tropicali dell’Atlantico, mentre “tifone” è il nome per quelli del Pacifico e semplicemente “ciclone”, per quelli dell’oceano Indiano). Ma, cercheremo anche di illustrare perché un uragano è profondamente diverso da qualsiasi altro ciclone che si manifesta alle nostre latitudini e perché un uragano non potrebbe formarsi nel Mediterraneo (a meno che la fascia intertropicale attuale non si espanda tanto verso le zone polari da includere tutta l’area del Mediterraneo).
I cicloni tropicali si originano dalla instabilità atmosferica creata dal forte surriscaldamento della superficie marina rispetto all’atmosfera sovrastante, instabilità che poi si espande su tutta la troposfera (la parte di atmosfera tra il suolo e circa 12-15 km di quota entro cui avvengono i fenomeni meteorologici) determinando intensi processi convettivi (qualcosa di simile accade, a scala spaziale molto più piccola, nella formazione dei temporali). Questa instabilità si origina perchè l’aria calda e umida (più leggera) a contatto con il mare, si viene a trovare al di sotto dell’aria fredda e più secca (più pesante) che, invece, è presente negli strati più alti dell’atmosfera. I movimenti verticali di rimescolamento delle masse d’aria (moti convettivi), ed il forte contenuto energetico che viene trasferito dal mare alle masse d’aria caldo-umide, originano non solo formazioni di nubi con imponente sviluppo verticale ed una forte depressione barica, ma favoriscono anche un moto rotatorio a tutto il sistema convettivo. Questo moto rotatorio viene accelerato in senso antiorario (a nord dell’equatore), tanto più quanto maggiore è la depressione barica, a causa dalla forza deviante (o forza di Coriolis), che deriva dalla rotazione terrestre.

I cicloni tropicali sono profondamente diversi dai cicloni che noi osserviamo alle medie latitudini e che vengono definiti cicloni extratropicali. I cicloni extratropicali, infatti, hanno origini completamente diverse e nascono a causa del contrasto tra aria calda ed aria fredda, non già in direzione verticale, ma sul piano orizzontale. In questo caso, si forma una instabilità cosiddetta “frontale” (o baroclina nel linguaggio dei meteorologi), tra aria fredda, di origine polare o comunque settentrionale (per le nostre latitudini), ed aria calda, di origine subtropicale o, comunque, meridionale (per le nostre latitudini). Nella zona “frontale”, all’interfaccia, cioè, tra aria fredda e calda si formano le perturbazioni meteorologiche che ben conosciamo e di cui parlano i bollettini meteorologici.
I cicloni tropicali nascono e si sviluppano nella fascia intertropicale e sub tropicale, in una zona cioè dove le correnti aeree medie sono generalmente orientali e gli uragani, quindi, viaggiano normalmente da est verso ovest. I cicloni extratropicali, invece, nascono e si sviluppano in una fascia, quella delle medie latitudini, dove le correnti aeree medie sono generalmente occidentali e, le perturbazioni meteorologiche, quindi, viaggiano normalmente da ovest verso est.
Infine, la forza deviante e la sua variazione latitudinale, agisce in modo tale da imprimere un moto rotatorio (vorticità) molto più intenso ai cicloni tropicali rispetto a quelli extratropicali. Un ciclone tropicale, quando sconfina dalle basse alle medie latitudini, perde la sua fonte energetica costituita dal mare, e si esaurisce rapidamente, a meno che non incontri, a più alte latitudini, una massa d’aria fredda per cui si trasforma in un ciclone extratropicale.
2. Uragani e loro classificazione
II fattore fondamentale per la formazione di un uragano è, come detto prima, un flusso molto intenso, ma anche prolungato nel tempo, di calore e di umidità dal basso e cioè dalla superficie terrestre. Ciò è possibile solo da una sorgente ad alta capacità termica, quali sono gli oceani, purché la temperatura delle acque oceaniche sia superiore a 26.5°C, non solo in superficie ma anche nella parte sottostante, fino ad almeno di 50-80 metri di profondità.
Le grandi masse d’acqua marine a latitudini intertropicali e subtropicali possono avere queste caratteristiche, ma le hanno soprattutto quelle localizzate in alcune aree dove per la concomitanza di fattori geografici e meteorologici, le temperature marine sono normalmente le più alte. Queste aree preferenziali di formazione degli uragani sono, per l’oceano Atlantico: il Golfo del Messico e la zona di mare circostante, interessata, tra l’altro anche dalla corrente del Golfo, ma soprattutto l’area dell’Atlantico centro-occidentale compresa tra le isole di Capo Verde ed il Golfo di Guinea).
Siccome con il riscaldamento climatico, la temperatura degli oceani tende ad aumentare e tende anche ad espandersi la superficie degli oceani con più alte temperature, ne consegue che non solo è favorita la condizione fondamentale per la formazione degli uragani, ma viene anche ampliata la superficie marina idonea alla loro formazione. Dunque, con il riscaldamento climatico dobbiamo aspettarci uragani più intensi (per la maggiore temperatura delle acque) e in maggior numero (per la maggiore estensione spaziale della superficie marina con più alte temperature).
Tuttavia, l’alta temperatura delle acque oceaniche, quantunque sia una condizione assolutamente necessaria, tuttavia non sempre è anche una condizione sufficiente. Devono sussistere, infatti, anche alcuni fattori concomitanti favorevoli, ma, soprattutto, almeno qualcuna delle seguenti condizioni:
– scarsa ventosità e, comunque, le correnti orientali intertropicali, sia al suolo che in quota, devono essere più deboli del normale: questa condizione favorisce la creazione e lo sviluppo di moti convettivi verticali che interessano tutta la troposfera;

– scarso shear del vento, vale a dire scarsa variazione della velocità e della direzione del vento con la quota: questa condizione implica l’assenza lungo la verticale di stratificazione di masse d’aria differenti e di moti laminari delle masse d’aria e, quindi, il rimescolamento verticale viene favorito;
– alta pressione a livello della tropopausa (12-15 km di quota) e bassa pressione al suolo: questa condizione implica che l’intera troposfera è dilatata e che sussistono già condizioni di instabilità per motivi termodinamici;
– presenza di aerosol atmosferici, questa condizione implica che la condensazione del vapore attorno a tali aerosol (che diventano nuclei di condensazione) viene favorita, e quindi la formazione delle nubi viene facilitata ed accelerata
– assenza, per quanto riguarda gli uragani atlantici, del fenomeno di El Nino sul Pacifico, che a causa delle modifiche che induce sulla circolazione atmosferica, perturba i fattori precedenti.
Gli uragani sono classificati in USA secondo una scala (scala Saffir-Simpson) basata sulla velocità media dei venti massimi al suolo che si sviluppano in seno all’uragano:
categoria 1: uragano minimo (vento compreso fra 33 e 42 m/s) categoria 2: uragano moderato (vento compreso fra 43 e 49 m/s) categoria 3: uragano esteso (vento compreso fra 50 e 58 m/s) categoria 4: uragano estremo (vento compreso fra 59 e 69 m/s) categoria 5: uragano catastrofico (vento superiore a 70 m/s)
Se la velocità del vento è inferiore a 33 m/s ma superiore a 18 m/s si tratta di tempeste tropicali, mentre al di sotto di 18 m/s si parla semplicemente di depressioni tropicali. Inoltre gli uragani di categoria 3, 4 e 5 vengono complessivamente denominati uragani maggiori, perché potenzialmente molto più distruttivi, rispetto a quelli di categoria inferiore.
La scala Saffir-Simpson, è una classificazione adottata negli USA nel 1974, ma non è riconosciuta ufficialmente a livello internazionale, anche se comunemente accettata. Questa scala, in pratica, suddivide gli uragani in base alle velocità medie massime del vento al suolo per dare una semplice e immediata indicazione della loro forza e delle loro possibili conseguenze catastrofiche. Ad ogni categoria sono, infatti, associati alcuni effetti, come l’entità delle depressioni bariche corrispondenti, l’altezza massima delle onde marine che si generano e la descrizione dell’entità dei possibili danni. E’, insomma, una scala simile alla scala Beaufort o alla scala Douglas per classificare la forza del mare e rassomiglia, per molti versi, alla scala Mercalli per classificare i terremoti.
Una volta classificati in questo modo gli uragani, è possibile, a posteriori, stimare l’energia cinetica della masse d’aria coinvolte nell’uragano, ma non è possibile capire né le dimensioni o l’evoluzione nel tempo dell’uragano, né è possibile risalire alla sua energia interna complessiva (comprensiva cioè dell’energia cinetica e di quella termodinamica relativa alla formazione delle nubi e di cambiamento di stato del vapor d’acqua). Essendo una scala descrittiva, piuttosto che un insieme di dati e metadati, non è molto utile nel campo della ricerca climatica, pur avendo una sua validità nel campo della meteorologia operativa e delle previsioni del tempo.
Tuttavia, supponendo che tutti gli uragani siano più o meno uguali, sia in termini di dimensioni che di evoluzione nel tempo, è possibile dimostrare che il rapporto tra energia complessiva posseduta da un uragano (energia interna) ed energia cinetica sviluppata, è circa costante ed è pari a 400. In termini quantitativi, questo significa che un uragano medio che sviluppa sotto forma di energia cinetica una potenza attorno a circa 1,5 Terawatt (ovvero 1,5 milioni di megawatt), possiede una

potenza complessiva di circa 600 milioni di Terawatt, che è equivalente a circa 200 volte la potenza elettrica di tutte le centrali del mondo.
3. L’uragano Katrina
L’uragano Katrina è la dodicesima tempesta tropicale del 2005 ed il quarto uragano a colpire gli USA. Pur non essendo stato il più intenso degli uragani che hanno colpito gli USA sembra essere stato, invece, quello più disastroso o, almeno, tra quelli più disastrosi, sia per i danni provocati, sia per numero di vittime umane. Uragani più intensi di Katrina sono stati: l’uragano del “Labor Day” (è il primo lunedì di settembre) del 2 settembre 1935, l’uragano Camille del 17 agosto 1969. l’uragano Andrew del 24 agosto 1992 e l’uragano Charley del 13 agosto 2004. L’uragano più disastroso, in termini di perdite di vite umane, avvenne il 8 settembre 1900: colpì in particolare la città di Galveston nel Texas causando più di 8000 morti.
L’uragano Katrina, si è formato, come depressione tropicale, il 23 agosto 2005, sull’oceano Atlantico a sud est delle isole Bahamas, zona, questa, di origine inconsueta per gli uragani, i quali si formano generalmente a sud ovest delle isole di Capo Verde tra giugno e novembre, ma soprattutto tra agosto e ottobre. Tuttavia, non è un caso unico: prima di Katrina quasi il 50% degli uragani si era formato, nel 2005, al di fuori dell’area atlantica consueta e, precedentemente al 2005, si era osservata un tendenza allo spostamento verso più alte latitudini dell’area di formazione degli uragani .
L’evoluzione dell’uragano Katrina è stata molto rapida. Il giorno dopo, muovendosi verso est, si è trasformato prima in tempesta tropicale, poi in uragano di categoria 1 mentre transitava a sud della Florida ed, infine, è diventato un uragano (di categoria 3) il 25 agosto in pieno Golfo del Messico. Dopo un leggero indebolimento durante la giornata del 26 agosto, l’uragano Katrina si è rapidamente intensificato a causa delle alte temperature (circa 31-32 °C) delle acque del Golfo del Messico, fino a raggiungere la sua massima potenza (categoria 5) il 28 agosto, con venti di 280 km/ora e raffiche di 340 km/ora. Nella fase di massima intensificazione, la massima depressione barica nel vortice ciclonico dell’uragano (occhio dell’uragano) ha raggiunto il valore di 902 ectopascal (o millibar), un valore quasi record perché si tratta del 4° minimo depressionario più basso mai verificatosi per i cicloni tropicali atlantici, da quando si effettuano le misure. Il giorno dopo, poco prima di colpire le coste della Luisiana, l’uragano Katrina, si è attenuato (categoria 4) e poi, passando sopra New Orleans ed inoltrandosi in direzione nord verso l’interno, si è rapidamente esaurito il 30 agosto, quando ha raggiunto lo stato del Tennessee.
Per quanto riguarda le precipitazioni, l’uragano Katrina ha provocato piogge complessive pari a circa 150 millimetri (ma con punte di 400 millimetri in alcune zone) quando è passato a sud della Florida. La quantità totale media di pioggia che si è riversata sulle coste della Luisiana il 29 agosto è stata, invece, di circa 250 millimetri, ma quantità ben superiori, fino a 600 millimetri, si sono riversati a nordest di New Orleans, tra Hattiesburg e Mobile, nel confinante stato del Mississippi. Procedendo sempre più verso l’interno, le precipitazioni si sono progressivamente ridotte mano a mano che l’uragano andava indebolendosi nel suo percorso verso nord e poi nordest. Tuttavia, Katrina, prima di esaurirsi completamente, ha favorito, con la sua aria caldo-umida residua, la formazione di instabilità meteorologiche in Alabama e la formazione di alcuni tornado in Georgia.
Pur avendo colpito le coste della Luisiana il 29 agosto, l’uragano Katrina ha prodotto i maggiori danni a partire dal 31 agosto, cioè non immediatamente, ma solo dopo che il naturale drenaggio dell’acqua piovana, da parte de bacino del fiume Mississippi, ha indotto un innalzamento sia del livello delle acque dello stesso fiume Mississippi, sia del lago Pontchartrain, tale da superare le dighe di sbarramento e gli argini che circondano gran parte della città di New Orleans. Lo

straripamento delle acque del lago Pontchartrain ha provocato anche il cedimento di una di tali dighe e, a questo punto, l’allagamento della città di New Orleans è avvenuto molto velocemente. In gran parte dell’area urbana, il livello dell’acqua ha raggiunto mediamente i 250 cm di altezza, ma con punte, nelle zone più basse, di ben 5 metri.
Le conseguenze provocate dall’uragano Katrina riguardano il danneggiamento e la distruzione di alcune strutture petrolifere per l’estrazione del petrolio e del gas naturale posizionate nel Golfo del Messico e prospicienti le coste della Luisiana e del Texas, il danneggiamento di alcune centrali di elettroproduzione in Luisiana, la parziale distruzione e la impraticabilità di molte strade ed autostrade costiere della Luisiana ed infine danni anche all’aeroporto di New Orleans. Tuttavia i danni più ingenti sono stati provocati a tutte le strutture, infrastrutture e abitazioni della città di New Orleans dove si sono verificate anche le maggiori perdite di vite umane, stimato in un migliaio di persone, ma manca ancora un bilancio definitivo.
Oltre ai danni diretti, si sono verificati anche danni indiretti di tipo ambientale e sanitario sia a causa dell’inquinamento marino da prodotti petroliferi rilasciati in mare dalle piattaforme petrolifere distrutte o danneggiate e che sono numerose di fronte alla costa della Luisiana, sia a causa dell’inquinamento delle acque che hanno invaso New Orleans, inquinamento provocato dal cedimento della rete fognaria e a seguito della interruzione dell’acqua potabile.
I danni economici non sono stati ancora stimati ma saranno probabilmente superiori a molte decine di miliardi di dollari per la sola città di New Orleans e, forse, potrebbero superare anche il centinaio di miliardi, se si considera tutta l’area investita. L’uragano Andrew del 1992, uno dei più disastrosi per gli USA, causò danni per 25 miliardi di dollari (riportati al valore del dollaro del 2005)
4. Clima e uragani
4.1 Clima e uragani in base alla loro classificazione
Per capire se esiste una tendenza ad una maggiore frequenza ed intensità degli uragani e se questa tendenza sia o meno collegata con i cambiamenti del clima è necessario procedere ad una serie approfondita di analisi che solo in questi ultimi anni, grazie anche alla maggiore disponibilità di tecnologie avanzate di osservazione della terra e di migliori strumenti di calcolo, si sono potute effettuare con maggiore rigore scientifico.
Le prime analisi sono state quelle di tipo statistico, condotte sulla base della classificazione degli uragani, secondo la scala Saffir-Simpson. Poiché l’utilizzo di questa scala è iniziata nel 1975, si è dovuto procedere a classificare gli uragani per gli anni precedenti, sulla base dei dati di archivio disponibili, che hanno permesso di procedere a ritroso fino al 1944. Quantunque esistano dati dati ed informazioni sugli uragani atlantici fin dal 1800 e dati sugli uragani che hanno colpito gli USA fin dalla metà del 1600, tuttavia, la loro qualità è bassa rispetto ai dati successivi al 1944. Inoltre, andando a ritroso nel tempo, i dati sono sempre più frammentari ed incompleti, e non sempre appaiono oggettivi o scientificamente validi.
Le analisi statistiche sugli uragani effettuate da C.W. Landsea (1999), sulla base della classificazione Saffir Simpson dal 1944 al 2004, mettono in evidenza che il numero complessivo annuale degli uragani presenta una oscillazione circa venticinquennale, denominata oscillazione multidecadale degli uragani. Questa oscillazione è causata prevalentemente dagli uragani di debole intensità (classificati in categoria 1 e 2 o come tempeste tropicali), mentre gli uragani di maggiore intensità (categorie 3, 4 e 5) mostrano un andamento più costante.

Le oscillazioni multidecadali sono: quella che va dal 1944 al 1970, quella che va dal 1970 al 1995, e l’attuale che è iniziata nel 1995. Durante tali oscillazioni, vi sono periodi che si ripetono più o meno regolarmente, alternando fasi di maggiore frequenza o di più intensa attività degli uragani e fasi di minore frequenza o di minore intensità degli uragani. Complessivamente, però non si osservano chiari andamenti di lungo periodo, né verso l’aumento o la diminuzione della frequenza, né verso l’aumento o la diminuzione della intensità degli uragani.
Poiché a partire dal 1975 il riscaldamento climatico globale appare evidente (aumento della temperatura media globale pari a 0.15°C per decennio, secondo le valutazioni IPCC), questo risultato, basato sulla classificazione degli uragani secondo la scala Saffir-Simpson, non sembra mostrare, invece, alcuna tendenza né alcuna correlazione tra cambiamenti climatici ed uragani (sia in termini di frequenza che di intensità).
4.2 Clima e uragani in base alla loro energia cinetica
Poiché la scala Saffir-Simpson appare un po’ grossolana per gli studi climatici, come precedentemente detto, per capire se esiste una correlazione tra uragani e riscaldamento climatico, la NOAA (National Oceanie and Atmospheric Administration degli USA) ha utilizzato, di recente, anche a fini previsionali, un particolare indice: l’indice ACE (Accumulated Cyclone Energy), proposto da Gerald Bell et al. nel 2000 ed introdotto per lo studio degli uragani dalla American Meteorological Society. L’indice ACE, è dato dalla somma dei quadrati della media delle velocità massime del vento, calcolato ogni 6 ore. Questa sommatoria viene estesa, senza soluzione di continuità, per tutta la durata dell’evoluzione dell’uragano e per tutti gli uragani di una stagione, comprese anche le tempeste tropicali.
In pratica, questo indice rappresenta e sintetizza l’entità dell’energia cinetica media complessiva annua di tutti gli uragani e tempeste tropicali di una data regione, ed in particolare di tutto il nord Atlantico. Utilizzando questo indice, e rianalizzando le statistiche degli uragani, si osserva che l’indice ACE ha una lieve flessione dal 1950 al 1970, un andamento più o meno costante dal 1970 al 1994 ed un rapido aumento a partire dal 1995 in poi, fino al dato preliminare del 2005 (ma con esclusione degli anni 1997 e 2002, in cui era presente il fenomeno di El Nino). Risulta, in particolare, evidente che gli uragani sono complessivamente diventati sempre più intensi a partire dal 1995, anche se la loro frequenza non appare sostanzialmente cambiata rispetto ai periodi precedenti.
L’indice ACE mostra, inoltre, una buona coerenza con l’andamento della temperatura media globale, ma soprattutto una buona correlazione con le anomalie termiche medie della temperatura superficiale delle acque dell’Atlantico. Poiché nell’ultimo decennio la velocità del riscaldamento globale è aumentata, rispetto ai decenni precedenti, tanto che tutti gli anni compresi fra il 1995 ed il 2004, ad esclusione del 1996, sono stati anni record per la temperatura media globale (nella serie storica di dati della NOAA che inizia dal 1880), si deduce che esiste una correlazione tra cambiamenti climatici (riscaldamento climatico) e uragani (aumento della intensità), anche se questa correlazione è molto più evidente solo a partire dal 1995.

Il batterio pochi mesi fa ha colpito anche un ragazzo dopo che si è fatto il bagno in mare dopo un tataggio

Tatuaggio, fa il bagno e poi muore divorato. Al ragazzo era stato detto di non fare bagni al mare o in piscina prima di 2 settimane. Un divieto chiaro ma che l’uomo non ha seguito. Una volta bagnato è iniziato un processo di sepsi, e la ferita creata non si è più rimarginata, rimanendo profonda e purulenta. Colpa di un un batterio mangiacarne che ha iniziato a divorargli la pelle e contratto nelle acque del Golfo del Messico, come riporta il Daily Mail.

All’inizio ha avuto la febbre con l’area del tatuaggio arrossata, poi una volta aperta la ferita è corso in ospedale ma tardi, dopo alcuni giorni.

Ormai era partito una grave forma di cirrosi nell’uomo, rimasto senza difese immunitarie ed esposto alle infezioni. I focolai di infezione gli hanno preso tutta la gamba fono a quando le sue condizioni si sono aggravate portandolo all’agonia dopo due mesi di cure e terapie anche antibiotiche. La sepsi ha provocato alla fine una serie di collassi e per l’uomo non c’è stato più nulla da fare.

La cura del tattoo nelle ore successive alla sua esecuzione è molto importante: occorre evitare il rischio di contrarre infezioni, con la ferita fresca la pelle è potenzialmente infettabile. Va tenuta pulita ed quattro ore dall’esecuzione è necessario rimuovere la pellicola e lavare accuratamente il tattoo con acqua fresca e sapone neutro. L’asciugamano deve essere pulito e, dopo aver fatto respirare la pelle per qualche minuto, si può mettere uno strato di crema (specifica) su tutta la superficie.

Non sarà più indispensabile ricoprire nuovamente il tatuaggio con la pellicola. Meglio lasciarlo a contatto con l’aria. La sera, prima di andare a dormire, lavatelo e cospargetelo di nuovo di crema.

I giorni successi, quindi dal secondo giorno in poi, dovrete continuare a mettere la crema (uno strato sottile 3 o 4 volte al dì e almeno per 10 giorni. Vedrete la pelle morta seccarsi e fare le crosticine. Avrete evitato così irritazioni e bruciori come i pruriti.

Evitate di esporre il tatuaggio ai raggi solari, alle lampade abbronzanti, all’acqua di mare, alla sabbia e alle piscine ed evitate le saune. Evitate anche di sottoporre la parte interessata a sollecitazioni o a stress, niente sport per un po’. Non utilizzate creme idratanti profumate o creme come il Gentalyn Beta, che serve solo in caso di infezioni, e indossate, direttamente a contatto con il tattoo,. Indossate solo il cotone a contatto con la pelle tatuata.

Tante persone appassionate e tante persone incuriosite da questa arte, magari brave nel disegno, che vogliono approfondire la tecnica e la reale messa in opera di un tatuaggio. Prima di tutto bisogna ricordare che il tatuaggio oltre ad essere una forma d’arte è anche un “business”. Ciò vuol dire che troviamo tanti tatuatori improvvisati che “rovinano” persone e tanti commercianti pronti a venderti il loro prodotto a prezzo scontatissimo che molto spesso è da buttare subito nel cestino.

Un esempio tra tutti: il mercato cinese. Bisogna dire che i cinesi stanno inondando il mercato con prodotti davvero scadenti. E non parliamo di lampadine che potrebbero anche tornar utili, parliamo invece di inchiostri, macchinette ed altri accessori che nel 90% dei casi risultano davvero scadenti se non pericolosi. Basta farsi un giro su eBay o altri siti del genere per ritrovarsi in vendita “KIT FAI DA TE” a prezzi convenienti che includono macchinette da linee e riempimenti, aghi, inchiostri, alimentatori, pelli sintetiche, puntali, stencil ed anche regali! Importante: evitare macchinette di dubbia provenienza. Dalla Cina si possono acquistare magari gli aghi per far pratica, pelle sintetica, inchiostri e puntali .

A parte che gli inchiostri non hanno la dovuta certificazione di conformità e quindi è sconosciuta la provenienza. Possono risultare cancerogeni con tutte le gravi conseguenze del caso. Evitar di commettere l’errore che fanno in molti di iniziare la pratica con macchinette scadenti. Perché? Perché non sono calibrate, sono montate senza un criterio preciso, perché fanno linee tremolanti, perché si danneggiano spesso, perché sono inaffidabili. Comprare sempre una macchinetta decente, fatta apposta per le linee o per le sfumature ma che sia decente. Un marchio conosciuto e magari con qualche apprezzamento. Se si inizia a tatuare con una macchinetta Cinese non si capirà mai chi sbaglia ed il lavoro risulterà pessimo per un principiante.

Dimenticare quindi le macchinette cinesi. Se chi sta leggendo queste righe ha comprato un KIT cinese non deve sentirsi in disagio perché è un problema di molti. Purtroppo chi vuole iniziare a tatuare e fa qualche ricerca nel web per comprare del materiale senza spendere troppo capita spesso in certe offerte. Se è stato acquistato un KIT dalla Cina, si può mantenere tutto il restante materiale (alimentatore forse si o forse no) ma chiudere in un cassetto le macchinette. E’ necessario imparare con macchinette decenti, sia bobine che rotative, bisogna indirizzarsi verso macchinette affidabili. Il tatuaggio va eseguito seriamente e con le macchinette Cinesi si sbaglia subito strada. Qualche marchio “serio” ? Beh, qua non vogliamo far pubblicità … Se qualcuno compra marchi del calibro di Micky Sharpz o Sunskin (per dirne solo due), non può certo sbagliarsi… Per cui, il mercato cinese va benissimo per comprare materiali ed attrezzatura per imparare. Anche per gli alimentatori rimanderemo a prodotti più rinomati (si veda Eikon). Spesso si sente dire che un alimentatore cinese è identico ad un altro perché tutti gli alimentatori vengono fatti in Cina. E’ vero che la maggior parte degli apparati elettronici vengono fatti in Cina .. A qualcuno però faremmo volentieri provare un Eikon EMS 300 Clone con uno originale … La differenza è abissale. Ad ogni modo, per imparare a lavorare bene fin da subito il consiglio essenziale è di comprare materiale di buon fattura. Purtroppo nel mondo del Tattoo il risparmio non ripaga mai.

La pelle sintetica La pelle (gomma) cosiddetta sintetica è lo strumento di lavoro di tutti i principianti. E’ bene infatti iniziare a tatuare solo su quella .. Ad un principiante non venga mai in mente di provare direttamente su pelle umana, a meno che non sia il nonno ultranovantenne che tanto bene vuole al nipote ed in punto di morire voglia regalare il suo corpo (non sarebbe neanche il massimo in fatto di coagulazione sanguigna). Scherzi a parte, provare sempre e solo su pelle sintetica o altro tessuto che non sia direttamente pelle umana. A volte risulta difficile resistere ma invece è molto importante! Quindi, la pelle sintetica ha un colore che ricorda la vera pelle umana, la si trova in commercio in forma pressochè rettangolare, a forma di un volto (adatta principalmente per far pratica con il trucco permanente) o per essere applicata sulle braccia ed ottenere in questo modo un senso più “realistico”. E’ composta da un materiale gommoso ed è un buon punto di partenza, obbligatorio per i principianti. Come su pelle, si applica lo stencil e dopo si inizia a tatuare.

Naturalmente la pelle umana ha una “risposta” molto diversa perché la pelle sintetica non perde sangue, si utilizza in una posizione sempre comoda e soprattutto non si muove come farebbe il cliente. In ogni caso, con le pelle sintetica si riesce a prendere confidenza con la macchinetta ed a capire l’utilizzo e lo spessore dei vari aghi e può tornare utile anche quando si vuole “testare” un disegno prima della messa in opera su pelle umana. La pelle sintetica va trattata fin dall’inizio come se fosse pelle umana ovvero è conveniente metabolizzare da subito la procedura di lavoro per un ambiente sterile ed utilizzare la vasellina quando serve. A proposito di vasellina, quest’ultima su pelle sintetica è particolarmente adatta per ripulirla dall’inchiostro in eccesso. I principianti spesso si ritrovano a tatuare su pelle sintetica ma dopo non riescono ad eliminare l’inchiostro. Provare a pulirla con la vasellina, l’inchiostro viene eliminato rapidamente. Anche per la pelle sintetica il commercio offre diverse qualità, tra le migliori sono quelle “da tavolo”, con il colore tendente al giallo, che hanno una resa migliore grazie alla maggior consistenza della gomma utilizzata. E poi c’è la pelle di “porco” ovvero la cotenna di maiale che si presta piuttosto bene per la pratica di un tatuaggio. Importante che sia “recente” e che venga utilizzata da subito per evitarne la decomposizione!