martedì 29 luglio 2014

LA BIOEDILIZIA E I MATERIALI "GREEN": NON TUTTO ORO CIÒ CHE LUCCICA

Credit Photo:  www.edilana.com 
Negli ultimi anni l'attenzione dell'uomo verso l'ambiente è aumentato in maniera esponenziale; si fa molta attenzione ad evitare l'inquinamento, a cercare di sfruttare energie rinnovabili e ci si concentra sempre di più sull'utilizzo di prodotti "naturali", ovvero di prodotti reperibili in natura, sani e privi di residui tossici.

Questo vale, naturalmente, in tutti i campi e va diffondendosi anche nell'architettura, più precisamente nella bioedilizia.

Infatti oggi non solo si cerca di costruire (o ristrutturare) case ben coibentate al fine di ridurre gli sprechi energetici, ma lo si vuol fare con prodotti e processi eco compatibili.

Ma siamo sicuri che tutti questi materiali siano effettivamente "green", cioè che la loro produzione, raccolta e lavorazione abbiano un impatto minimo sull'ambiente?

Da sin. Daniela Ducato con Rita Assogna,
alla consegna del Premio ITWIIN
rivolto alle donne inventrici-innovatrici
L'imprenditrice sarda Daniela Ducato, coordinatrice de 'La casa verde CO2.0', ci spiega che purtroppo non è così.

Alcuni materiali, quelli che quando arrivano in Europa come materie prime vengono trasformati nell'ingrediente 'green' dell'architettura 'eco', nei Paesi in cui vengono prodotti con la sostenibilità hanno poco a che fare.

Ne è un esempio il Kenaf elemento assolutamente naturale, di derivazione vegetale, ottimo isolante termo-acustico ma che, continua Daniela Ducato, "sta creando non pochi problemi in Africa perché coltivata sfruttando il lavoro sottopagato delle donne e senza generare ricchezza nel Paese, anzi sottraendo spazio all'agricoltura. La pianta viene esportata e in Europa dove si trasforma in materia prima per la cosiddetta bioedilizia.

Altro problema gravissimo sono i materiali ibridi agro-petrolchimici composti da materie agricole e fibre petrolchimiche, ad esempio un prodotto ottenuto dal mix tra canapa e poliestere, petrolioderivato. Oltre al ciclo produttivo inquinante ed energivorocome tutti i petrolioderivati, gli ibridi sono indegradabili, le loro materie agricole e di sintesi, mescolate insieme non sono separabili alla fine del ciclo di vita e diventano rifiuti tossici indegradabili all'atto della demolizione/smaltimento o possono essere recuperate ( anche se fortement e impoverite) tramire la rigenerazione che comporta ad esempio dei trattamenti tipo bagni di acidi e solventi, con ulteriori costi economici e ambientali.

Poi ci sono i prodotti che non citano i siti di produzione rendendo anonima la provenienza geografica di filiera produttiva, compresi i diritti del lavoro e delle persone. Nascondere un dato così importante può significare che il produttore ha qualcosa da non far sapere. Un dato questo che seppur non richiesto dalla legilsazione italiana non può essere requisito di sostenibilità in quanto tradisce tutti quei principi di eticità trasparenza e informazione che rientrano nei diritti verso il consumatore, il progettista l’impresa.

Ed ancora sempre in bioedilizia è in forte crescita la comunicazione ingannevole di prodotti verdi taroccati che usano nomi e comunicano il loro prodotto con il sound italiano regionalistico per far credere che la produzione sia situata  in una determinata regione italiana. Ciò induce il consumatore a credere che si faccia uso di materiali locali, mentre in realtà si tratta di prodotti che omettono parte dei loro componenti o che dichiarano caratteristiche che non corrispondono alla realtà.

Daniela:  è possibile sapere da dove vengono i materiali che compriamo? C'è, come per gli alimenti, una sorta di tracciabilità del prodotto finale? Altrimenti come è possibile essere sicuri di acquistare un prodotto che sia ecosostenibile a tutti gli effetti?

Sono pochi i prodotti che indicano in etichetta tracciabilità delle materie prime utilizzate. Addirittura vi sono produttori che neppure dichiarano tutte le materie prime contenute nel prodotto, questo è pratica illegale, ma la poca vigilanza e l'assenza delle Istituzioni in materia di bioedilizia, permette questo e altro. A tal proposito come Casa Verde stiamo raccogliendo le firme di importanti partner per l'applicazione di un protocollo in bioedilizia, che seppur abbia carattere volontario da parte dei produttori, permette di trovare in etichetta i seguenti dati:
  • sito di produzione ( da non confondere con sede legale, come molti in modo ecofurbo indicano)
  • tracciabilità dei componenti usati, provenienza.
  • tracciabilità finanziaria in caso di finanziamento pubblico ricevuto
Nel protocollo di Casa Verde CO2.0 non sono ammesse materie prime petrolchimiche, ibridi agro-petroliferi, vegetali 1 materie prime di qualsiasi origine che sfruttano e inquinano in modo diretto e indiretto l’agricoltura, compromettono e danneggiano la salute, le risorse idriche e la biodiversità i paesaggi terrestri e marini.

Nello specifico non sono ammessi :
  • Petrolchimici le materie prime per l’edilizia petrolio-derivate (ad esempio fibre artificiali poliesteri, poliammidi, polistireni, polistiroli, poliuretani, ecc). Il petrolio è la prima causa del pianeta guerre, conflitti sociali, di inquinamento, erosione e distruzione delle catene alimentari di tutti gli esseri viventi.
  • Gli ibridi agro-petrolchimici
  • le materie prime vegetali e animali, provenienti da coltivazioni e allevamenti intensivi (CO2 produttori) che competono con la produzione di cibo e sottraggono suolo e acqua all’agricoltura. Se usassimo solo materie agricole coltivate appositamente per usi in edilizia ed energia servirebbe la superficie complessiva di almeno 5 pianeti. Per tal ragione Casa Verde ammette l'uso di eccedenze e i surplus sottolavorazioni.
  • Gli oli e i polimeri che seppur di origine vegetale non hanno documentazione di tracciabilità e di locazione geografica di materia prima e di conseguenza dei processi ambientali dei territori locali e dei diritti dei lavoratori.
  • I rigenerati
  • Materie fortemente energivore e inglobatrici di energia grigia come lane di roccia lana di vetro lana basaltiche ecc,
  • Qualsiasi materiale compresi che seppur definito certificato non sia corredato da documentazione di tracciabilità e provenienza e di ciclo di produzione.


Dal 2006, da quando ha cominciato ad occuparsi del settore sviluppo dei materiali EDILANA EDILATTE ORTOLANA e OVILE SARDO DESIGN, le cose sono evolute velocemente, nel 2008 l'idea concretizzatasi nel 2011 di "La casa verde Co2.0" che le ha portato molti premi... 
Ci aggiorna sulle ultime novità e su cosa sta lavorando in questo momento?

L'ultima innovazione è EDIMARE. I prodotti EDIMARE consentono di risparmiare denaro e paesaggio, riducendo la quantità di materiali edili quali cemento, legno, fibre di legno, e di materie prime come cotone o lino, E di conseguenza gli effetti ambientali legati al approvvigionamento (produzione e trasporto). In particolare i pannelli isolanti, grazie a un mix di materiali con un’elevata inerzia termica, a parità di risultato ottenuto permettono una riduzione dei costi economici e ambientali tra il 25 e il 30% rispetto a prodotti come fibre di legno cellulosa ecc. Il legno, così come il cemento, sono infatti materiali molto pesanti e non resilienti, che incidono fortemente sull’ambiente per le emissioni legate alla produzione e alla logistica. 

Nel caso di EDIMARE, invece, il ciclo produttivo non consuma paesaggio e ha un ridotto costo economico, visto che si utilizza il surplus di posidonia spiaggiata che andrebbe altrimenti smaltito come rifiuto. Un processo industriale che si adatta perfettamente ai principi della bioeconomia e dell’economia circolare che stanno molto a cuore alla Commissione europea. Da Bruxelles arrivano infatti spesso inviti a realizzare un’economia basata su basi biologiche e rinnovabili anziché fossili.

Un'ultima domanda: le aziende che volessero rinnovarsi mettendo a disposizione esperienze e idee nel settore della bio edilizia, trovano ancora posto nel polo produttivo di 'La casa green co2.0'?

Assolutamente si, sono le benvenute! Per farlo occorre l'adesione gratuita al protocollo in cui ci si impegna a produrre con le regole che ho descritto. Il polo è aperto a quanti vogliono produrre in sintonia con il pianeta.

Per approfondire:   www.edilana.com





lunedì 28 luglio 2014

GOOGLE E L'EFFETTO SAN MATTEO

Vi siete mai chiesti cosa determina la popolarità dei vostri articoli sul web?

L'articolo originale, lo pubblicai nel lontano 2009 su una testata di settore,   e si intitolava più precisamente "L'effetto San Matteo, la Googlearchy e altri fenomeni emergenti della rete".

Lo scrissi durante gli studi condotti sulle reti a invarianza di scala, un ramo della fisica statistica molto interessante che governa fenomeni delle reti come il Web e le reti sociali.

L'espressione Matthew effect fu utilizzata da Robert Merton per descrivere come, nel campo scientifico, uno scienziato già conosciuto goda di maggior reputazione di un ricercatore poco noto, anche se i lavori di entrambi sono pressoché equivalenti. La conseguenza è che il grande scienziato più facilmente riceverà premi e riconoscimenti, anche quando i suoi lavori sono in realtà il frutto del lavoro di allievi e collaboratori (si veda ad esempio la facilità con cui alcuni scienziati dal nome famoso pubblicano su riviste ad alto Impact Factor, mentre giovani anche con ricerche importanti abbiamo più difficoltà a pubblicare).

È proprio quello che succede anche sul Web, la domanda fondamentale è: di fronte alla giungla di documenti presenti in rete, se pubblico una informazione, che probabilità ho che qualcuno la legga?  [1]

I motori di ricerca scelgono le pagine secondo quello che è stato definito con il nome di "effetto San Matteo" [2], cioè le pagine che sono più  cliccate [3], e collegate da altri siti, sono anche quelle che appaiono ai primi posti. A questo punto però il motore di ricerca mette ancor più in evidenza queste pagine, tanto che gli utenti tendono a cliccarle ancora di più (e linkarle ulteriormente) creando un circolo vizioso che si è supposto portasse a una "dittatura" dei motori di ricerca. In cui solo alcune pagine molto visibili dominano la nostra ricerca dell'informazione. Fenomeno, quest'ultimo, indicato da alcuni autori con il nome di Googlearchy [4].

In particolare l'effetto San Matteo presuppone che i motori di ricerca influenzino il traffico degli utenti attraverso rigide strategie di posizionamento delle pagine, e si è argomentato che possano generare una spirale tutt'altro che virtuosa che amplifica la dominanza dei siti già popolari secondo una strategia legata al ranking. Questa polarizzazione potrebbe cioé condurre ad un monopolio pericoloso delle informazioni: l'evolvere di una rete non democratica.

Nella pratica accade questo: i motori di ricerca costruiscono i propri indici e ritornano i risultati della ricerca a un utente che fa una interrogazione con un certo ordine, e le prime pagine sono in genere quelle considerate più rilevanti.

Però l'effetto San Matteo non spiega alcuni comportamenti emergenti del Web ma fornisce altresì materia prima per studi che spaziano dalle dinamiche delle reti alla psicologia sociale.
Quello che vogliamo dimostrare in questo articolo è come non esista una Googlearchy, cioè un vero monopolio dei motori sulle informazioni presenti in rete.

L'EMERGENZA DI COMPORTAMENTI IN SISTEMI COMPLESSI ADATTIVI NEL WEB

Il comportamento dell'utente durante la ricerca sui motori non era mai stato considerato in studi precedenti, ma diventa qui fondamentale per spiegare l'apparizione di nuovi fenomeni emergenti. Reti complesse come Internet e il World Wide Web possono presentare comportamenti emergenti inaspettati, tipici dei sistemi complessi adattivi, la cui caratteristica è quella di avere un adattamento fisico che può fare emergere strutture di tipo auto-organizzative e auto-riproducentesi [5].

Da uno studio empirico, di cui parlereno tra poco, è possibile dimostrare che gli utenti che compiono ricerche sui motori cliccano, per così dire, anche risultati molto in basso nella lista dei link rilevanti, generando una ridistribuzione del traffico a favore delle pagine meno popolari.

La conseguenza principale di questo fenomeno va esattamente contro l'impressione generale, che presuppone considerare i motori di ricerca come i principali monopolizzatori dell'informazione, con la capacità di presentare solo certi siti e non altri. Si dimostra invece come anche nuove pagine poco indicizzate abbiano un'alta probabilità di essere scoperte rispetto a quanto si sarebbe potuto prevedere con il modello teorico.

GLI EFFETTI TOPOLOGICI DEL COMPORTAMENTO SOCIALE SU INTERNET

Da sin.  Alessandro Vespignani, l'autore e Albert-László Barabási 
Quattro scienziati italiani, che come spesso succede hanno trovato all'estero le migliori condizioni per poter lavorare e sono così migrati negli Stati Uniti, hanno condotto uno studio empirico [6] che spiega come l'influenza dei motori di ricerca non monopolizzino affatto l'accessibilità (e la popolarità) delle informazioni in linea: cioè che siti più popolari ricevano meno traffico di quanto ci si potrebbe aspettare dalle regole del ranking.

I quattro fisici [7] che hanno condotto l'esperimento (che potete trovare a questo link) sono Santo Fortunato, Alessando Vespignani, Filippo Menczer, Alessandro Flammini, dell'Università dell'Indiana.

Lo studio qui presentato vuole sfatare un preconcetto: il timore del presentarsi di una situazione in cui un ciclo auto-rinforzante della popolarità possa generare una topologia di Internet in cui solo un numero limitato di fonti di informazioni predominerà. Tuttavia anche se è vero che le pagine con più link e traffico verranno evidenziate per prime (perchè questo è anche quello che pretendiamo dai motori di ricerca), dimostreremo che nello stesso modo anche le pagine che non sono ai primi posti sui motori hanno una loro probabilità relativamente alta di essere viste e visitate.

L'effetto San Matteo viene, in altre parole, mitigato dal funzionamento dei motori e soprattutto dal comportamento degli utenti.

BREVE STORIA DELLA TECNOLOGIA

Videoregistratore Aiwa e "Breve storia della tecnologia"
Una lampada rossa, un vecchio videoregistratore Aiwa ed un libro in cui viene illustrato – tra le altre cose – il funzionamento del tubo catodico, tipico dei televisori ai quali spesso era abbinato quel genere di videoregistratore.

Erano altri tempi. Tempi in cui possedevo una videocamera Sony che oggi verrebbe definita preistorica. Eppure all'epoca mi sembrava lo stato dell'arte della tecnologia, perché non registrava sulle grosse videocassette VHS, ma su quelle più piccole, le cosiddette 8 millimetri.

Nel 1988 i miei genitori mi regalarono un piccolo televisore (naturalmente a tubo catodico) e un videoregistratore Panasonic. Mi divertivo a filmare, fare montaggi con una centralina, utilizzando un impianto hi-fi del 1986. All'epoca non potevo sapere quali sorprese mi avrebbe riservato l'evoluzione della tecnologia. Un'evoluzione così rapida che oggi – superati i 40 anni – ci si può anche sentire precocemente anziani.
Radioregistratore Irradio e "Breve storia della tecnologia"

Oggi i film sono file e il televisore ha lo schermo piatto. Esistono le videocamere digitali, straordinariamente piccole ed efficienti, ma spesso non vengono nemmeno usate. E' più comodo lo smartphone: lì dentro c'è quasi tutto e ce l'hai sempre a portata di mano.

Le centraline di montaggio sono state sostituite da programmi appositi che si utilizzano su normali PC. E l'impianto hi-fi dei bei tempi è sparito: o è miniaturizzato oppure è stato sostituito dal lettore MP3 o dallo smartphone al quale, eventualmente, vengono abbinate casse da pochi soldi. D'altronde il formato MP3, nato nel 1992, rende la musica facilmente trasportabile e pazienza se il suono compresso è di qualità inferiore.

Non esiste più il radioregistratore Irradio, made in Korea, dietro il quale c'è scritto: “conforme al D.M. 25 giugno 1985” (D.M. = Decreto Ministeriale, ovvero quello che una volta si chiamava Ministero delle Poste e Telecomunicazioni). E nemmeno il walkman: eppure tanti anni fa mi bastava portarlo in giro insieme ad un'audiocassetta (che comprendeva non più di una quindicina di canzoni). 

Philips GC036
E chi può dimenticare il suono caldo del disco a 33 giri e quel caratteristico fruscìo, che a me – peraltro – non ha mai dato fastidio? Purtroppo il piatto Philips GC 036 è diventato introvabile e le radio (come la Nordmende) si trovano solo più a casa della nonna.

Soprattutto ai giovani, cioè a coloro che non hanno vissuto i tempi che ho sopra rievocato, serve “Breve storia della tecnologia”, scritto da Paul Beaupère e Anne-Sophie Cayrey e pubblicato da Editoriale Scienza. Si tratta di un libro che consente di conoscere il passato e il presente della tecnologia (con un occhio, peraltro, rivolto al futuro). Tutti i mezzi che ci permettono, ad esempio, di trasmettere la voce, riprodurre i suoni, catturare le immagini e calcolare velocemente vengono descritti nella versione di “ieri” e in quella di “oggi”. La tecnologia viene “aperta” e il meccanismo di funzionamento è svelato al lettore.

Se non siete più giovani, e magari avete 60 o 70 anni, vi troverete a rispolverare quella tecnologia fatta di legno e di immagini bianco e nero e potrete meglio comprendere come oggi quei mezzi sono diventati incredibilmente piccoli, multifunzione, efficienti ed utili in qualunque situazione.

Nordmende anni '50
Se avete la mia età, probabilmente siete cresciuti con i “videogiochi” del Commodore 64, aspettando ogni volta mezz'ora per caricare il programma tramite una sorta di registratore a cassette. Le immagini a fosfori verdi non erano il massimo, ma ci si divertiva lo stesso

A scuola magari avete utilizzato uno Sharp Pocket Computer, che non era nient'altro che una calcolatrice programmabile (con il linguaggio Basic (!), da non crederci, considerando che oggi siamo giunti al CasioClasspad...).

orse nel 1990 anche voi usavate i floppy disk da 5 pollici e ¼ (inventati nel 1967) e ancora non avete accettato la loro estinzione...





TORNA TRIESTE NEXT: RICERCA SCIENTIFICA E IMPRESA A CONFRONTO

EnergETHIC il titolo della terza edizione

Sarà l’intervento del filosofo tedesco Julian Nida-Rümelin ad aprire ufficialmente la terza edizione di Trieste Next venerdì 26 settembre 2014 al Ridotto del Teatro Verdi.

Già ministro della cultura, Nida-Rümelin si confronterà con Nicola Armaroli, dirigente CNR e coautore di Energia per l’astronave Terra (Premio Galileo per la divulgazione scientifica) e Maurizio Fermeglia, rettore Università di Trieste, con la moderazione di Fulvio Longato, docente di Storia della Filosofia Università di Trieste, sul tema “Etica dell’Energia, Energia dell’Etica: rischi, risorse, responsabilità”.

La serata del 27 settembre apre dunque ufficialmente il calendario dei 100 appuntamenti in programma, che vedranno la partecipazione di 150 relatori nazionali e internazionali in 20 location e il contributo di oltre 100 partner: questi i numeri della terza edizione del Salone Europeo della Ricerca Scientifica, promosso da Comune di Trieste, Università di Trieste e VeneziePost per celebrare l’eccellenza scientifica della città di Trieste e favorire il dialogo tra mondo della ricerca e mondo dell’impresa in nome di uno sviluppo sostenibile.

venerdì 25 luglio 2014

350 STUDENTI DA TUTTO IL MONDO A TORINO PER IL PACE GLOBAL FORUM

Premio al miglior veicolo portatile per la mobilità urbana

Il Politecnico di Torino e GM ospitano dal 28 luglio all’1 agosto prossimi l’edizione 2014 del Forum mondiale su innovazione e processi di sviluppo di prodotto nell’ambito del programma PACE, alleanza tra industrie e università in tutto il mondo

Nel corso del Forum, verrà assegnato il premio al team studentesco che realizzerà il miglior veicolo portatile per la mobilità sostenibile (PAMD- Portable Assisted Mobility Device). I giornalisti sono invitati ad assistere alla competizione martedì 29 alle ore 11.00 @ GM Powertrain Europe, C.so Castelfidardo 36, Torino

Studenti, docenti e aziende che discutono e si aggiornano insieme sulle strategie e sui software più innovativi per lo sviluppo di prodotto in ambito automotive e, più in generale, nelle industrie ad alto contenuto tecnologico: il PACE Global Forum, che sarà ospitato da Politecnico di Torino e General Motors Powertrain Europe dal 28 luglio all’1 agosto prossimi, vedrà gli oltre 350 partecipanti tra studenti e docenti di 64 tra le più prestigiose università del mondo impegnati in sessioni di aggiornamento e formazione con i rappresentanti delle principali aziende del settore.

Il Forum sarà inoltre l’occasione per l’evento conclusivo dell’iniziativa PAMD Competition 2014, una vera e propria gara nella quale si sfideranno 7 team di studenti (il Politecnico di Torino è a capo di un team di 5 università), che hanno lavorato per un anno ad un prototipo di veicolo portatile per la mobilità sostenibile, i cosiddetti PAMD (“Portable Assited Mobility Device”). Le squadre gareggeranno lungo un circuito appositamente preparato all’interno della Cittadella politecnica (con partenza dal cortile di GM) con il loro prototipo, che sarà valutato da una giuria di esperti sia per la prova, che per il progetto.

RICERCATRICE DEL GRAN SASSO SCIENCE INSTITUTE VINCE IL PREMIO MICROSOFT

Catia Trubiani, ricercatrice post-doc in Informatica presso il GSSI, si è aggiudicata quest’anno uno dei premi messi in palio da Microsoft Research per i migliori progetti di ricerca. 

Il premio prevede di poter usufruire per un anno della piattaforma Microsoft Azure per eseguire calcoli di grandi quantità di dati utilizzando le risorse cloud. 

Il valore di mercato stimato del premio è di 40.000 dollari in risorse di calcolo. DESPACE (DEtecting and Solving Performance Antipatterns in Cloud Enviroments) è il nome del progetto vincitore: il suo obiettivo è lo sviluppo di un prototipo per analizzare le aste online. 

“Un supporto raccoglierà i dati – spiega Catia Trubiani – mentre Microsoft Azure sarà l'infrastruttura cloud per la loro elaborazione e per la pianificazione delle azioni a supporto di comunicazioni veloci e sicure durante le aste “. Il sistema sarà self-adaptive cioè in grado di rilevare potenziali problemi di performance e risolverli anticipatamente tramite l'utilizzo di antipattern che descrivono le cosiddette bad practice, vale a dire i problemi che si incontrano più frequentemente durante lo sviluppo del software e le loro soluzioni. L'obiettivo del progetto è garantire un sistema con adeguate prestazioni assicurando riservatezza e sincronizzazione dei dati”, conclude Trubiani.

“Questo prestigioso riconoscimento, dovuto anche alla collaborazione del GSSI con l'istituto Microsoft presso il Barcelona supercomputing center coordinato da Fabrizio Gagliardi, visiting professor del GSSI, contribuirà sicuramente al far conoscere il GSSI a livello internazionale e offrire ai suoi dottorandi ulteriori possibilità di sperimentazione e collaborazione”, commenta Rocco De Nicola dell’IMT- Institute for Advanced Studies di Lucca e coordinatore del dottorato in Informatica del GSSI.

Trubiani sarà presente oggi, venerdì 25 luglio, alla conferenza pubblica che Francesco Profumo terrà a partire dalle ore 14.30 nell'Aula Magna del GSSI, in viale Francesco Crispi 7 all'Aquila.