T'immagini la faccia che farebbero se da domani davvero davvero tutti quanti "smettessimo"!! T'immagini quante famiglie sul lastrico altro che crisi del dollaro questa sì che sarebbe la Crisi del Secolo!!!
Vasco Rossi - "T'immagini - Cosa Succede in Città" - 1985
Parliamo di WEB 2.0, un concetto non ancora ben definibile in tutti i suoi aspetti, ma che di sicuro sta rivoluzionando il nostro uso e il nostro approccio ad Internet e ai suoi contenuti. Vi ricordate com'era il www solo qualche anno fa? Sostanzialmente si trattava di uno strumento "passivo" dove l'utente accedeva ad informazioni e servizi pubblicati da terzi senza possibilità di interazione diretta. I contenuti, comprese le pagine dei siti personali, venivano prodotti da un solo soggetto qualificato (dotato di appositi programmi di editing e una minima infarinatura di linguaggi di markup) e quindi pubblicati sulla rete senza ulteriore possibilità di cambiamento "on line". L'unica interazione, o per meglio dire "dinamicità" , era concessa ai siti interconnessi a database e in ultima analisi su sistemi di messaggistica organizzata a thread e a "botta e risposta" come i forum. In ogni caso la partecipazione degli utenti della rete ai contenuti era essenzialmente limitata e poco accessibile e poco usabile da parte del fruitore "medio" di Internet. Questo approccio è stato progressivamente abbandonato per rivoluzionarsi in quello che Tim O'Reilly nel suo articolo del 2005 "What is web 2.0" definisce per l'appunto Web 2.0: ovvero la nuova evoluzione della rete. In questa nuova visione il Web è una piattaforma dove l'utente può controllare in libertà i propri dati e le proprie informazioni e partecipare, in uno spirito di totale collaborazione, ai contenuti di altre persone. L'esperienza di navigazione si fa più ricca, il contenuto non è più congelato allo stato in cui viene pubblicato, ma viene integrato, smentito, "partecipato" da tutti i sui fruitori: il paradigma di questo concetto sono la progressiva sostituzione dei siti personali classici con i blog dove l'utente (o gli utenti) producono direttamente "on line" l'informazione rendendola immediatamente disponibile ed accessibile alla lettura, al commento, alla revisione e alla modifica agli altri partecipanti del web. Due altri punti fondanti del Web 2.0 sono apparentemente antitetici: l'aggregazione dei contenuti e la decentralizzazione dei dati. Pensiamo alla svolta apportata dai sistemi di indicizzazione e aggregazione RSS grazie ai quali l'informazione è catalogata, organizzata, ridiffusa e promossa attraverso canali differenti (mailing, telefonia,..) nel medesimo istante in cui essa è resa disponibile alla pubblica lettura. L'aggregazione dei contenuti mediante il meccanismo del "tag" (la singola informazione viene "taggata", identificata e organizzata) consente una loro rapida ricerca e sopratutto una loro veloce messa in relazione; informazioni apparentemente diverse o comunque difficilmente relazionabili tra loro sono interconnesse e catalogate per un più rapido e flessibile accesso. Il dato in questo contesto è invece "sparso", decentralizzato su siti differenti, spesso residente direttamente sul sistema dell'utente che l'ha prodotto: dove esso risieda poco importa, alla fine il meccanismo dell'aggregazione provvede alla sua ricerca e messa a disposizione. La stessa definizione di "link" in quest'ottica è stravolta e rivoluzionata. Il nuovo paradigma, senza che troppo ce ne accorgessimo, ha preso piede anche in una delle pratiche storicamente più diffuse sulla rete, il peer to peer; da sistemi accentrati, dove il materiale risiedeva su pochi siti o server di smistamento, si è passati a sistemi dove i files sono direttamente prelevati, in modo contemporaneo e parallelo, dai computer di chi li rende disponibili. Chiari esempi di questa pratica sono i torrent e le reti kad utilizzate da Emule. In tutto questo la rete è la piattaforma, il supporto ad una nuova generazione di sistemi e servizi web in costante evoluzione, scalabili e capaci di fornire un'esperienza di navigazione ed usalibilità più ricca all'utente finale, che diventa partecipe e creatore dei contenuti nonchè spesso collaboratore nell'evoluzione delle funzionalità degli stessi. Nasce così il concetto della "perpetual beta" delle applicazioni: pensiamo ad esempio a Facebook dove gli utenti possono proporre applicazioni per accrescere le funzioni dell'interfaccia di base o a Sourceforge dove il software è reso disponibile in modalità opensource per l'uso finale o la sua revisione. Le stesse software house hanno dovuto cambiare prospettiva puntando a queste nuove frontiere, scardinando lo schema classico di "programma" come software installato e residente su un pc, per svoltare verso soluzioni multi piattaforma (computer, palmare, cellulare,..) e tipicamente orientate alla rete: chi non l'ha fatto, rimanendo legato all'approccio "old style" derivato dall'esperienza degli anni '80-'90, o si è reso conto tardi della rivoluzione in atto (vedi Microsoft che pensava di poter vivere tranquilla per anni con i suoi tradizionali sistemi operativi) sta correndo ai ripari di gran carriera. Il nuovo mercato, passata la bolla speculativa ed euforica della new economy, sta in questo nuovo sentiero. In tutto questo ciascuno di noi sperimenta quotidianamente l'esperiennza del Web 2.0, tramite il proprio blog personale, pubblicando video o foto su YouTube o Flickr, aderendo ad iniziative di network sociale come Facebook o Linkedin o semplicemente chattando con Skype o MSN. La rivoluzione è partita già da tempo e ne siamo, in modo consapevole o no, sempre più coinvolti: non resta che parteciparvi da attori protagonisti e vedere quali esiti essa porterà.
Sono passati ormai alcuni anni da quando, con grande clamore mediatico, l'allora ministro delle telecomunicazioni Maurizio Gasparri (ormai divenuto celeberrimo per aver redatto, ma mai letto, una legge che porta il suo nome) annunciò l'arrivo in Italia della televisione digitale terrestre - DTT. L'evento pareva rappresentare una sorta di rivoluzione tant'è che Gasparri non perdeva l'occasione per sottolineare l'importanza del salto al "digggittale" (citando la memorabile parodia del ministro fatta da Neri Marcorè) che avrebbe da lì a poco portato ad una notevole varietà di nuovi canali e programmi in alternativa alle tradizionali tv analogiche. Cosa poi sarebbe stato trasmesso sulla nuova piattaforma non era del tutto chiaro, ma con notevole solerzia partirono incentivi statali per l'acquisto dei decoder da collegare alle tv col chiaro fine di dotare anche l'italiano medio di tutto il necessario per entrare nella nuova frontiera della televisione. L'euforia del momento fece soprassedere al fatto che tra i principali produttori/distributori italiani dei set-top per la ricezione del DTT fosse il fratello dell'allora ed attuale Presidente del Consiglio (mondo piccolo!) e che di fatto ancora il segnale digitale terrestre fosse praticamente inesistente su tutto il territorio nazionale. Da quei mesi, eravamo nel 2005, poi la questione è passata nel dimenticatoio. Le uniche testimonianze dell'esistenza del digitale terrestre è stata la nascita di due nuove paytv (Mediaset Premium e La7 CartaPiù) che ben presto si sono scontrate-accordate con l'operatore satellitare Sky per i diritti del calcio in diretta e il progressivo svuotamento di contenuti e qualià della cosidetta televisione generalista tradizionale. In mezzo ad una selva di Grandi Fardelli, Isole dei Fetusi e Amici di Mario de Filippi, è passata in sordina anche una scadenza imposta dal decreto legge con cui il DTT veniva di fatto regolarizzato in Italia: nel testo del dispositivo, infatti, veniva indicata la data del 31/12/2006 come termine per lo "switch-off" del servizio, ovvero il momento in cui si sarebbero spenti i ripetitori del segnale analogico e attivate tutte le trasmittenti digitali necessarie a coprire tutta la penisola. Ovviamente per tale data sarebbe stato necessario l'adeguamento degli apparecchi e degli impianti in tutte le case italiane. Diciamo che Gasparri era stato un po' troppo ottimista, tant'è quella scadenza per decreto venne subito posticipata ad un più generico "entro la fine del 2008". Bene, detto questo e stante il fatto che ormai mancano un mese e pochi giorni alla fine dell'anno, come siamo messi? Ultimi come sempre. Con un ritardo sulla media europea di 4-5 anni (Germania, Svizzera tanto per fare due nomi a caso sono partiti già nel 2003) solo nell'autunno di quest'anno si è mosso qualcosa, ma nel più totale silenzio. Sicuramente mi saranno sfuggite edizioni straordinarie dei tg in merito, ma soltanto spulciando per caso le news di Google ho scoperto che in Sardegna dal 31/10 sono stati spenti i ripetitori tradizionali e sono partite le prime trasmissioni unicamente digitali. Nessuna informazione, nessuno spot l'ha annunciato, nessuna indicazione è stata data circa il calendario dello "switch-off" su scala nazionale. Ricordo ancora adesso il martellamento di messaggi e sovraimpressioni quando la mitica TSI svizzera cominciò il trasloco: da noi nulla. Bah... poichè comunque il passaggio può non essere del tutto indolore per le nostre tasche, specie se si ha un impianto vecchio, sarebbe bene dare più informazione all'utente finale. Solo in caso di antenne nuove l'installazione è trasparente, nelle case vecchie può essere richiesta una revisione dell'orientamento dell'antenna, il cambio dei miscelatori e degli amplificatori sotto il tetto e delle discese dei cavi in casa: su un impianto vecchio e logoro basta poco perchè il segnale digitale venga disturbato o annullato. Nei casi peggiori si arriva alla sostituzione della vecchia antenna con i relativi costi. Siccome forse finalmente anche noi italiani ci siamo decisi a traslocare davvero prepariamoci consultando il calendario nazionale previsto per lo switch (il territorio è stato diviso in aree) che riporto sotto. Qui invece possiamo trovare i testi dei decreti ministeriali connessi. Ah... dimenticavo: in questa vicenda abbiamo dato il meglio di noi stessi ritardando contemporaneamente due tecnologie: il DTT e il Wi-Max (internet senza fili). Infatti le attuali radiofrequenze UHF usate dalla tv analogica (un intervallo intorno ai 3 GHz) devono essere al più presto liberate per far spazio ed evitare interferenze col futuro Wi-Max che funziona sui 3,5 Ghz... (per la cronaca l' Hyperlan di Eolo lavora sul campo di frequenze deregolamentate dei 5 Ghz )
A distanza di un quasi un anno dall'attivazione posso dirmi pienamente soddisfatto del servizio Eolo di NGI che finalmente mi ha permesso di superare l' ostacolo annoso del digital divide... e da gennaio 2009 il nuovo servizio "Eolo voce" per la gestione della fonia (VoIP a commutazione di pacchetti, su una VLAN dedicata e separata a livello 2, con banda garantita, dal canale dove normalmente viaggia il traffico dati). Attualmente il servizio è in test gratuito per tutto il mese di dicembre per poi essere rilasciato all'utenza col prossimo anno quando partirà anche la number portability dalla tradizionale rete RTG. Purtroppo mi son svegliato troppo tardi e ho perso l'occasione di aderire al gruppo iniziale dei primi 30 beta-tester. Ma se questa fase di prova dell'infrastruttura darà esito positivo (e se le tariffe finali saranno contenute), ciao ciao Telecoz!!!
EOLO Wireless by NGI - www.eolo.it
Dati di diffusione:
BTS attive al 01/12/2008: 128 Utenti attivi: 18493 Comuni serviti: 2615
ridondanza dei nodi principali della rete attraverso collegamenti magliati con ridondanza quattro
nodi principali della rete collegati con collegamenti PDH a 300Mbit/s alla rete di trasporto in fibra ottica
core del network basato su router Cisco 12410
infrastruttura radio basata su tecnologia Alvarion e Motorola
latenza antenna cliente - BTS EOLO inferiore a 3ms
ogni BTS è dotata di gruppo di continuità ad alto rendimento e monitoraggio real-time delle condizioni ambientali
connessione a 10Gbit/s verso il MIX e oltre 4Gbit/s verso Internet
completa indipendenza dalla rete di Telecom Italia. La rete di distribuzione e trasporto di EOLO è completamente su infrastrutture NGI di cui ne ha il diretto controllo.
banda di upstream fino a 8Mbit/s (maggiore su progetto)
monitoraggio continuo della rete di trasporto per ottimizzare la latenza e la disponibilità di banda. La latenza nei vari punti della rete è monitorabile costantemente online
possibilità di avere indirizzo IP statico e/o routing di rete di indirizzi da 8 a 32 IP (maggiori su richiesta)
E di seguito il nuovo video promozionale del servizio Eolo wireless (per chi accede da Facebook cliccare sul link "mostra post originale"):
Qualche tempo fa presentai sulle pagine di questo blog Zeroshell, un'interessante distribuzione Linux di origine italiana destinata a fornire i principali servizi di rete di cui una LAN necessita. Un'idea interessante per riciclare un vecchio pc x86 trasformandolo in pochi passi in un completissimo e potente router di rete e server dhcp-dns-proxy-vpn. Esistono diverse distribuzioni (più o meno complete) pensate per queste finalità, ma in realtà ben poche di facile installazione e di semplice gestione attraverso una comune interfaccia web. In questi giorni ho trovato un interessante alternativa a Zeroshell dalle potenzialità simili se non superiori; si tratta di un prodotto ancora una volta italiano, destinato a sistemi embedded, ad appliance dedicati (quindi veri e propri firewall hardware) e a normalissime macchine PC x86: Endian Firewall Software Edition trasforma un qualunque computer in una completa appliance di rete capace di fornire servizi integrati di routing (su connettività lan, adsl, pppoe, isdn..), stateful inspection firewall, VPN (OpenVPN), gateway anti-virus, anti-spam, web security e email content filtering. Il tutto con requisiti hardware molto modesti (e quindi ideali per rispolverare dalla cantina il nostro vecchio pc ormai abbandonato con paio di dita di polvere sopra):
CPU:Intel x86 compatibile (500MHz minimo, 1GHz raccomandato), inclusi VIA, AMD Athlon, Athlon 64, Opteron, Intel Core 2 Duo, Xeon, Pentium e CeleronRAM:256MB minimo (512MB raccomandato)Disco:necessario un Hard Disk SCSI, SATA, SAS o IDE (40GB minimo), due identici se si vule supporto per RAID 1Schede di Rete:sono supportate le più comuni schede di rete incluse Gigabit e fibra otticaMonitor/tastiera e lettore cd: sono richiesti esclusivamente per l'installazione.
A differenza di altre distribuzioni Endian non è eseguibile in forma "live" ma deve essere necessariamente installato su un disco rigido che può essere anche ridondato in mirror RAID 1. E' gestibile via interfaccia web, via testuale dalla tastiera e mouse ed addirittura via seriale con console telnet (come un qualsiasi router vero). E' interessante sottolineare la predispozione di Endian all'autentificazione dei servizi integrata con Windows, le Active Directory e le group policies. La dotazione di Endian si completa infine con l'accesso via SNMP per il monitor in tempo reale di tutti di dati d'utilizzo del prodotto e dei servizi e semplici procedure di backup e restore delle configurazioni. Tutte le caratteristiche del prodotto sono presentate in questo completo datasheet mentre la ISO bootable di Endian 2.2. RC 3 è scaricabile da questa pagina (circa 90 MB). In questo pdf invece vi mostro alcune schermate dimostrative dell'interfaccia web del prodotto così come le ho catturate in una veloce sessione di prova su macchina virtuale VMWare. Completo e consigliato!
Da un po' di mesi mi ritrovavo per le mani un access point wireless DLink DWL 700AP e, avendo già in casa un router wifi Linksys WRT54G per Eolo, per lungo tempo è rimasto chiuso un un cassetto. E' un modello del 2005 economico e semplice, ormai abbastanza datato, ma già di classe G (54 Mbps); siccome spiaceva vederlo inutilizzato (è praticamente nuovo), mi son chiesto se fosse possibile un' applicazione "alternativa" del giocattolo. I modi di funzionamento dei componenti WiFi di questo tipo spesso non si limitano alla pura e semplice modalità access point, ma è possibile configurarli come client wireless, o come a me interessava, repeater. A seconda di come viene configurato quindi l'apparecchio può essere utlizzato come normale access point (quindi creare una rete senza fili), client wireless (ovvero utlizzarlo come client di una rete senza fili già esistente e quindi, attraverso la propria porta ethernet, convertire in wifi una qualunque scheda di rete cablata di un pc, di una stampante...), repeater (ovvero agganciarlo ad una rete senza fili già esistente, per ripeterne il segnale, ampliandone così la copertura anche negli angoli "bui"). Il firmware originale del DLink non consentiva tutti questi settaggi, ma un veloce giro in internet ha permesso di trovare sul sito ftp del produttore (http://ftp.dlink.ru/pub/Wireless/) un paio di firmware più aggiornati (quello usato è di fine maggio 2008) che ne hanno ampliato le potenzialità. Caricato il firmware (tutto via interfaccia web), sostituita l'antenna originale da 3 dbi con una più perfomante da 5 dbi e configurato il DWL700 come repeater, collegandolo alla rete wifi del Linksys già esistente (la procedura è molto semplice tramite la funzione di DLink "site survey" che scansiona le reti esistenti). Il DWL ovviamente ha un ip fisso, come gateway l'indirizzo del Linksys e propaga un segnale wifi col medesimo SSID e criptatura della rete che ripete. Con queste poche mosse il DLink è tornato operativo e mi hanno permesso di potenziare il raggio d'azione della lan wireless e coprire al meglio le due case nel mio cortile. Una piccola idea per riciclare il surplus informatico che spesso affolla i nostri armadi e cassetti.
Sono stati sicuramente tra i gadget tecnologici più gettonati nello scorso anno e di fatto hanno segnato una piccola ma importante rivoluzione nel variegato mondo dell’informatica. Sono i netbook, i piccoli pc tascabili con schermi tra i 7” e i 10” caratterizzati da dimensioni compatte per garantire l’estrema mobilità , la connettività internet agile via wifi o device 3G e prezzo di acquisto contenuto. La loro nascita ha creato un nuovo mercato di nicchia tra quello degli smartphone senza tastiera e i veri e propri notebook: i primi a diffondersi in modo massivo sul mercato italiano sono stati gli Eeepc di Asus che, nella primavera del 2008, col modello 701 (il 7 pollici) hanno aperto anche in Italia questa new age dei piccoli compatti. Visti ora i 701 manifestano i diversi limiti dati dalla maggiore anzianità di progetto. Schermo piccolino, processore Intel Celeron (caratterizzato da maggior assorbimento elettrico e consumo delle batterie) , piccolo disco SSD da soli 4 gb. A fine estate sono usciti i primi modelli con schermi di maggiore dimensione (Eeepc 901 da 9”), decisamente più usabili a parità di dimensione. Ma la vera svolta è avvenuta con l’entrata in commercio dei primi processori Intel della serie Atom; cpu ottimizzate per l’uso sui mini pc con basso consumo elettrico e buon rapporto prestazionale. Da questo momento in poi nel mercato sino ad allora dominato da Asus e dal suo brand Eeepc si sono gettati un po’ tutti i produttori cercando di rincorrere e bissare il successo del produttore taiwanese. Nascono i prodotti di MSI, Acer (serie Ispire One), Dell (mini Ispiron), HP (che rispolvera il brand autonomo CompaQ con il Mini) e Samsung (serie NC10). Caratteristiche dei prodotti variano soprattutto per dotazione di ram, spazio disco (a stato solido o da 1,8”), connettività (numero di porte USB, lan cablata, VGA, bluetooth). Per il resto l’impostazione di base rimane sostanzialmente la stessa per tutti: piattaforma Atom, schermo brite da 9-10”, webcam da 1,3 MPixel, scheda wifi in classe G, assenza di cd-rom. Sul lato sistema operativo si spazia su versioni di leggere Linux “ad hoc” sino all’immortale Windows XP che su queste nuove macchinette sta vivendo una seconda e florida giovinezza. Vietato Vista per l’estrema pesantezza, XP si trova a pieno agio sui netbook tanto che mamma MS ha spostato in avanti il supporto al sistema sino al 2014. Anche il colosso di Redmond ha fiutato l’affare dei minipc, tanto che le beta del futuro Windows 7 (“Seven”) sono state presentate da Steve Sinosfky (uno delle teste “d’uovo” di MS a capo del progetto del successore di Vista) proprio su piattaforme Eeepc per esaltarne leggerezza e supporto nativo alle tecnologie touch. Conservando un sottofondo di “nerd informatico” non potevo esimermi da proporre un confronto sul campo dei diversi giocattolini, avendoli avuti un po’ tutti tra le mani per ragioni di lavoro e/o regalo. Per l’occasione ho potuto schierare sulla mia scrivania i seguenti prodotti: Asus Eeepc 701 (il mio primo netbook), Asus Eeepc 901, HP CompaQ Mini, Samsung NC10 (il mio ultimo acquisto di natale); tra i più venduti, all’appello manca solo l’Acer Ispire One che però ho avuto occasione di avere per le mani qualche tempo fa per una riformattata. Anticipo l'esito del confronto che trovate nel dodumento pdf linkato di seguito, dichiarando il nuovo Samsung come l'assoluto vincitore per l'ottimo rapporto prezzo/dotazione; ovviamente il piccolo 701 era ovviamente un outsider inserito solamente a titolo di confronto per dimostrare l'evoluzione dei netbook in pochissimi mesi. Buona lettura!
In occasione del Consumer Electronics Show 2009 in corso in questi giorni a Las Vegas, Microsoft ha rilasciato la prima versione beta, pubblica e regolarmente scaricabile da internet, del nuovo Windows 7 (successore di Vista). Si tratta della build 7000 / beta 1 del prodotto, che da qualche settimana gira in versione 32 bit e 64 bit anche sulle reti p2p dei torrent, ma in questo caso il download è ufficiale: una volta installato il sistema è utilizzabile in prova sino al primo agosto 2009. Il debutto nella serata di ieri sul sito di Microsoft e il download è disponibile qui (occhio il sito a causa della notevole mole di richieste risulta randomicamente down, se interessati e lo trovare giù , a distanza di qualche ora). La beta è inoltre disponibile anche per gli abbonati ai servizi Technet Plus e MSDN nelle relative reti di download. Sempre di questi giorni il rilascio ai partner sviluppatori di Microsoft della R2 di Windows Server 2008 SP2 che sfrutta buona parte del "core" di Windows "Seven".
Avete presente il messaggio di avvertimento che ogni tanto Google restituisce a fronte di una ricerca che potrebbe condurci in un sito potenzialmente dannoso? Intendo la scritta "Questo sito potrebbe essere pericoloso e danneggiare il tuo computer"... un utile filtro nei risultati delle ricerche in Google che previene la navigazione in zone del www dove si annidano virus, spyware in agguato per danneggiare o prelevare informazioni sensibili dai nostri pc. Il filtraggio dei contenuti delle ricerche di Google è demandato ad un sistema di terze parti denominato StopBadWare (realizzato da un ente no profilt che collabora, oltre con la Grande G, anche con diverse altre realtà accademiche e commerciali), che basa i suoi controlli su "blacklist", elenchi, di siti e indirizzi web pericolosi, e costantemente aggiornate e mantenute.In caso di match positivo (sito rilevato dannoso) il sistema propone la scritta ed un link verso il sito web di StopBadWare per ricevere ulteriori informazioni. Bene, questo sistema, sabato scorso 31/01 dalle ore 15.30 alle 16.25 (ora italiana) è andato in tilt: chiunque, in qualunque parte del mondo, abbia effettuato una qualunque ricerca su Google in quel periodo ha ottenuto un avvertimento di pericolo ed è stato indirizzato sul sito informativo di riferimento. Risultato? Motore di ricerca inutilizzabile, e sito di StopBadWare crollato sotto la mole di richieste di informazioni degli utenti (un caso da manuale di "Denial of Service" involontario). Motivo di questa gaffe planetaria del colosso di Mountain View?? Un banale carattere " / " ("slash") di troppo nelle blacklist: pare che per una madornale svista nell'aggiornamento manuale di queste liste, l'operatore abbia lasciato in capo all'elenco un / di troppo: peccato che quel carattere per il sistema di filtraggio equivalga a dire "tutti gli indirizzi, tutti gli URL", ovvero tutto Internet! .Il down è durato 40 minuti circa, e poi il sistema è stato ripristinato banalmente cancellando quel carattere / dimenticato nella configurazione (chissà magari per un errato copia&incolla)... tutto il mondo è paese, specie nel piccolo, grande microcosmo dell'informatica! Ecco il comunicato ufficiale su uno dei blog di Google dove il fattaccio viene ricostruito e vengono rivolte le scuse agli utenti che, inconsapevolmente, hanno contribuito a creare il caso di attacco "DoS" più ampio della storia!
13 marzo del 1989: vent'anni fa esatti. Una data che ha cambiato il mondo e un po' le abitudini di tutti noi. Era il giorno in cui il fisico britannico Tim Berners-Lee, allora trentaquattrenne, presento' al CERN di Ginevra, un documento intitolato ''Information Management: a Proposal''; nel testo veniva presentato un nuovo sistema, basato sugli ipetesti, per rendere piu' agevole la distribuzione di dati scientifici tra gli scienziati. Per la prima volta le singole parole contenute in un documento digitale potevano essere utilizzate per creare legami con altri testi in altri computer in rete: nasceva il concetto di link . La risposta del supervisore di Berners-Lee, Mike Sendall, fu abbastanza fredda, pur accogliendo comunque l'idea del suo ricercatore e dando il via libera all'approfondimento del progetto insieme ad un altro scienziato, il belga Robert Cailliau.
Nella foto: Tim Berners-Lee
Nel giro di due anni gli Berners-Lee e Cailliau costruirono le fondamenta del Web e realizzarono anche il primo browser, il programma visuale per ''sfogliare'' le pagine del web. Qualche curiosità: come primo server fu utilizzato un computer NeXT, costruito dalla ditta fondata da Steve Jobs dopo che aveva lasciato la Apple la prima volta. La 'rivoluzione' del Web comincia, pero', solo nel 1993, quando viene creato 'Mosaic', il primo Browser, il programma per 'navigare' tra i link delle pagine web. E' anche l'anno in cui il Cern rinuncia ad ogni diritto d'autore sul Web e mette a disposizione del pubblico le basi ed i protocolli del software. Da quel momento il numero dei siti e' subito cresciuto esponenzialmente, passando da 130 nel 1993 a 35 milioni nel 2003, ai circa 180 milioni del 2008, secondo le rilevazioni Netcraft (con 1,5 milioni di domini italiani). E nel 2010, secondo l'Icann, l'ente che sovrintende alla gestione dei domini Internet, raggiungeremo il limite dei quattro miliardi di indirizzi consentito dall'attuale sistema di gestione di rete. Tim Berners-Lee non e' mai diventato ricco, nonostante la sua invenzione si sia trasformata nel volano di una nuova economia, ed ha dovuto aspettare fino al 2003 per ricevere i primi significativi riconoscimenti della sua opera. L'anno dopo gli e' stato conferito anche un premio scientifico da un milione di euro dal presidente della Repubblica Finlandese ed e' stato insignito del titolo di 'Sir' dalla Regina Elisabetta II. Sir Tim attualmente e' il direttore del Consorzio del World Wide Web, con il quale continua a guidare lo sviluppo della grande ragnatela. La sua piu' grande preoccupazione al momento riguarda la sicurezza e la privacy degli utenti. Proprio oggi davanti alla Camera dei Lord di Londra si e' pronunciato contro la vendita dei dati sulle abitudini dei navigatori, per scopi pubblicitari e commerciali. ''La gente usa Internet anche quando ha dei problemi - ha detto l'inventore del World Wide Web - per sapere se ha contratto malattie, o riguardo alle proprie opinioni politiche. E' vitale che non vengano spiati''. Buon compleanno WWW!
Vi siete mai domandati come si possano creare quei fotomontaggi che ogni tanto ritroviamo nelle avatar di nostri amici sui social network, sui forum, ecc... ? Per intenderci quelli dove il faccione del nostro conoscente spicca su un tabellone pubblicitario attaccato alle pareti di un palazzo o inserito in un dipinto famoso, ecc? Ok, sappiate che per fare quelle composizioni non occorre particolare maestria nel fotoritocco o essere maghi di photoshop... basta avere i contatti "giusti" esistono infatti alcuni siti gratuiti che consentono di creare veloci e divertenti fotomontaggi in pochi passi direttamente dal web. I siti di cui parleremo oggi non richiedono registrazione e consentono di creare e salvare le proprie elaborazioni sul pc per ogni uso.
http://www.magmypic.com/ (se invece volete anche voi una vostra copertina su una rivista .. il classico minuto di celebrità)
http://www.faceinhole.com/us/ (fotomontaggi con sostituzione di volto, per la maggior parte di personaggi famosi, attori, scene importanti di film, quadri e anche qualche qualche momento classico)
I risultati delle elaborazioni di questi siti sono spesso d'effetto e di sicuro divertimento... lo conferma il successone avuto in ufficio tra i miei colleghi ... vero Web ??? Se avete altre risorse e siti simili postate pure sul blog!