giovedì, dicembre 30, 2004

Le mie previsioni per i prossimi 10 anni

Fine anno è tempo di bilanci, previsioni e buoni propositi. Per rispettare la tradizione ho deciso, seguendo l'esempio delle trascrizioni già disponibili in inglese, francese, spagnolo e basco, di pubblicare una traduzione italiana dei testi del filmato prodotto dal Museum of Media History che racconta retrospettivamente l'evoluzione del sistema dei media dal 1989 al 2015. *** Nel 2014 le persone hanno accesso ad una vastità e profondità di informazioni inimmaginabili in un'era precedente. Tutti contribuiscono in qualche modo. Tutti partecipano a creare un panorama mediale (mediascape) vivo e pulsante. La stampa, tuttavia, per come la si conosceva, ha cessato di esistere. La fortuna ed il prestigio di chi lavora nel mondo dei media si sono progressivamente affievoliti. Le organizzazioni editoriali ed informative sono diventate un'ideale, una riminiscenza di un passato non troppo lontano. La strada verso il 2014 inizia a metà del ventesimo secolo. Nel 1989 Tim Berners Lee, un computer scientist che lavorava presso il laboratorio di fisica delle particelle del CERN in Svizzera, inventa il World Wide Web. Il 1994 vede la nascita di Amazon.com. Si tratta della concretizzazione dei sogni del suo giovane creatore di un negozio che vendesse tutto. Il modello di Amazon, che diventerà uno standard delle vendite via Internet, è costruito sulla automazione di raccomandazioni personalizzate - un negozio che può offrire suggerimenti. Nel 1998, due programmatori di Stanford creano Google. Il loro algoritmo si richiama idealmente al linguaggio di Amazon, i link sono considerati come raccomandazioni, e questo fonda la forza del più efficace motore di ricerca del mondo. Nel 1999, Tivo trasforma la televisione liberandola dai vincoli temporali - e dalle pubblicità. In pratica nessuno che lo abbia provato è mai tornato indietro. Sempre quell'anno, una giovane azienda della new economy denominata Pyra Labs presenta Blogger, uno strumento di publishing personale. Friendster viene lanciato nel 2002 e centinaia di migliaia di giovani corrono a popolarlo con una mappa incredibilmente dettagliata delle loro vite, dei loro interessi e delle loro reti sociali. Sempre nel 2002, Google lancia GoogleNews, un portale di informazione. Le organizzazioni di news piangono disperatamente. GoogleNews è curato interamente da computer. Nel 2003 Google rileva Blogger. I piani Google sono un mistero, ma il loro interesse in Blogger non è privo di ragioni. Il 2003 è l'anno del Blog. Il 2004 sarà ricordato come l'anno in cui tutto è iniziato. Il Magazine Rason invia ai propri abbonati un numero con le foto satallitari delle loro abitazioni in copertina ed informazioni personalizzate per ogni abbonato all'interno. Sony e Philips presentano la prima carta elettronica al mondo prodotta in massa. Google presenta GMail, con un gigabyte di spazio per ogni utente. Microsoft presente Newsbot, un filtro collettivo di informazioni. Amazon presenta A9, un motore di ricerca basato sulla tecnologie di Google, che incorpora inoltre il sistema di raccomandazioni proprietario. E poi, Google viene quotato in borsa. Grazie ai nuovi e freschi capitali l'azienda opera una grossa acquisizione. Google compra Tivo. 2005 - In risposta alla recente mossa di Google, Microsoft compra Friendster. 2006 - Google combina tutti i propri servizi - Tivo, Blogger, GMail, GoogleNews e tutte le ricerche in the Google Grid (La Griglia di Google), una piattaforma universale che offre uno spazio disco ed una larghezza di banda funzionalmente illimitate per conservare e condividere media di ogni tipo. Sempre online, accessibile da ogni dove. Ogni utente sceglie il proprio livello di privacy. Può conservare i propri contenuti in modo sicuro su the Google Grid o pubblicare in modo che tutti possano vederli. Creare così come consumare media non è mai stato così semplice. 2007 - Microsoft risponde alla crescente sfida di Google con Newsbotster, una rete sociale dedicata all'informazione ed una piattaforma di giornalismo partecipativo. Newsbotster ordina e seleziona le informazioni sulla base di quello che gli amici o i colleghi dell'utente stanno leggendo e vedendo e consente a chiunque di esprimere commenti su quello che stanno vedendo. La carta elettronica della Sony, quest'anno, è meno costosa della vera carta. E' il medium scelto da Newsbotster. Il 2008 vede nascere l'alleanza che contrasterà le ambizioni di Microsoft. Google e Amazon uniscono le forze per formare Googlezon. Google offre the Google Grid e la propria tecnologie di ricerca senza rivali. Amazon offre il motore di raccomandazioni sociale e la propria gigantesca inftastruttura commerciale. Insieme usano la propria dettagliata conoscenza di ogni rete sociale degli utenti, dati demografici, abitudini di consumo e interessi per offrire una totale personalizzazione dei contenuti - e della pubblicità. La Guerra delle News nel 2010 si notare per il fatto che nessuna news organization vi prende parte. Googlezon finalmente da scacco matto a Microsoft con alcune funzionalità che il gigante del software non può raggiungere. Usando un nuovo algoritmo, i computer di Googlezon creano articoli dinamicamente, ri-utilizzando frasi e fatti da ogni fonte informativa e ricombinandoli. Il computer scrive un articolo per ogni utente. Nel 2011, il sonnolento quarto potere si desta per fare le propria prima ed ultima mossa. La New York Times Company denuncia Googlezon affermando che il loro robot cerca informazioni viola le leggi del copyright. Il caso finisce di frotne alla Corte Suprema, che il 4 Agosto 2001 decide in favore di Googlezon. Domenica 9 Marzo 2014 Googlezon presenta EPIC. Benvenuti nel nostro mondo. Il 'Evolving Personalized Information Construct' (Costrutto Informativo Personalizzato ed in Evoluzione) è il sistema attraverso il quale il nostro panorama mediale diffuso e caotico viene filtrato, ordinato e distribuito. Ciascuno contribuisce ora - attraverso articoli nei blog, immagini scattate con i video-telefoni, reportage video, ed interi approfondimenti investigativi. Molte persone vengono anche pagate con una piccola fetta degli immensi introiti pubblicitari di Googlezon, in modo proporzionale alla popoloarità del contributo che hanno realizzato. EPIC produce un pacchetto di contenuti personalizzato per ogni utente, usando le scelte, le abitudini di consumo, gli interessi, le informazioni demografiche, le reti sociali per dare forma al prodotto. Una nuova generazione di editor freelance è fiorita, persone che vendono la propria abilità di connettere, filtrare ed ordinare per priorità i contenuti di EPIC. Tutti noi siamo abbonati a molti Editori diversi; EPIC ci consente di mescolare e confrontare le loro scelte nel modo che desideriamo. Nella sua migliore espressione, editata per un lettore con ottime conoscenze, EPIC rappresenta un indice del mondo - più profondo, vasto e più raffinato rispetto a tutto quanto sia mai stato disponibile prima. *** Spero che questa trascizione, basata sulla versione inglese realizzata da Robin Good, possa essere utile per una eventuale versione sottotitolata, o doppiata da qualcuno, del filmato flash realizzato da Robin Sloan, Matt Thompson, e con le musiche di Aaron McLeran. Buon 2005. (N.B. Questo blog ed il suo contenuto sono mantenuti per ragioni storiche. Da aprile 2006 ho traslocato i contenuti su un nuovo server basato su wordpress.)

mercoledì, dicembre 29, 2004

La TV ai tempi di BitTorrent

Segnalo questo interessante articolo di Wired sull'impatto di BitTorrent sulla TV. L'articolo fa seguito ad un altro recente pezzo della stessa rivista sull'IPTV.

Interessante il processo di atomizzazione che rende importante la singola unità di contenuto (il pezzo musicale, la puntata dello show, il post di un blog). Che ruolo avranno in futuro i contenitori che chiamiamo canali? Da questo punto di vista è altrettanto interessante il caso del formato XMLTV.

The format used differs from most other XML-based TV listings formats in that it is written from the user's point of view, rather that the broadcaster's. It doesn't divide listings into channels, instead all the channels are mixed together into a single unified listing.

A quando un servizio come iTunes per il video?

sabato, dicembre 25, 2004

Google e la ricorsività

Dopo varie occasioni nelle quali mi sono imbattuto in questo articolo ho finalmente avuto il tempo di leggerlo con la necessaria attenzione. Si tratta dell'articolo originale nel quale Sergey Brin e Larry Page, allora ricercatori a Stanford, descrivono l'archietettura di Google. Una delle cose che mi ha più colpito è la struttura iterativa dell'algoritmo che consente di calcolare il così detto PageRank (la qualità percepita) di una pagina. Il PageRank di una pagina dipende dal PageRank delle pagine che hanno link verso quella pagina. In ogni caso si tratta di una lettura altamente consigliata.

venerdì, dicembre 24, 2004

Il mondo nello specchio della rete

Come ogni anno Google ha pubblicato il suo report sulle parole chiave più ricercate durante l'anno. Anche quest'anno, come era già avvenuto nel 2003, trionfa Britney Spears. Di particolare interesse l'atlante interattivo dei principali eventi del 2004 (richiede flash 6).

[via Slashdot]

lunedì, dicembre 20, 2004

Il sistema dei media nel 2014

Cos'è EPIC? Guardatelo in questo video di 8 minuti realizzato dal museo di storia dei media. Ci mette un pò a caricare me ne vale veramente la pena. P.S. Per Luca: ma allora avevi proprio ragione su Google! :-)

Avete presente le auto volanti di Futurama o quelle de I Jatson?

La futurologia, specie se non confinata nei romanzi, è sempre rischiosa. La rivista australiana MIS, sprezzante del pericolo, descrive in questo articolo di Helene Zampetakis alcune delle tecnologie che saranno in voga fra 10, 15 anni.

Tutto lo scenario ruota intorno alla convergenza fra nanotecnologie, sensori e tecnologie senza fili. Niente di particolarmente nuovo tranne la prevista disponibilità di auto volanti a costi paragonabili a quelli di un moderno SUV ben accessoriato.

NASA's area of focus is a skycar (or personal air vehicle - PAV) designed not for getting about the city, but for travelling at high speeds for distances of between 160kms to 800kms. That would allow people to live in regional areas and commute into urban airfields for work.

Over the next decade Moore expects to see flying cars priced at less than US$100,000 using automated functionality based on NASA's EquiPT (Easy-to-use, quiet Personal Transportation) technology set.

Per chi proprio non potesse aspettare, per la modifica cifra di 995.000 dollari è possibile prenotare già oggi dalla californiana Moller International il modello a 4 posti della M400 Skycar.

venerdì, dicembre 17, 2004

Digitale Terrestre e User Generated Content

Tutto questo parlare di contenuto generato dagli utenti, il fatto che stavo da un pò di tempo pensando ad un progetto di ricerca sull'idea di usare la TV per permettere agli utenti di generare del contenuto e l'ultimo post sul blog di ZetaVu mi ha portato a buttare giù una bozza di progetto. Allo stato attuale la ricerca è pensata come un pilota. Il servizio UGC dovrebbe avere un interesse locale (dove locale è una provincia). Inoltre l'idea è quella di verificare quanto e se il DVB-T possa essere un canale adatto allo scopo. Personalmente non credo ma le ricerche servono proprio a confermare o meno le ipotesi. Inoltre gli eventuali risultati potrebbero essere ancora utili nel momento in cui le TV saranno dotate di servizi interattivi veicolati over IP. Fra gli obiettivi: · Definire le esigenze dei cittadini in relazione a questi servizi (temi specifici e modalità); · Realizzare in collaborazione con un provider di contenuti istituzionale o privato il servizio; · Valutare l’efficacia dell’azione con specifico riferimento al gradimento sul servizio e all’eventuale incremento di attività volte all collaborazione fra i cittadini. Un'idea di progetto collaborativo portebbe essere un osservatorio sul monitoraggio dei prezzi dei prodotti nelle principali rivendite della provincia. Credo sia una cosa di cui spesso si parla (ehi sai che ho trovato questa cosa che costa solo x in quel posto) fra amici e parenti. Forse si potrebbe costruire una applicazione intereattiva via DVB-t che consenta agli utenti di inviare questa informazione in un un punto di raccolta in modo che altri possano beneficiare della loro esperienza. Consigli? Suggerimenti per servizi analoghi? Sapete che qualcuno lo ha già fatto (questo o una cosa simile)? Esiste qualcosa del genere (sull'esempio dei prezzi) su qualche sito Internet?

martedì, dicembre 14, 2004

Disponibile in beta il Desktop Search di Microsoft

Lo sto provando ma nel frattempo ecco una serie di link alle reazioni disponibili sulla blogosfera.

MSN this morning announced the MSN Toolbar Suite which includes Desktop Search. Let's travel the Internet and suck up the best and worst links. First, it's at http://beta.toolbar.msn.com. A video demo and interviews with the team is up on Channel 9.

Darren Barefoot: Forgive me for being underwhelmed, but maybe this should have been in the frickin' operating system years ago, eh?

Jan Tielens took my reviewers guide and filled it in.

Joe Wilcox, over on Microsoft Monitor, says he's still having performance problems. He calls it MSNFS.

Jonathan Hardwick: Leave it alone (among other tips)

J. Gregg Thomason: This whole stupid search craze is just a symptom of what's wrong with the industry.

Zmarties: "I'm pleased to see implements "search as you type."

Patrick Tisseghem: it looks excellent.

Joel Ross: It doesn't install on Windows 2003. So I can't tell you anything about it.

Peter Laudati: While Google search still rocks on the Internet, MSN has clearly got a better product when it comes to the desktop!

Paul Thurrott: reviews MSN Toolbar Suite.

Bradley Johnson: Two months late to Google Desktop party.

sendung.de: Yes, trust is an issue in desktop search.

Buzz Bruggeman: It is working great.

Shannon: Looks like MS has a real product here.

I'll watch for more reactions. Feedster is down right now, which is slowing me down a bit. Plus I'm really tired and off to bed.


[Scobleizer: Microsoft Geek Blogger]

Broken Metaphors: Blogging as Liminal Practice

Segnalo questo articolo in bozza dal blog apophenia.

Broken Metaphors: Blogging as Liminal Practice

Be warned that this is definitely an academic paper meant for an academic audience and may contain scary academic words. There's a lot that i'm missing here, but i still think that this paper has some value and i would love feedback from anyone who wishes to spend the time reading it.

Le metafore che si utilizzano per definire l'attività di gestire un blog (pubblicazioni personali, diari pubblici, etc.) sono spesso giudicate dai blogger fallaci. Il motivo di questo giudizio risiede, secondo l'autore, nella parzialità di queste definizioni metaforiche che inevitabilmente non colgono lo spirito del blogging visto dal suo interno.

Il fenomeno del blogging è quindi definito come una pratica liminale in bilico fra oralità e testualità, corporalità e spazialità, pratica ed artefatto.

L'articolo è interessante ma mi interessa ancora di più il continuo trend della ricerca sull'impatto sociale delle nuove tecnologie a scoprire costantemente nuovi fenomeni di confine. Da una parte si criticano le metafore in quanto inadatte a descrivere un fenomeno (possono infatti essere facilmente rotte, cioè disconfermate), dall'altra si sostiene che un fenomeno è di confine fra esperienze comuni che si è in grado di descrivere.

Interessante. Almeno per me.

In relazione al dibattito sull'UGC ringrazio intanto Mario Tedeschini LalliLoredana Lipperini che hanno accolto la mia proposta di aprire il dibattito sul tema al di fuori dei blog di Kataweb. Entrambi hanno scritto cose estremamente interessanti e per lo più condivisibili. Nel dibattito si è aggiunto oggi anche Giancarlo Mola dal blog Codice a Barre di Repubblica.

sabato, dicembre 11, 2004

Kataweb ed il contenuto generato dagli utenti

In un interessante dibattito in corso fra i blogger di kataweb si discute del ruolo ed il futuro dei servizi basati sul contenuto generato dagli utenti (User Generated Content) per il mondo giornalismo professionale. Lo spunto è stato il recente lancio del servizio wikinews. Aggiungo i miei due cent da una prospettiva esterna al sistema dei mass media. 1) Credo che la distinzione fra vari tipi di UGC proposta da Zambradino possa essere definita in modo più preciso come IP-UGC vs UGC. Ovvero i contenuti generati dall'utente sono veicolati o meno dall'infrastruttura di Internet; 2) La distinzione fra tecnologie applicate e UGC non regge. I blog crescono esponenzialmente grazie all'applicazione di RSS. Anche Google, citata come esempio di tecnologia applicata allo stato puro, fonda il suo algoritmo di indicizzazione e ricerca sulle preferenze espresse dagli utenti in forma di click e link. Anche quello è contenuto generato dagli utenti; 3) Il problema della scala. Un problema che non si è toccato è la grandezza di scala che un servizio UGC deve avere per superare la fase di bootstap che lo rende interessante per altri utenti. Nei servizi basati sull'IP-UGC quantità e qualità di intrecciano come ha messo in luce Mario Tedeschini Lalli parlando delle debolezze del meccanismo di peer review in wikinews. Queste necessità di scala rende difficile la comparsa di un serivizio del genere in Italia. Gli utenti Italiani che parlano l'inglese sono attratti da servizi già attivi (pensata all'idea di uno Slashdot in lingua italiana), quelli che non parlano Inglese sono troppo pochi per raggiungere la scala necessaria a fare il bootstrap. Bisogna allargare la base di utenza; 4) Internet è più che mai centrale come luogo dell'ibridazione dei media. Voice over IP ed IPTV ne sono la dimostrazione lampante. Quando la casalinga di Voghera voterà per eliminare un concorrente del GF7 con il telecomando o con il telefono userà Internet forse senza neanche saperlo. Forse non aprirà un blog e non parteciperà ai forum di discussione sulle ricette di cucina ma quello che conta è che se volesse potrebbe farlo. In altre parole i media over IP sono per definizione bidirezionali e questo li distingue in modo inequivocabile rispetto ai media di massa. Se non altro il voto per il GF sarà gratuito; 5) Il sistema dei media di massa, in questo concordo con Zambardino, opera con delle logiche operative chiuse. Si scelgono le notizie se non sono state già trattate (se non sono cioè nella memoria del sistema). L' IP-UGC è fondato su una logica operativa analoga che operat tuttavia su memorie individuali. Ho sviluppato questa riflessione in un mio precedente post. Concludendo lancio un esperimento. Il dibattito su Kataweb è così interessante che solleciterà sicuramente gli utenti a dire la loro. Il punto è i blogger di Kataweb che partecipano al dibattito faranno uso delle riflessione esterne al sistema Kataweb/Repubblica per approfondire la discussione o si chiuderanno nella loro autoreferenzialità in quanto parte del sistema dei media? Inizio l'esperimento entrando in contatto con gli autori del blog sfruttando il feedback dei commenti e vediamo che succede. Per il momento si sono guadagnati il diritto ad entrare a far parte del mio blogroll.

Google e l'autocompletamento delle chiavi di ricerca

L'utima di Google? Una funzione di suggerimento in tempo reale nel classico box di ricerca. Come spiegato nelle faq il servizio funziona in modo analogo a quello denominato "Did you mean?" che suggerisce possibili alternative agli errori di spelling più comuni. Usando la sua tipica strategia fondata sull'auto-osservazione, Google utilizza le statistiche relative alle keywords più utilizate (vedi Google Zeitgeist) per suggerire all'utente le possibili chiavi di ricerca.

Digitando ad esempio le lettere 'Berlus' vengono suggeriti, ad oggi, i seguenti risultati (con il relativo numero di pagine ritornato dalla query):

Berlusconi Berlusconi euro Berlusconi biography Berlusconi Bush Berlusconi corruption Berlusconi Italy Berlusconi media Berlusconi quotes Berlusconi Silvio (...)
Molto interessante la discussione in corso su SlashDot. Provate ad esempio a scrivere nel box g e poi o e poi o e poi o e poi o.... e vedete cosa succede. Da non perdere anche il possibile completamento della frase I hate... Credo che, prima o poi, sarà necessario avere degli algoritmi open socurce per le ricerche sul web. [via Dan Gillmor's eJournal]

mercoledì, novembre 24, 2004

Coem usare RSS + BitTorrent per scaricare automaticamente le puntate delle vostre series preferite

Mi sono sempre chiesto come mai nessuno avesse ancora pensato a come collegare la tecnologia per il download collaborativo di BitTorrent con i flussi RSS. A mio avviso, visto la logica di flusso propria degli RSS e di radio e TV, ho sempre ritenuto che prima o poi i contenuti delle EPG (Electroinc Program Guide) sarebbero state descritte attraverso questa tecnologia. Ma RSS descrive la struttura di un contenuto; il contenuto stesso (il programma) può essere accessibile a richiesta dell'utente (o anche automaticamente scaricato subito dopo la 'messa in onda' sul modello del podcating). A questo punto entra in gioco BitTorrent che consente di fare download collaborativi sfruttando una specie di condivisione di banda con gli altri utenti della rete che stanno accedendo, nello stesso, momento a quella risorsa (o che la hanno già scaricata in precedenza).

Tutto questo configura il seguente scenario. Un appassionato di una delle serie TV o di un serial (o di qualsiasi altra cosa) può sfruttare la combinazione di BitTorent + RSS per costruire una specie di registratore digitale che scarichi (cioè registri), automaticamente le puntate subito dopo la messa in onda in modo da poterle guardare con calma indipendentemente dai tempi del palinsesto (lo so che anche il vostro beneamato registratore VHS lo fa ma bisogna cambiare le cassette, l'orario della programmazione non è mai preciso, la qualità audio/video è quella che è, etc.).

Per sapere come fare la rivista online Engadget ha creato un totorial che spiega, passo passo, come crearsi il proprio video-registratore virtuale con programmi disposibili gratuitamente.

P.S. Tenete conto che, a seconda delle leggi nazionali e dei programmi che registrate (cioè scaricate), potreste violare il copyright relativo a quel contenuto.

domenica, novembre 14, 2004

Ancora su desktop search tools

Due novità:

1) La nuova versione 5 di X1 in beta. Si integra con Outlook come Lookout e nella taskbar di Windows come Copernic Desktop Search. Come quest'ultimo effettua le ricerche in real time. Decisamente un ottimo prodotto dal non trascurabile costo di $74.95 (la nuova beta è scaricabile gratuitamente così come la versione di prova 15 giorni della versione 4);

2) Dall'anteprima sul sito neowin.net alcuni screen shot del nuovo desktop search tools di Microsoft denominato MSN Toolbar Suite che segue l'acquisito di LookOut ed il rilascio della seconda beta di MSN Search. Si integra, come ci si poteva immaginare con Outlook (di cui sostituisce le funzionlità di ricerca integrate) e con la taskbar di Windows. Da quanto si capisce dalle immagini e dalla breve recensione non sembra poter cercare in tutte le tipologie di archivi (email, files, etc.) allo stesso tempo. Sarebbe un peccato perchè si tratta certo di una funzionalità fondamentale che altri concorrenti hanno già.

Screenshot: Installazione Parte #1 | Parte #2
Screenshot: Informazioni su Desktop Search | Impostazioni Desktop Search
Screenshot: MSN Deskbar | Risultati del Deskbar Search
Screenshot: MSN Toolbar | Outlook Toolbar | Risultati di Outlook Search | Risultati di Desktop Search
Screenshot: Pop-up Notifier | Indexing Notifier
Screenshot: Informazioni su MSN Toolbar Suite

[via Slashdot]

sabato, novembre 13, 2004

Benoit Mandelbrot e l'autoreferenza

Questa intervista all'ottantenne Benoit Mandelbrot, scopritore dei frattali, mi ha fatto tornare in mente che anche questa affascinante formula matematica è di tipo iterativo. In pratica l'output della formula viene re-introdotto nella stessa come input (feedback loop). Sarà un caso ma ogni volta che questo principio autoreferenziale entra in gioco succedono cose meravigliose ed inspiegabili.


[via Slashdot]

giovedì, novembre 04, 2004

Mobile Learning ovvero NPP

Stando a questo intervento di Howard Reinghold sulle colonne di The Feature, quando nel 2001 abbiamo realizzato, a scopo di ricerca, il no paper project avevamo visto lontano... :-)

In realtà è interessante notare come molti degli aspetti descritti in questo articolo siano comuni anche nella nostra esperienza. Per chi fosse interessato ai risultati di questa ricerca rimando all'articolo No Paper Project. Consumo, comunicazione e nuove tecnologie di prossima pubblicazione sulla rivista Sociologia della Comunicazione di Franco Angeli (numero 35-36).

via [Smart Mobs]

Doppia contingenza

 

Ho trovato l'esempio perfetto di doppia contingenza. Osservate l'immagine sulla sinistra. Si tratta di una rappresentazione grafica delle possibili traiettorie (mosse possibili) che un software per il gioco degli scacchi  calcola per scegliere la mossa successiva in base alla posizione attuale dei pezzi. Le linee gialle sono le mosse potenziali dei pezzi neri (il computer). Le linee verdi quelle dell'avversario (come le pensa il computer). Il computer sceglie dunque una mossa sulla base delle mosse possibili che egli (uhm... esso) si aspetta che l'avversario farà.

martedì, novembre 02, 2004

Escher in 3d

Ovvero come un computer ed uno scanner 3d possono ricreare le illusioni bidimensionali di M.C. Escher in oggetti tridimensionali che se osservati dalla giusta prospettiva mantengono intatto l'effetto.

sabato, ottobre 30, 2004

uso didattico dei blog

Facendo seguito alle suggestioni di Luca Rossi pubblicate nel blog I media-mondo ho deciso di approfondire la cosa leggendo i paper disponibili sul sito di Sebastian Fiedler in relazione all'uso dei blog come strumento si supporto alla didattica universitaria. Ecco quello che ho imparato: Ovviamente l'introduzione del blog va inquadrata come attività di supporto alle attività di didattiche in aula e non come forma sostitutiva. Da questo punto di vista questa tecnologia rappresenta un ponte verso forme di insegnamento che integrano le tecnologie come un dato costante della vita quotidiana del docente e dello studente. Rispetto all'uso di un web di supporto al corso il blog richiede una maggiore interattività da parte dello studente. I blog sono, infatti, un potente e semplice strumento di web publishing. L'autore del blog produce un contenuto. Questa caratteristica rende il blog un'ottimo strumento didattico sopratutto se inquadrato in un framework pedagogico nell'ambito del quale lo studente è visto come un soggetto attivo e l'apprendimento come una forma di (auto) costruzione della conoscenza. In questo senso i blog possono essere visti come un reflective conversational learning tool for self-organized learning. Si tratterebbe dunque di uno strumento adatto al knowledge worker che apprende in autonomia ed, in parte, in contrasto con la logica dell'insegnamento formale tradizionale. Questa tematica è sviluppata nell'articolo Personal Webpublishing as a reflective conversational tool for self-organized learning) L'introduzione dei blog dovrebbe avvenire per gradi: 1) Introdurre gli studenti al concetto e alla pratica del web-publishing. L'idea di base consiste nel fornire un framework teorico nell'ambito del quale leggere ed interpretare il fenomeno del web-publishing. Si tratta di una fase importante perchè dovrebbe consentire allo studente di ragionare su una pratica che magari conosce ed utilizza senza riflettervi più di tanto sopra; 2) Questa prima fase dovrebbe essere accompagnata da una formazione tecnica sull'uso degli strumenti per il web-publishing articolata in semplici task ed orientata a compiti di base o avanzati a seconda delle conoscenze di base degli interlocutori; 3) In una terza fase lo studente dovrebbe inziare ad utilizzare lo strumento per espolorare i propri temi ed interessi. I blog individuali possono sfruttare la caratteristica delle categorie che possono essere scelte sulla base del tema del corso. All'inizio le categorie possono essere individuate liberamente dagli studenti. In una seconda fase a queste categorie personali dovranno essere affiancate categorie colletive collegate al tema del corso ed individuate tramite una discussione in aula. Al termine di questo step si dovrebbe offire allo studente la possibilità di personalizzare ed assumere una maggiore responsabilità del proprio spazio di riflessione; 4) Questa fase mira a consiste consentire allo studente di personalizzare come meglio crede il proprio spazio incoraggiandolo ed aiutandolo nella scelta degli strumenti. Il ruolo del docente, parallelamente ed in accordo con il paradigma costruttivista, dovrebbe essere quello di un facilitatore.

Informazione/non Informazione fra sistema dei mass media e sistemi viventi

Dunque... il sistema dei mass media seleziona le proprie news operazionalizzando la distinzione informazione/non informazione. I temi da trattare sono selezionati in relazione al grado di novità che essi contengono rispetto alla memoria interna del sistema. Una volta trattati, i temi finiscono in questa memoria alimentandola. Ora credo sia interessante confrontare questo meccanismo operativo con quello descritto in questo articolo scientifico intitolato Newsjunkie: Providing Personalized Newsfeeds via Analysis of Information Novelty. *** Abstract We present a principled methodology for filtering news stories by formal measures of information novelty, and show how the techniques can be used to custom-tailor newsfeeds based on information that a user has already reviewed. We review methods for analyzing novelty and then describe Newsjunkie, a system that personalizes news for users by identifying the novelty of stories in the context of stories they have already reviewed. Newsjunkie employs novelty-analysis algorithms that represent articles as words and named entities. The algorithms analyze inter- and intra- document dynamics by considering how information evolves over time from article to article, as well as within individual articles. We review the results of a user study undertaken to gauge the value of the approach over legacy time-based review of newsfeeds, and also to compare the performance of alternate distance metrics that are used to estimate the dissimilarity between candidate new articles and sets of previously reviewed articles. *** In pratica questo articolo descrive un algoritmo (ed un software denominato Newsjunkie) che incarna la logica operativa del sistema del mass media e la utilizza per selezionare i contenuti di news da mostrare o meno all'utente. Ovviamente questo algoritmo non può contare su una memoria collettiva da usare come termine di paragone per decidere ciò che è informazione. La memoria rispetto alla quale l'algoritmo opera la selezione è generata dagli articoli precedentemente letti su quel tema dall'utente. Si tratta dunque di una memoria individuale. A questo punto vale forse la pena fare alcune riflessioni: 1. Anche se le logica operativa è analoga, esiste una discrasia fra quello che viene selezionato dal sistema dei mass media e quello che viene selezionato dai sistemi viventi (tralasciamo in questo momento l'aspetto dell'interesse che un sistema vivente può nutrire o meno verso un determinato argomento e supponiamo di lavorare, come nel caso del software NewsJunkies su un tema già selezionato come interessante da un sistema vivente); 2. Fino a quando vige la regola che "Tutto quello che sappiamo, lo sappiamo da mass media", la logica di selezione dell'informazione a livello dell'individuo non può che avvenire come una selezione di secondo ordine rispetto a quanto già selezionato dai mass media; 3. A questo livello la discrasia rimane dunque nascosta. Poi arrivano Internet, i blog ed il Really Simple Syndication (RSS). 1. Per utilizzare un software per l'aggregazione dei contenuti descritti secondo RSS l'utente cerca e seleziona alcune fonti di informazioni sull'argomento o gli argomenti che più gli interessano. Anche in questo caso lasciamo sullo sfondo la distinzione interessante/non interessante e partiamo dalla selezione di un tema di interesse unico e ben identificato; 2. Sulla base di questo tema si indentificano le fonti che si ritengono utili (con dei motori di ricerca appositi o seguendo i collegamenti di fonte in fonte). Ogni fonte può essere utilizzata purchè offra una descrizione dei propri contenuti secondo lo schema RSS; 3. A questo punto avremo a che fare, discriminando sulla base del tipo di memoria, con due tipi diverse di fonti. Alcune sono parte integrante del sistema dei mass media (ad esempio i flussi RSS del sito di Repubblica), altre sono fonti gestite da singoli individui (i blog personali, come quello di Enzo Baldoni o quello di Salam Pax). Le prima funzioneranno sulla base di un confronto con la memoria del sistema dei mass media, le seconde sulla base della propria memoria individuale; 4. A questo punto "Non tutto quello che sappiamo, lo sappiamo dai mass media"; Per Blogosfera possiamo intendere la totalità di tutti i flussi RSS disponibili su Internet. La particolarità di queste informazioni è che sono descritte secondo un meta linguaggio che consente la ricerca e l'aggregazione cronologica istantenea dei contenuti. La blogosfera irrita il sistema dei mass media ed alcune cose accadono: Il sistema dei mass media osserva la blogosfera. Questa avviene sulla base di tre strategie: a. Gli argomenti trattati nei blog diventano temi del sistema dei mass media e, come tali si sedimentano nella memoria del sistema (la blogosfera costituisce una riserva di temi); b. Le testate giornalistiche ed i giornalisti in prima persona aprono dei blog; c. Le testate giornalistiche descrivono i propri contenuti secondo lo schema proprio della blogosfera (b/c: il sistema dei mass-media entra nella blogosfera). Forse sarebbe bene ripensare il sistema dei mass media alla luce di queste commistioni per verificare fino a che punto la distinzione che fonda questo sistema sociale possa reggere ancora.

Mai più appuntamenti al buio

Dagli incontri in chat ai network sociali tipo Friendster, Internet è da sempre stata utilizzata per conoscere persone e stringere nuove amicizie. L'ultima frontiera in questo campo, stando a questo articolo di The Telelgraph, sarà il video dating. In pratica grazie alla tecnologia UMTS gli utenti del servizio potranno registrare con la telecamera del proprio telefono dei brevi video clip di presentazione e consultare i clip degli altri alla ricerca dell'anima gemella.

*** The 3G Dating Agency, launched as a trial this year, offers members the chance to send in clips they have recorded on their mobiles and browse other members’ clips. It then arranges video dates for those who express interest in each other. Edward Brewster, of 3, says: "3G video technology will revolutionise the dating game. Not only do you get to see whether a potential date takes your fancy, you also get to check out their personality. "The response to our trial has been phenomenal. It has been so good that we are planning to launch a commercial dating service on 3 in the near future." ***

Non so perchè ma ho la netta sensazione che sarà un clamoroso flop.

via [Smart Mobs]

domenica, ottobre 24, 2004

Il web e la logica lineare

- La logica lineare è quella del libro, della TV e della radio; - La logica ipertestuale è quella del web. In molti hanno speculato sulle differenze fra queste opposte logiche di fruizione di contenuti sopratutto in relazione all'effetto che, sedimentandosi, possono avere sul nostro modo di pensare e di imparare. La novità interessante è che alcune delle tecnologie di maggiore successo del momento applicano ai contenuti ipertestuali di Internet la logica della fruizione lineare. L'esempio più semplice ed evidente sono i blog. L'essenza stessa del blog è rappresentata dall'uso del tempo come logica di navigazione lineare dei contenuti. Ma esistono altri esempi. Le meta-descrizioni RSS consentono a chi produce contenuti (un sito di news, un blog) di offrire all'utente un sommario completo scritto con un linguaggio standard. Grazie a questi sommari (che a volte includono anche i contenuti stessi) l'utente non è più costretto a visitare la pagina del produttore di contenuti ma può ricevere gli aggiornamenti comodamente sul proprio desktop. Per leggere questi sommari si usano dei programmi specializzati denominati rss/feed reader o aggregator. Questi programmi sono progettati per fruire contemporaneamente più feed (flussi) rendendo semplice saltare da una fonte all'altra. Ora... provate a sostituire feed con canali (ehi ma i canali non erano esattamente una delle funzioni di Internet Explorer 4 poi scomparsa nel nulla?), post con programmi e rss aggregator con televisione o radio e capirete cosa intendo... Ma c'è qualcosa di più. Il podcasting. La logica del sommario può essere applicata a contenuti diversi. Testi, appuntamenti in agenda, immagini, video ed audio. Il podcasting riguarda quest'ultimo. Immaginate un blog dove al posto dei posting testuali si possono pubblicare dei file audio. A questo punto posso costrire un programma (tipo iPodder) che, periodicamente, controlli le mie fonti preferite e provveda a scaricare i file audio che si sono resi disponibili. Quando torno al computer posso ascoltare questi contenuti direttamente dalla mia applicazione multimediale preferita (di solito iTunes). Non solo. Se possiedo un dispositivo portatile tipo l'iPod della Apple posso portare con me questi file ed ascoltarli in quelle situazioni dove leggere un testo sullo schermo non è esattamente agevole (in metro, facendo jogging, in macchina). Per chi riflette sui media gli spunti di riflessione non mancano... Di certo c'è che le categorie tradizionali basate su opposizioni quali mass/personal, broadcast/narrowcast, push/pull, linearità/ipertestualità, main-stream/non-mainstream si rivelano ogni giorno meno adeguate per raccontare e spiegare Internet.

domenica, ottobre 17, 2004