martedì, aprile 18, 2006
Trasloco
Era da qualche tempo che avevo in mente questa cosa. Anzi era una doppia cosa. 1) Passare a Wordpress per la gestione di questo blog sopratutto per utilizzare i tag di technorati 2) Provare la nuova versione di WMware Server (o Microsoft Virtual Server) eliminando dal nostro già affollato spazio del LaRiCA uno dei pc che sono accesi 24/24h, scaldano e spesso si rompono.
Ho colto l'occasione in questi giorni per perfezionare il passaggio: il nuovo indirizzo del blog è dunque http://larica-virtual.soc.uniurb.it/nextmedia/. Per chi usa i feed per ricevere gli aggiornamenti non è necessario fare nulla perchè ho aggiornato il puntamento del servizio FeedBurner.
Maggiori dettagli su questa esperienza di trasloco combinato nel primo post del "nuovo" blog.
martedì, aprile 11, 2006
The dancing pig
Avevo accennato alla cosa nel precedente post. L'autore del progetto mi ha mandato come promesso il link al divertenete video in questione (alzare il volume delle casse) che provvedo subito a condividere con tutti voi.
venerdì, aprile 07, 2006
ISIE 3 and 4
Cronaca del secondo e terzo a Cambridge. Queste ultime due giornate sono state interessanti anche se forse meno delle precedenti dal punto di vista degli interventi sul palco. In compenso abbiamo avuto modo di parlare e conoscere diverse persone interessanti e di dare uno sguardo piú approdondito alla sezione demo e quella poster dove abbiamo trovato qualche idea interessante come ad esempio Xsensor (una applicazione per smartphone e palmari che sottopone all'utente, a scadenze periodiche, un questionario che viene compilato dunque in diversi momenti della giornata e nel contesto in cui l'intervistato si trova in quel momento) o come il divertentissimo reacTable realizzato da due ragazzi spagnoli (un tavolo nel quale muovendo specifici oggetti di forme e materiali diversi si può comporre musica). Purtroppo non abbiamo visto in funzione la demo del progetto Augmented hybrid ecosystems (ovvero the dancing pig project) che ci avevano presentato il primo giorno.
Tornando agli speech... Nel secondo giorno sono stato sollecitato dall'expert panel con Don Norman, Liam Bannon, Mark Rouncefield e Neville Moray. Non che ci siano stati contenuti particolari, ma il tutto é stato piuttosto spassoso. Nel pomeriggio degni di nota l'intervento di Sebastien Duval (un ragazzo francese che lavora in giappone) che ha presentato una ricerca sull'accettazione da parte degli utenti dei computer indossabili ed il secondo keynote giapponese sempre piú misterioso tenuto da una ragazza che parlava per di + poco e nulla l'inglese e durante il quale é riapparso il robottino che aveva mostrato con grande orgoglio il giapponese del giorno prima... Ho fatto una piccola indagine e tutte le persone da me intervistate non sono state in grado di spiegare cosa centrasse con il resto della presentazione.
Al termine dei lavori della giornata gran parte dei partecipanti (noi compresi) hanno preso parte ad una passeggiata guidata per le strade di cambridge ed uno splendido giro in barca al tramonto dove abbiamo potuto ammirare da una diversa angolazione gli splendidi colleges di Cambridge (ecco alcune foto scattate da Luca). Qui ci sono diversi college tutti privati, le lezioni si svolgono invece nelle aule dei dipartimenti che di solito sono raggiunte in bici dagli studenti.
Durante la cena abbiamo fatto conoscenza con Cristina Costa Che lavora a Trento e con una ragazza di Londra (Karen Martin - University College) che ci ha raccontato di un interessante progetto chiamato Cityware.
La terza ed ultima mezza giornata é stata abbastanza intensa. Da notare un intervento congiunto di Lynne Hamill e Richard Harper che ha ripercorso il passato delle case intelligenti in epoca vittoriana cercando di capire sulla base del rapporto fra servitú e proprietari quale tipo di tecnologia domestica dovrebbe popolare le case del futuro. I risultati sono interessanti perché dimostrano che la gente non cerca affatto oggetti intelligenti ma semplici cose che svolgano il loro lavoro senza essere viste e che non richiedano particolari necessitá comunicative.
Durante questa mattinata o sentito citare Goffmann al meno un paio di volte.
Anche il keynote finale sulla musica elettronica non é stato male e v ho ritrovato alcuni spunti teorici di un certo interesse.
Alla fine, prima del pranzo, una chiusura molto carina con una photostory compostata da moltissime immagini scattate durante le giornate e montate sua colonna sonora. Alla fine Marco Combetto di MSR era abbastanza commosso. I questi giorni l'ho visto lavorare veramente un casino e dedicare moltissma attenzione a tutti dall'invitato piú illustre all'ultimo dei ragazzi presenti.
Nel complesso ho ricevuto una serie notevole di stimoli interessanti. Dall'uso del buetooth per una serie di applicazioni sociologiche all'utilizzo in generale delle tecniche etnografiche di cui fanno spesso e volentieri uso questo gruppo di computer scientist. Stupisce un pó che tutte le ricerche pregresse svolte nell'ambito dei cultural studies non sembrano essere prese molto in consderazione.
Comunque un'esperienza interessante che ripeterò sicuramente e che consiglio a tutti.
mercoledì, aprile 05, 2006
ISIE second day
Seconda giornata parecchio interessante con finale a sorpresa di presentazione di tutti i poster in tre minuti nell’ambito della così detta poster madness che adesso sappiamo a cosa fa riferimento. Dopo la solita sontuosa colazione nella Great Hall oggi il tutto è iniziato alle 9:45. Dopo una breve introduzione di Richard Harper e Tom Rodden è salito sul palco come previsto Donald Norman. Il vecchietto è stato molto bravo nella esposizione ed ha raccontato in perfetto stile Norman tutta una serie di incidenti piccoli e grandi causati dal cattivo design degli oggetti. La tesi di fondo e che gli ambienti intelligenti non possono esistere perché non vi è una condizione essenziale che Norman chiama Common Ground. Un gruppo di artefatti possono avere un common ground così come un gruppo di persone ma un gruppo misto manca di questa caratteristica fondamentale. Interessante una delle domande (posta da Lucia Terrenghi - a smart girl) che ha messo in dubbio questa distinzione netta sottolineando come gli artefatti siano ormai da tempo immemorabile parte del Common Ground umano di cui Norman parla. Ho visto in guru vacillare un po’ anche se poi ha spiegato che lui parla di artefatti intelligenti e non sono di artefatti.
Lo speech di Don Norman (un tipo tranquillissimo che si è fermato tutto il giorno rispondendo alle domande di chiunque) è stato seguito da una sessione denominata Concepts in human computer interaction. Molto teorico ma degno di nota l’ultimo dei tre interventi svolto da Alex Taylor di Microsoft Research che ha era teso ad evidenziare l’importanza del contesto per l’idea di intelligenza. Quello che è più interessante è il modo in cui questo ricercatore ha dimostrato la sua tesi ovvero mostrando una serie di filmati tratti da una ricerca di sfondo di stampo molto etnografico che è consistita nell’installare telecamere multiple in alcune auto-vetture per riprendere cosa accade durante gli spostamenti della vita quotidiana. Molto ben fatto e soprattutto molto visual sociology.
Del secondo panel sulle smart homes, denominato Technological and social infrastructure for the home segnalo l’ultimo intervento sempre di un gruppo di ricercatori di Microsoft Research che hanno condotto anche essi una estesa ricerca etnografica per studiare i comportamenti all’interno di un nucleo famigliare con specifico riferimento alla comunicazione e al posizionamento degli oggetti. Ne sono venuti fuori due prototipi. Il primo è una specie di schermo con supporto della scrittura (dotato di connessione GSM) al quale è possibile inviare messaggi SMS e sul quale è possibile scrivere con la penna sia note che risposte ai messaggi. Il prototipo, a differenza della maggioranza di roba che si vede qui, è stato effettivamente sperimentato nella vita di un certo numero di famiglie. Molto interessante la possibilità di svolgere analisi di queste comunicazioni per comprendere meglio le dinamiche di comunicazione e costruzione dell’identità in un ambito familiare. Il secondo prototipo mostrato riguardava una sorta di bowl (una grossa scodella porta oggetti) dove era possibile posizionare tutta una serie di device tecnologici (come si fa di norma con una serie di oggetti casuali). La scodella mostrata è in grado di catturare i file (foto ed immagini) presenti in questi device (cellulari, macchine fotografiche, etc.) e mostrarli sulla scodella stessa (nella parte interna). Le foto possono inoltre essere manipolate come se se la superficie della scodella fosse un touch screen. Fra le poche cose viste che possono far affermare wow dal punto di vista tecnologico.
Poi c’è stata la poster madness dove il valoroso Luca ha difeso il nostro poster nel migliore dei modi possibili considerando il tempo a disposizione (3 minuti), l’audience non proprio avvezza a sentire parlare di ambiente dei sistemi sociali (e neanche di sistemi sociali) ed non ultimo il fatto di aver saputo 10 minuti prima le regole della cosa. Ho girato un piccolo video dell’evento. L’audio è penoso ed il video anche ma ve pubblico lo stesso per dimostrare che Luca si è guadagnato la pagnotta.
Ultimo speech della giornata è stato il giapponese Ryohei Nakatsu che ha parlato del ruolo dei robot in un ambiente intelligente. Lui è sembrato un po’ suonato ma l’intervento è stato a tratti esilarante (vedere robottini che fanno il tai-chi non è cosa da tutti i giorni).
UPDATE: Il filmato di Luca che presenta il nostro poster è adesso online a quattro metri da Donald Norman.
Play Create, Learn
Come i lettori più attenti di questo blog sapranno questa settimana io e Luca Rossi siamo a Cambridge UK per assistere e partecipare all'International Symposium on Intelligent Environments organizzato dal laboratorio di ricerca europeo di Microsoft. Il convegno inizia oggi ma ieri abbiamo assistito ad un evento chiamato Play For Learn decisamente interessante. Prima di entrare nei dettagli del contenuto di questa giornata racconto due cose su dove siamo e sull'organizzazione. La nostra ospitalità è stata organizzata presso l'Homerton College di Cambridge. Se riuscite ad immaginarvi il tipico college inglese (di quelli visti in Harry Potter piuttosto che nell'Attimo Fuggente) dovreste avere un'idea piuttosto precisa del tipo di luogo di cui sto parlando. Per gli altri ho girato un breve filmato. La mattina facciamo colazione presso la così detta Great Hall che non può essere descritta adeguatamente a parole (vedi filmato). Durante la giornata di ieri ci siamo trasferiti dall'Homerton College alla sede di Microsoft Research. Una serie di edifici di cui il principale si chiama William Gates Building. Suppongo che più o meno tutto in questa zona di Cambridge sia stato finanziato di zio Bill. Nell'atrio dell'edificio dove si è svolto il seminario ci sono dei quadri, diversi schermi al plasma, una reception ed un choisco dimostrativo di xbox 360 :-). Ovviamente accesso alla rete sicuro, badge, etc. L'orgaizzazione è stata francamente impeccabile. Credo che Marco Combetto e tutto lo staff di Microsoft Research stia facendo un ottimo e non facile lavoro.
Venendo al contenuto c'è da dire che raramente ho sentito nominare le parole sociologi e sociologia con tanta frequenza come oggi. La conferenza alla quale abbiamo assistito ieri era l'evento finale del programma omonimo durante il quale venivano presentati dai rispettivi gruppi di ricerca i principali risultati raggiunti dopo circa un anno di lavoro. Ogni gruppo aveva a disposizione un totale di 45 minuti comprensivi di dibattito. Durante il dibattito il progetto veniva realmente dissezionato ed analizzato nei minimi dettagli, venivano suggeriti miglioramenti possibili o prospettive di sviluppo per il futuro.
Il primo intervento cui abbiamo assistito ha riguardato un progetto denominato Messaging@Home. Ovvero un dispositivo basato su touch screen che possa supportare la comunicazione domestica sostitutendo o affiancando i metodo di comunicazione tradizionali come le scritte sul frigo o i post it lasciati per la casa. L'innovazione principale consisteva nella possibilità di inviare testi, immagini e brevi filmati a questa specie di lavagna attraverso i telefoni cellulari (via bluetooth, sms, mms). Interessante la parte di ricerca prettamente di stampo etnografico che ha preceduto la progettazione e lo sviluppo del sistema. Il prototipo dimostrato non è sembrato sulla di particolarmente avveniristico. Da non sottovalutare tuttavia la possibilità implicite nello strumento di visualizzare e registrare questo tipo di comunicazione domestiche rendendo possibile una successiva analisi del contenuto e della tipologia dei messaggi scambiati (ovvero una sorta di semantica del sistema sociale famiglia).
Il secondo intervento ha riguardato un progetto a metà fra la performance artistica e la ricerca sulle tecnologie. Il tutto è ben descritto nel sito del progetto e dunque mi limito a dire che i ricercatori del progetto ed alcuni collaboratori hanno girato per le strade di Cambridge con un chiosco e 4 postazioni portatili chiedendo alle persone incontrare di inserire nel database uno dei loro rimpianti. In cambio il sistema offre la possibilità di visualizzare e stampare i 5 rimpianti che più si avvicinano a quello immesso. Idea originale e carina. L'uso di tags invece di categorie descrittive rigide avrebbe consentito una possibilità di visualizzazione della tag clouds navigabile dei rimpianti. Come è stato fatto notare in una domanda mentre all'atto dell'inserimento del rimpianto viene chiesta l'intensità dello stesso questa informazione non viene restituita in fase di output. Sarebbe stato forse utile vedere caratterizzato con un certo colore l'intensità del rimpianto. Ovviamente potrebbe essere anche interessante analizzare questi messaggi e rendere possibile l'invio di messaggi via sms.
Il terzo progetto è stato particolarmente interessante e riguardava lo sviluppo di un videogame specifico per l'utilizzo da parte dei bambini sui sedili posteriori dell'auto durante lunghi viaggi. Anche questo progetto è molto ben descritto dal sito web e non mi dilungo dunque ulteriormente. Dal punto di vista dell'originalità dell'idea e della complessità di quanto visto funzionare si tratta decisamente di uno dei progetti che ha raggiunto i risultati più interessanti e che non mi sorprenderei di vedere un giorno in commercio.
Anche il quarto progetto presentato è stato particolarmente interessante. Il titolo era Affective Diary e riguardava lo sviluppo di un software che consenta di visualizzare la propria storia personale basata sulle registrazioni di un certo numero di device che portiamo con noi. In particolare alcuni di questi sensori erano realizzati ah hoc e misuravano tutta una serie di parametri corporei (il sudore, la temperatura esterna, etc.). Sulla base di questi parametri viene generata un'icona più o meno in piedi, più o meno rossa a seconda di questi parametri. Su questa timeline vengono inoltre mostrati gli sms ricevuti ed inviati ed eventualmente la presenza di device bluetooth nei dintorni. Il risultato è stato estremamente interessante ed esteticamente molto ben fatto. L'idea è che poi ciascun utente possa visualizzare e modificare queste immagini in modo da riflettere sui momenti di stress e di calma nella propria vita quotidiana. Da non sottovalutare inoltre la possibilità di condividere questi tracciati con altri (pensate ad una coppia che analizza la propria relazione sulla base di questi parametri "E certo che ti ho risposto male... guarda come ero rossa qui!"). Molto interessante.
Il quinto progetto, denominato e-coology riguarda un ambiente di augmented reality studiato appositamente per l'apprendimento dei principi dell'ecologia da parte dei bambini. La realizzazione tecnica è interessante (molto ben fatta tutta la parte di animazione dei modelli 3d) ma nel complesso il progetto non mi ha convinto molto. Necessità di apparecchiature costose e non mi sembra così immediata la possibilità di passare da un corso ad un altro senza andare in contro ad un lungo periodo di sviluppo.
Il sesto ed ultimo progetto è stato presentato da un gruppo italiano del politecnico di Milano. L'idea di base è quella di realizzare un dispositivo di navigazione in vasti repertori musicali con performance migliori rispetto a quelle degli attuali sistemi presenti nei diversi lettori MP3 in commercio. La metafora utilizzata è quella della manopola della radio. In pratica tutte le canzoni vengono mappate automaticamente sulla base di una serie di parametri calcolabili quantitativamente (come il tonal strenght o il tick) su uno spazio bidimensionale. L'utente con una trackball può esplorare questo spazio alla ricerca della canzone che preferisce ascoltare in quel momento. I ricercatori hanno anche svolto alcuni test comparativi a riguardo. I risultati, per quanto presentati come positivi, non credo siano stati eccezionali. Però anche questa idea è piuttosto smart.
Molto utile anche il summary finale realizzato dagli organizzatori. In particolare in una slide sono stati messi in evidenza i tratti comuni di questi progetti che sono:
1) Augmented/Mixed Reality
2) Self reflection, story telling, emotion, memory
3) Social oriented applications
4) Enabling people to communicate
5) Mobile Life support
Tutto estremamente interessante. Alla fine un piccolo rinfresco a base di vino o capirgna. Poi ieri sera buffet in un sala splendida dell'Homerton con pianista e camerieri in livrea. A un certo punto vedo un vecchietto... leggo il badge... Don Norman... E fra un pò si ricomincia proprio da lui.
sabato, aprile 01, 2006
Probabilità dell'ordine
L'ordine sociale, così come una comunicazione che riproduce comunicazione, è un fenomeno comune ma improbabile...
Post che contengono April Fools al giorno durante gli ultimi 360 giorni.
Get your own chart! P.S. Il mio voto per il miglior scherzo di quest'anno va a Google Romance, secondo classificato questo comunicato stampa diffuso da un laboratorio di ricerca di un noto ateneo italiano.
Get your own chart! P.S. Il mio voto per il miglior scherzo di quest'anno va a Google Romance, secondo classificato questo comunicato stampa diffuso da un laboratorio di ricerca di un noto ateneo italiano.
giovedì, marzo 30, 2006
TagClouds Politiche 2006
Tempo fa avevo scoperto un sito per creare in automatico Tag Clouds a partire da uno o più feed rss. Oggi ho scoperto un servizio simile che consente una maggiore personalizzazione ed ho pensato di usarlo sul feed prodotto da Technorati per con la combinazione di parole chiave Prodi+Berlusconi (che avevo già usato qualche tempo fa). Il risultato mi pare interessante:
lunedì, marzo 27, 2006
Dalla macchina da scrivere alla tastiera video
Qualche tempo fa mi era capitato di riflettere sull'evoluzione della combinazione palmare/cellulare. La mia idea in proposito è che la tastiera come dispositivo di input esterno allo schermo scomparirà in qualsiasi oggetto di questo genere e sarà simulata a video. L'idea dell'Ultra-Mobile PC (è questo il nome ufficiale del dispositivo chiamato Origami) va in questa direzione. Quando si parla di una tastiera a video non si deve tuttavia immaginare una mera simulazione della tastiera tradizioale. Gli esperti di storia delle tecnologie citando spesso il caso dell'evoluzione dalla tastiera della macchina da scrivere a quella del computer. Il layout delle lettere, che nelle macchine da scrivere era obbligato dalla meccanica dell'oggetto, è rimasto invariato a dispetto del fatto che layout alternativi hanno mostrato una maggiore efficenza. Nelle tastiere dei computer non esistono le restrizioni meccaniche che hanno portato al layout QWERTY eppure abbiamo mantenuto lo stesso standard precendete.
Allo stesso modo mi sembra che ci si sia mossi, almeno in una fase iniziale, per le tastiere simulate a video. Avere l'intero set di tasti disposto in una certa maniera (si vedano i palmari, i tablet pc o le macchine per fare i biglietti alla stazione) non è di certo il modo più efficente per simulare una tastiera a video (ovvero SIP, Soft input panel). Con gli UMPC ho visto le prime alternative in questo senso.
La disposizione dei tasti negli angoli in basso è senz'altro inconsueta ma credo, anche avendo esperienza di un palmare come il jasjar dell'imate, che sarà molto utile sopratutto in condizioni di mobilità. Credo tuttavia che le tastiere video che useremo nei prossimi anni saranno ancora diverse. Che bisogno c'è di mostrare a video tutti i tasti quando ineffetti, sulla base della lingua scelta, sappiamo che solo alcune lettere possono seguire quelle già effettivamente scritte? Tasti grandi (facili da premere anche con le dita) e risparmio di spazio sullo schermo facendo apparire solo le lettere utili. Un ruolo fondamentale sarà poi svolto dall'autocompletamento in stile T9.
Dunque i device del futuro saranno senza tastiera
Iscriviti a:
Post (Atom)