Vero e falso: United Colors of Wikipedia by

2 Set
2009

Agosto è un mese crudele con Wikipedia.
Quest’anno ha iniziato Zichichi parlando di internet, il giornale radio RAI mi ha chiesto un commento sull’affidabilità di Wikipedia, l’ANSA ha rilanciato con il controllo delle bio dei viventi citando i tedeschi, Radio 3 Scienza ha cercato di intervistarmi per parlarne (ma io ho avuto problemi con il cellulare), mi ha telefonato Il Giornale per saperne di più ma io ero ormai offline da 10 giorni e li ho dirottati sul mio vice, poi varie ed eventuali che sono uscite fino a ieri (arriva Wikipedia a colori, non ci sono donne che scrivono/usano Wikipedia).

Parte 1 · Parte 3

Se per caso avete letto questa notizia (magari altrove, in italiano) e non avete visto l’aggiornamento, forse è il caso che abbiate qualche info in più.

Ai primi di agosto del lontano 2007, a Taipei, dove mi trovavo per partecipare a Wikimania, ho conosciuto Luca de Alfaro, che si trovava lì in qualità di speaker per presentare un suo studio, intitolato “A Content-Driven Reputation System for the Wikipedia“.

In che cosa consiste il sistema presentato?
Immaginaniamo di poter calcolare con un algoritmo la reputazione di ogni utente, basato sulle sue attività di autore e collegandola quindi alla longevità dei suoi contributi.
Ogni contributo viene analizzato in estremo dettaglio: ogni parola viene etichettata in modo da renderla riconoscibile e poter tenere traccia della sua vita. Ora diamo alcune semplici regole:
* più il contributo di un utente sopravvive a modifiche successive, più punti dà al suo autore
* i contributi rollbackati (ossia eliminati subito) danno dei punti negativi, a meno che non siano reintrodotti da un utente successivo.
La reputazione si calcola su tutti gli edit di un utente, non solo su quelli più recenti.

Se alla reputazione di ciascuno viene associato un colore, più scuro se questa è bassa e sempre più chiaro quando si innalza, è possibile colorare i testi in base alla reputazione di chi li ha inseriti. I vecchi testi sono colorati in base alla reputazione del loro autore e di tutti i revisori che l’hanno seguito.
Man mano che il testo permane immutato in una voce, lentamente si scolora.

Visivamente chi consulta la voce può identificare il testo con sfondo chiaro come testo attendibile (perché rimasto immutato attraverso diverse versioni) e il testo con sfondo scuro come testo da verificare.

Negli ultimi due anni il progetto si è evoluto ulteriormente, rilasciando una extension per MediaWiki e un addon per Firefox.

Verrà quindi installato su Wikipedia in autunno, come si legge in giro? No.
Ad Aprile, durante l’incontro dei dev a Berlino, si è discusso di avviare un test congiunto, ma al momento non si è ancora mosso nulla.
Sono così categorica perché a quel che mi risulta non c’è stata alcuna discussione interna, né è mai stata avviata una consultazione della community.

Indubbiamente lo strumento è interessante, come nota Erik Möller, dà la possibilità di mappare la storia di una voce e di scoprire in fretta chi è l’autore di una determinata frase e idealmente permette di calcolare la miglior revisione di una voce, che potrebbe essere molto utile nel caso di versioni statiche di Wikipedia (come i DVD).

Infine, ecco quanto dichiarato da WMF, per bocca di Jay Walsh e apparso come aggiornamento all’articolo di Wired:

WikiTrust is one of thousands of extensions available within the MediaWiki library. As with other extensions, including flagged revisions, which has been the subject of quite a bit of attention over the past few weeks, extensions are tested and evaluated by members of the volunteer community before being implemented on any of the Foundation’s projects, including Wikipedia. Many of these extensions are part of ongoing research by outside developers and volunteers who want to look at ways of improving the quality of content on Wikipedia and other wikis using MediaWiki. When WikiTrust makes its way through testing and analysis it may be made available as an optional tool that Wikipedia users can activate through their user settings. That
timeframe has still not been set. The Foundation is also looking at introducing a number of visible trust/quality metric tools, which may include tools familiar to many users, including ‘rate this article’
tools on Wikipedia pages. These enhancements would be introduced in the spirit of letting readers and editors better understand which articles, facts, or edits need to be reviewed for quality and accuracy.

Per approfondire:
* A Content-Driven Reputation System for the Wikipedia, le slide
* il blog di WikiTrust

(forse) ne abbiamo parlato qui:

3 Responses to Vero e falso: United Colors of Wikipedia

Avatar

» Vero e falso: Wikipedia meno libera per l’introduzione dei revisori? Faccio Cose Vedo Gente

Settembre 2nd, 2009 at 11:41

[…] commenti » Vero e falso: United Colors of Wikipedia Faccio Cose Vedo Gente su Vero e falso: Wikipedia meno libera per l’introduzione dei revisori?Mpitt su Vero e falso: […]

Avatar

» Vero e falso: Wikipedia ha meno appeal di una mela? Faccio Cose Vedo Gente

Settembre 8th, 2009 at 12:00

[…] Vero e falso: United Colors of Wikipedia […]

Avatar

» Wikizine, Wikipedia Signpost e altro ancora Faccio Cose Vedo Gente

Ottobre 27th, 2009 at 11:38

[…] 7 membri su 9 si sono dimessi in blocco * WikiTrust disponibile per demo su alcune Wikipedia (cos’è WikiTrust, l’annuncio) Sbirciando l’ultimo numero del Wikipedia Signpost: * provaci ancora Larry! […]

top