ChapterPDF Available

Il test Fastweb-Bicocca: la costruzione e la validazione di uno strumento per la valutazione della competenza digitale

Authors:

Figures

No caption available
… 
Content may be subject to copyright.
1
This is the pre-print version of the following book chapter:
Gui M. & Fasoli M. (2017), Il test Fastweb-Bicocca: la costruzione e la valida-
zione di uno strumento per la valutazione della competenza digitale, in Scarcelli
M. & Stella R. (2017), “Digital literacy e giovani. Strumenti per comprendere,
misurare, intervenire”, Franco Angeli.
Il test Fastweb-Bicocca: la costruzione e la valida-
zione di uno strumento per la valutazione della
competenza digitale*
Marco Gui e Marco Fasoli
Università di Milano-Bicocca
Introduzione
Negli ultimi vent’anni il concetto di competenza digitale è stato occasione
di dibattito pubblico e oggetto di una grande quantità di riflessioni teoriche e
indagini scientifiche. In generale, secondo la famosa definizione del Parla-
mento Europeo (2006), la competenza digitale consiste nel “saper utilizzare
con dimestichezza e spirito critico le tecnologie della società dell’informa-
zione per il lavoro, il tempo libero e la comunicazione” (Parlamento Europeo
2006). Se questa descrizione funziona ancora nella sua generalità, quando
però si scende nel dettaglio la varietà dei temi legati alla competenza digitale
è ormai così ampia da rischiare di rendere vago questo concetto.
Da un lato, la velocità dell’innovazione rende necessario possedere
sempre nuove capacità e conoscenze per riuscire a sfruttare consapevolmente
ed efficacemente i media digitali. Dall’altro, la diffusione massiva della
connessione ad Internet e la crescente facilità d’uso dei dispositivi ha portato
gli studiosi a porre l’accento sempre di più sulla gestione dei contenuti
piuttosto che sulla gestione degli strumenti, di natura più tecnica. Questa
grande divisione viene bene sintetizzata da Van Dijk e Van Deursen (2014),
che distinguono tra medium related digital skills (o “competenze operative”)
e content related skills (o “competenze critiche”). Le scienze sociali hanno
lavorato soprattutto all’interno di questa seconda dimensione, che si riferisce
alla consapevolezza dei processi informativi e comunicativi offerti dalla rete,
a prescindere dall’aspetto tecnico. Per fare solo un esempio tra i tanti
possibili, comunicare efficacemente attraverso i social network è un’abilità
che non richiede primariamente delle competenze tecniche elevate. Tuttavia,
2
in questa attività entrano in gioco in maniera determinante elementi come la
capacità di individuare una audience adatta o quella di usare un linguaggio
efficace ed un registro pertinente, cioè capacità che riguardano più i contenuti
veicolabili con specifici strumenti che gli strumenti stessi.
In una rassegna di 13 tra i più importanti quadri teorici del concetto di
competenza digitale, Iordache et al.(2017) sintetizzano sei grandi dimensioni
identificate oggi dalla letteratura, di cui le prime due riferibili alle
competenze medium-related e le altre quattro riferibili alle content-related:
competenze operazionali (necessarie a far funzionare l’hardware e il
software), tecniche e formali (necessarie per sapersi muovere negli ambienti
online, ad es. la conoscenza della logica di un motore di ricerca),
informazionali (legate alla capacità di comprendere la natura delle
informazioni), comunicative (per gestire i rapporti umani nelle specifiche
modalità offerte dall’online), creative (per creare e pubblicare
adeguatamente del contenuto in rete), strategiche (per incanalare le risorse
digitali verso obiettivi prestabiliti senza disperdersi).
Di fronte a questo panorama concettuale così ampio, gli sforzi per valu-
tare e addirittura misurare la competenza digitale dei soggetti hanno incon-
trato tre tipi di difficoltà principali. Prima di tutto, quella di circoscrivere un
settore, una parte di questo vasto mondo, data l’impossibilità di coprire il
campo in maniera esaustiva. Sono stati così creati strumenti di valutazione
focalizzati sulla misurazione di specifiche dimensioni della competenza di-
gitale: ad esempio, le certificazioni della conoscenza dei più comuni stru-
menti software (com’era inizialmente la patente europea del computer,
ECDL e altre certificazioni simili come EiPass). Questi strumenti sono ab-
bastanza diversi rispetto ai test sviluppati nell’ambito delle scienze sociali,
che invece misurano come già detto soprattutto le già citate content-re-
lated digital skills (Gui e Argentin, 2011; Hargittai e Hsieh, 2012; Calvani et
al., 2012; Van Deursen et al., 2015). Un secondo problema nella costruzione
di uno strumento di misurazione della competenza digitale riguarda la speci-
ficità della popolazione per cui è pensato: alcuni test sono stati sviluppati
specificamente per la scuola (Gui e Argentin, 2011; Calvani et al. 2012), altri
sono pensati per la popolazione generale (Hargittai e Hsieh, 2012; Van Deur-
sen et al, 2015). In terzo luogo, un problema forse ancora più grande riguarda
l’aspetto metodologico. Come si può misurare in maniera affidabile e (rela-
tivamente) veloce una competenza, che nella definizione del Parlamento Eu-
ropeo (2006) è una “combinazione di conoscenze, abilità e attitudini ade-
guate per affrontare una situazione particolare”? Come questo può essere
fatto su larga scala, in modo da permettere uno screening del livello di com-
petenza digitale di una popolazione? Anche a questo problema sono state
date diverse soluzioni, che spaziano dall’autovalutazione, alla conoscenza di
termini specifici, alla soluzione di compiti pratici o simulazioni di questi
(vedi per una rassegna Litt, 2013).
3
Queste problematiche legate alla misurazione delle competenze digitali
hanno fatto sì che, nonostante i numerosi progetti di ricerca sul tema, non si
sia giunti all’individuazione di uno standard condiviso. Anche per questo
motivo, gli strumenti per la misurazione della competenza digitale, specie
nella sua dimensione content-related, non sono molto diffusi, nonostante po-
tenzialmente essi costituiscano uno strumento di grande utilità in contesti
come quello scolastico o aziendale. Inoltre, anche gli strumenti esistenti in
pochissimi casi sono stati validati in modo solido e possono quindi vantare
un buon grado di validità esterna e coerenza interna.
In questo capitolo illustriamo i risultati di un progetto di ricerca iniziato
nel 2015 e svolto dal dipartimento di Sociologia e Ricerca sociale
dell’Università Bicocca insieme a Fastweb S.p.A., che ha anche finanziato il
lavoro. Il progetto aveva lo scopo di validare in modo rigoroso un nuovo
strumento di misurazione delle competenze digitali. Due gruppi di ricerca
hanno lavorato in parallelo: uno – quello di chi scrive – si è concentrato sulle
competenze digitali content-related o competenze digitali “critiche”; un altro
– guidato dalla società People&Business Value di Roma – sulle competenze
soft che entrano maggiormente in gioco nel mondo digitale
1
. In questo
articolo usiamo il termine “test” per riferirci solo alla parte dello strumento
da noi sviluppata e relativa alle competenze digitali content-related (o
competenze digitali critiche).
2
Nel primo paragrafo offriremo una rassegna della letteratura nel campo
della misurazione della competenza digitale. Successivamente illustreremo
il test: verrà descritto il processo di costruzione del framework teorico di
riferimento per poi passare, nel terzo paragrafo, alla descrizione del processo
di costruzione degli item e della delicata fase della loro validazione. In
conclusione, indicheremo quali sono le prospettive di sviluppo e
applicazione di questo strumento rispetto alle sfide aperte nel campo della
valutazione della competenza digitale.
1. La misurazione della competenza digitale: una breve rassegna della
letteratura
Nella letteratura internazionale, le metodologie di misurazione della
competenza digitale più diffuse sono essenzialmente tre: il self-assessment,
1
Le cosiddette competenze “soft”, considerabili come tratti cognitivi e comportamentali,
sono indipendenti dalle abilità digitali. L’ipotesi su cui si basa l’idea di associare ad un test di
competenza digitale anche uno strumento per la valutazione di queste competenze è che alcuni
di questi tratti, all’interno del web, potrebbero risultare particolarmente rilevanti per rendere
proficua l’esperienza degli utenti.
2
In questa fase, la parte dello strumento che viene qui descritta è disponibile gratuitamente
per i ricercatori che lo volessero utilizzare nella propria attività. Chi lo desidera può richiedere
il suo utilizzo scrivendo agli autori del presente articolo.
4
cioè l’autovalutazione dei soggetti, la misurazione attraverso compiti pratici
da risolvere (performance task) e la misurazione attraverso test a risposta
multipla (si veda Litt 2013).
Il self-assessment avviene attraverso la somministrazione di domande
riguardanti la percezione dei partecipanti rispetto alle loro abilità digitali, sia
in generale sia rispetto allo svolgimento di compiti specifici. Per esempio, in
Zimic (2009) si chiede ai partecipanti quanto si ritengono in grado di
mandare una e-mail, di allegare ad essa un file, di fare una chiamata vocale
online, ecc., utilizzando una scala da 1 a 5. Dati di questo tipo sono raccolti
anche da Eurostat a livello europeo. Talvolta, i compiti da auto valutare sono
più complessi. Uno di questi, ad esempio, è “comparare differenti siti per
decidere se un’informazione è vera” (Sonck et al. 2011: 2).
La misurazione delle competenze digitali attraverso i performance task,
invece, è una metodologia che prevede che i partecipanti svolgano alcuni
compiti in ambienti controllati (di solito dei laboratori universitari), sotto la
supervisione dei ricercatori che valutano come essi vengono affrontati.
Hargittai (2002) e Gui (2007) adottano questa metodologia. Self-assessment
e performance task hanno caratteristiche molto diverse. Il self-assessment ha
il vantaggio di essere molto meno dispendioso e di poter essere
somministrato su vasta scala, non richiedendo ai partecipanti la presenza in
laboratorio. Al contrario, la somministrazione di performance task su larga
scala richiederebbe costi e tempi molto impegnativi, ma garantisce una
misurazione certamente più accurata e meno soggetta alle distorsioni che
possono avvenire durante l’auto-valutazione.
Gli strumenti basati su item a risposta multipla, infine, sono pensati per
tenere insieme l’esigenza di misurare competenze effettive (e non solo
percepite) e di essere adatti alla somministrazione su larga scala. Dovendo
misurare delle competenze, e non delle conoscenze, questi test cercano di
non limitarsi a domande di tipo teorico ma piuttosto di ricostruire dei contesti
reali, anche attraverso l’uso di screenshot o altre immagini (Hargittai e
Hinnant 2008; Gui e Argentin 2011; Calvani et al. 2012).
Tra i numerosi lavori scientifici internazionali che si sono occupati della
misurazione delle competenze digitali, ne segnaliamo alcuni particolarmente
significativi. Il primo è stato condotto da Van Deursen e Van Djik (2009), in
un report scientifico svolto per il governo olandese. Il framework teorico su
cui si è basata la misurazione, che è stato poi utilizzato in numerosi lavori
successivi, distingue quattro tipi di competenze digitali: competenze
operazionali, formali, informazionali e strategiche. La misurazione, in questo
caso, è avvenuta su un campione di 109 soggetti, attraverso performance task
eseguiti in laboratorio. I task che sono stati selezionati per la misurazione
rappresentavano, secondo gli sperimentatori, compiti che il governo
olandese presupponeva potessero essere svolti dai cittadini attraverso il web.
In questa prospettiva, i partecipanti dovevano individuare delle informazioni
5
all’interno di un sito di un comune (competenze informazionali) o seguire
link multipli in un menù senza disorientarsi (competenze formali).
Completamente diverso per tipologia, ma non per questo meno
interessante, è lo strumento di misurazione delle competenze digitali
elaborato da Hargittai (2005) e sviluppato poi da Hargittai e Hsieh (2012).
Esso nasce dall’esigenza di disporre di uno strumento di misurazione
applicabile su larga scala ma al contempo più affidabile dei classici
questionari di autovalutazione. A tal fine, Hargittai ha sviluppato una
innovativa forma di autovalutazione che non si focalizza sulle abilità degli
utenti ma sulla conoscenza di una lista di termini chiave (ad es. desktop o
blog). Il lavoro che ha portato allo sviluppo di questo test ha preso avvio
dall’autovalutazione da parte dei soggetti della conoscenza di un’ampia
gamma di termini chiave, parallelamente allo svolgimento di performance
task in laboratorio. Questa procedura e la conseguente analisi dei dati ha
messo in evidenza delle correlazioni forti tra l’autovalutazione della
conoscenza di alcuni termini chiave e il livello di competenza digitale
misurato in laboratorio.
In Italia, un primo importante strumento per la misurazione della compe-
tenza digitale è stato costruito da Calvani et al. (2009, 2012). Si tratta dell’In-
stant DCA, un test per la misurazione della competenza digitale a valutazione
istantanea che è stato testato nelle scuole italiane. Il test si basa su un modello
teorico che distingue tre grandi macro dimensioni: la dimensione tecnolo-
gica, quella cognitiva e quella etica. Il test ha un intento prima di tutto for-
mativo e, per questo motivo, «nella maggior parte degli item è stato abbinato
un feedback che spiega perché la risposta data è corretta o errata» (Calvani e
altri 2009, p. 45).
Gui (2013), invece, offre i risultati di una indagine estensiva effettuata
utilizzando una versione aggiornata del test già impiegato in Gui e Argentin
(2011). Mentre il primo test dei due autori mirava a sondare le competenze
digitali nelle loro diverse dimensioni (conoscitiva, operativa e critica), il test
usato in questa ricerca si focalizza sulle competenze content-related o “com-
petenze digitali critiche”. Per rispondere alle domande del test, gli studenti
dovevano rispondere a quesiti a scelta multipla. Tuttavia gli stimoli offerti
non erano solo testuali: i soggetti dovevano valutare schermate di reali siti
web, analizzare pagine di risultati di motori di ricerca, oltre che valutare in-
dirizzi web e provare la loro conoscenza dei meccanismi che stanno alla base
di siti molto noti ed utilizzati spesso dai giovani (ad es. Facebook, YouTube,
Yahoo Answers, Wikipedia).
Uscendo dal contesto accademico, esistono poi numerose certificazioni
della competenza digitale. Vanno citati innanzitutto i pacchetti di
misurazione e certificazione delle competenze digitali ECDL (European
Computer Driving Licence) offerti da AICA (Associazione Italiana per
l’informatica e il calcolo automatico). Altre certificazioni diffuse e
6
conosciute in Italia sono EiPASS e IC3. Anche questi test prevedono batterie
di domande a risposta multipla, con diverse opzioni di risposta.
Principalmente, le certificazioni di competenza digitale presenti sul mercato
sono incentrate sulle competenze tecniche (o operazionali). Nel corso del
tempo, però, alcune aziende hanno iniziato ad offrire dei focus specifici sulle
competenze digitali content-related.
Negli ultimi anni, diversi progetti europei hanno provato a fare chiarezza
nel campo della definizione e misurazione della competenza digitale. Il fra-
mework DIGCOMP (Ferrari, 2012), e la sua versione 2.0 (Vuorikari et al.
2015), sono il risultato oggi più noto e affermato di questi sforzi. Attorno a
questo framework, alcuni progetti di diversi paesi europei hanno provato a
costruire strumenti di misurazione veri e propri.
3
Tuttavia, gli item di tali test
non sono stati creati attraverso un processo di validazione statistica e pertanto
la loro capacità misuratoria rimane ad un livello non statisticamente solido.
Nel campo della misurazione della competenza digitale appare tuttora ur-
gente disporre di uno strumento validato, analogamente a quanto avviene in
altri campi. Il progetto Fastweb-Bicocca di cui si dà conto in questo articolo
mira a dare una risposta a questa esigenza.
2. Il test Fastweb-Bicocca
2.1 La costruzione del framework di riferimento
Il primo passo per la realizzazione del test di competenza digitale
Fastweb-Bicocca è stato la costruzione di un framework concettuale di
riferimento. Le esigenze del progetto imponevano che il framework fosse
generale (non focalizzato su competenze digitali di settore), relativo alla
parte content-related della competenza digitale e aggiornato alla più recente
letteratura. Con queste premesse di base, abbiamo svolto una rassegna dei
framework di competenza digitale esistenti nella ricerca scientifica degli
ultimi dieci anni circa. Sono stati scelti cinque modelli concettuali su cui
3
La prima implementazione di questo framework a fini di misurazione è probabilmente
quella di Skillage (si veda Vuorikari et al, 2015, pp. 22-23), uno strumento sviluppato alla fine
del 2012 dal Telecentre Europe e rivolto ai giovani. Nel 2014 il test è stato aggiornato con
nuovi item che coprono tutte e 5 le macroaree. Nello stesso anno, il Governo Basco ha lanciato
il progetto Ikanos, un test gratuito di self-assessment della durata di quindici minuti
3
. Alla fine
di questo test vengono fornite anche delle indicazioni riguardo al training necessario per un
miglioramento delle competenze digitali personali. A partire dal 2015, invece, il sito Europass
CV
3
ha integrato uno strumento di autovalutazione dedicato ai candidati in cerca di lavoro e
disponibile in tutte le lingue dell’Unione Europea. Infine, nel 2015 un test simile a quelli sopra
citati è stato elaborato anche da Guadalinfo
3
, rete istituzionale della regione Andalusa. Anche
in questo caso all’utente viene restituito un feedback che segnala eventuali gap di competenza
digitale.
7
concentrare in modo particolare l’attenzione, per la loro rilevanza nel mondo
scientifico e delle politiche pubbliche. Nella tab. 1, i cinque framework sono
messi a confronto.
Tab. 1 La comparazione tra cinque framework delle competenze digitali
Van Dijk
(2005)
Helsper,
Eynon
(2013)
Van Dijk, Van
Deursen (2014)
Van Deursen,
Helsper, Eynon
(2015)
Opera-
tional
Technical
skills
Medium related
Operatio-
nal
Operational
Formal
Social
Formal
Information navi-
gation
Informa-
tion
Critical
Content related
Informa-
tion
Social
Strategic
Creative
Communi-
cation
Creative
Content
creation
Mobile
Strategic
Questo confronto ha confermato una nostra ipotesi iniziale, cioè quella
secondo cui la dimensione tecnica (o operazionale) – che è quella più vicina
al concetto di “computer skill” – è chiaramente distinguibile dalle altre
dimensioni. Come è stato notato prima di tutti da Van Djik (2005), le
evidenze sperimentali indicano che questa dimensione più tecnica è legata
alla quantità d’uso di internet e del computer da parte degli utenti, e risulta
più facilmente acquisibile in contesti formali e informali di istruzione e
formazione. Inoltre, le nuove tecnologie sono sempre più semplici da usare
benché più complesse per quanto riguarda la loro progettazione e non
richiedono all’utente finale un bagaglio tecnico particolarmente difficile da
acquisire. Infine, questa dimensione è coperta già bene da strumenti esistenti,
primo fra tutti la patente europea del computer (ECDL) e appariva perciò più
urgente coprire la dimensione delle competenze critiche o content-related.
Per questi motivi, lo schema teorico alla base di questo strumento è stato
costruito escludendo la dimensione operativa e considerandola come
precondizione per lo svolgimento del test. Comparando i framework e
cercando di individuare continuità e discontinuità tra di essi, emergeva
innanzitutto una dimensione informazionale, che compariva con questo
nome o simili in tutti i framework, tranne in quello di Helsper, Eynon (2013),
dove appare con il nome di “critical”. I modelli, poi, convergevano sulle
dimensioni dell’interazione tramite il web (“communication” o “social”) e la
8
creazione di contenuti (“creative”), tranne che nel framework di Van Dijk
(2005) che tuttavia, occorre considerare, appartiene ad un periodo precedente
all’esplosione del web 2.0. Altre convergenze erano visibili su un’area
relativa alla sicurezza (safety) e su un’area “strategica”, considerata
assimilabile a ciò che Vuorikari et al. (2015) definiscono “problem solving”.
Tra tutti i framework esaminati, abbiamo individuato il DIGCOMP 2.0 di
Vuorikari et al. (2016) – che rappresenta uno sviluppo del lavoro di Ferrari
(2014) – come quello più rilevante per il nostro lavoro, sia perché escludeva
la maggior parte della dimensione operativa, sia perché le macro aree
individuate sembravano avere il maggior grado di astrattezza e comprendere
praticamente tutte le dimensioni non tecniche individuate dagli altri
framework. Inoltre, il DIGCOMP sta velocemente prendendo piede come
standard di riferimento per la competenza di cittadinanza digitale in Europa
(accanto al framework EcF - European Competence Framework, che invece
è rivolto ai professionisti delle ICT). Abbiamo quindi deciso di condividere
lo scheletro generale del framework del DIGCOMP (Vuorikari et al., 2016).
Una piccola modifica è stata però introdotta nell’ultima macroarea, quella
del Problem Solving. Accanto alla soluzione dei problemi, ci è sembrato
opportuno introdurre le competenze necessarie a neutralizzare i principali
effetti collaterali che sembrano svilupparsi attraverso i nuovi media.
Principalmente, questi si manifestano come sovra-consumo di internet e
come tendenza a sviluppare un uso controproducente o pericoloso
dell’attenzione, per esempio svolgendo multitasking in contesti pericolosi
(come la guida) o abituandosi ad interrompersi troppo spesso, anche in
contesti che richiederebbero un focus immersivo. Si tratta di un tema
emergente nella letteratura recente (Johnson 2012; Rheingold 2012, Levitin
2014 Stothart et al. 2015), legato anche alle nuove sfide per il benessere e la
qualità della vita nel mondo digitale (Gui et al. 2017). La rilevanza di questi
problemi emerge prima di tutto da ciò che riferiscono gli stessi utenti, che
lamentano in modo crescente un’incapacità di limitare il consumo dei media
digitali (OFCOM 2016). Pertanto, nel nostro framework, l’area “problem
solving” è stata rinominata “Digital efficacy and well-being”.
Per quanto riguarda l’individuazione delle singole competenze all’interno
delle macroaree, abbiamo confrontato gli esempi di skills del modello
DIGCOMP con gli esempi forniti dagli altri framework esaminati. In
particolare, abbiamo identificato come rilevanti le competenze sulle quali
emergeva una convergenza tra i framework presi in esame. In tab. 2
riportiamo lo schema teorico finale con le sue cinque macroaree e le
specifiche competenze (due per macroarea).
Tab. 2 Il framework DPS e le competenze digitali individuate
Information searching and filtering
9
La macro-area “Information raccoglie le competenze necessarie all’effi-
cace ricerca, selezione, valutazione, comprensione e catalogazione delle in-
formazioni presenti nel web. In “Communication sono raccolte le compe-
tenze necessarie alla corretta comunicazione, condivisione di risorse e ad una
efficace gestione dei rapporti sociali in ambienti digitali e nel web. L’area
Creation /elaboration seleziona le competenze necessarie all’efficace crea-
zione e rielaborazione di contenuti nel web (testi, immagini, video, ecc.). In
questa macro-area si nota qualche eccezione rispetto alla scelta generale di
escludere le competenze operative. Infatti, la creazione del contenuto online
unisce per sua natura competenze relative al contenuto e abilità tecniche, re-
lative però ad un uso avanzato della rete, ancora poco diffuso ma sempre più
rilevante per permettere una piena partecipazione alla società digitale. Nella
macroarea “Security sono raccolte le competenze necessarie alla protezione
da possibili minacce alla privacy, al mantenimento dell’integrità dei propri
dispositivi, alla gestione della propria identità online, alla sicurezza econo-
mica e alla dignità personale (cyberbullismo e troll) nel web. Infine, nell’area
Digital efficacy and well-being vengono identificate le competenze neces-
sarie alla gestione della sovrabbondanza comunicativa e informativa. Tali
competenze permettono di sviluppare un uso delle ICT più efficiente e mi-
rato.
2.2 La costruzione degli item e il processo di validazione
Per ogni competenza (seconda colonna in tab. 2) sono stati costruiti 4
item. Due competenze insieme (quindi 8 item) costituiscono invece
l’operazionalizzazione di una macro-area. Questa è stata considerata l’unità
base di riferimento, anche a livello statistico, del test.
La scelta è caduta su item a risposta multipla, per ragioni di facilità di
INFORMATION
Evaluating and archiving information
COMMUNICATION
Collaborating with others, netiquette and
linguistic registers
Social identity
CREATION/
ELABORATION
Copyright and licenses
Content creation
SECURITY
Self-protection
Cyberbullying and troll defence
DIGITAL EFFICACY
AND WELLBEIING
Innovatively and creatively using technol-
ogy
Communication overload and technostress
prevention
10
somministrazione su ampi campioni. Tuttavia, per quanto possibile, si è
cercato di costruire item basati su situazioni concrete che abbiamo valutato
essere particolarmente significative, limitando il più possibile domande
astratte e non contestualizzate. Per esempio, viene chiesto di valutare
schermate di siti web, social network, interfacce di app e motori di ricerca.
Inoltre, molte domande prospettano problematiche concrete chiedendo di
individuare la strategia più indicata per la loro soluzione. Così facendo,
abbiamo cercato di accedere il più possibile in modo diretto alla misurazione
delle competenze, nonostante la struttura della risposta a scelta multipla.
Ogni domanda offre quattro risposte possibili, di cui una sola è corretta. Per
ogni domanda sono presenti una risposta errata e poco plausibile e due
risposte errate ma abbastanza plausibili.
La validazione del set di item è avvenuta in due modi complementari. È
stata eseguita sia una validazione basata sulla misurazione dei valori di coe-
renza interna delle risposte dei soggetti agli item (Alpha di Cronbach e item
analysis), sia una validazione esterna, che mira ad accertare la capacità del
test di misurare efficacemente la competenza digitale critica effettiva dei
soggetti.
Il processo di validazione si è svolto in due fasi. Una prima versione del
test è stata somministrata ad un campione ridotto di 132 dipendenti Fastweb
nel novembre 2015. Successivamente all’analisi dei dati e ad una revisione
degli item meno performanti, il test rivisto è stato somministrato nel maggio
2016 ad un campione molto più esteso: circa 1500 dipendenti Fastweb. Per
quanto riguarda la validazione interna, in entrambe le somministrazioni ab-
biamo utilizzato come indicatore l’alpha di Cronbach, che misura la coerenza
interna degli item. Alla fine del processo di validazione il test ha un alpha di
Cronbach di 0.815, che viene considerato un valore molto buono nella prassi
scientifica.
La validazione esterna, invece, è avvenuta attraverso la correlazione dei
punteggi dei soggetti nel test con i punteggi ottenuti nella soluzione di alcuni
compiti pratici da risolvere online. Non esistendo nel mercato e nella lettera-
tura un test con cui validare esternamente il set di item, è stato ritenuto op-
portuno validarli attraverso un confronto diretto con l’abilità stessa che essi
mirano a misurare. Lo stesso metodo è stato usato più volte nella letteratura
(vedi Hargittai, 2005; Van Deursen et al., 2014). Per identificare il migliore
criterio di validazione esterna attraverso task pratici per un test di compe-
tenze digitali critiche abbiamo proceduto ad una analisi dei due framework
più accreditati, rispettivamente nel settore istituzionale e in quello accade-
mico: Ferrari (2013), meglio conosciuto come DIGCOMP, e Van Deursen et
al. (2014). Entrambi forniscono, oltre alla divisione teorica in aree, anche
degli esempi pratici di competenze che coprono ciascuna area. Abbiamo in-
dividuato gli esempi comuni ai due framework, considerando questi ultimi
11
buone misure di competenza digitale nelle diverse aree. Seguendo questo ap-
proccio, abbiamo considerato quindi le nostre scale tanto più valide quanto
maggiore è la correlazione con il successo dei soggetti nei compiti pratici
selezionati. Sono stati così selezionati sei task per la validazione esterna, i
primi due riferiti alla macro-area “Information”, mentre il 3, 4, 5, e 6 rispet-
tivamente a “Communication”, “Creation”, “Security” e “Digital Efficacy
and Well-being”.
4
Per ragioni di tempo di compilazione, i primi tre task sono stati sommini-
strati ad una metà del campione (sia nella prima che nella seconda sommini-
strazione), mentre i secondi tre all’altra metà. I task sono stati corretti da un
ricercatore che ha assegnato un punteggio da 0 (del tutto errato o non svolto)
a 3 (del tutto corretto). La correlazione finale del punteggio nel test è di .437
con la somma dei punteggi ottenuti nei primi 3 task e .415 con la somma dei
secondi tre. Tali valori sono considerati sufficienti a identificare una corre-
lazione nella letteratura.
Il test oggi è composto da una batteria di 40 domande a scelta multipla, 8
domande per ogni macro area. La compilazione occupa un tempo variabile
tra i 15 e i 40 minuti.
Nel graf.1 si può vedere la distribuzione dei punteggi della seconda som-
ministrazione del test. Come si può notare, la frequenza dei punteggi assume
la forma di una curva pseudo-normale.
4
I task utilizzati per la validazione esterna sono i seguenti: TASK 1 - Devi andare a Bol-
zano in via Sciliar 6. Identifica il nome e l’indirizzo del parcheggio a pagamento più vicino
alla tua meta e scrivilo qui sotto; TASK 2 - Qualcuno dei tuoi amici ha condiviso su Facebook
questa notizia http://www.lultimaribattuta.it/10070_finanziere-tenta-irruzione-villa-capo-
rom-arrestato. Dopo aver verificato sul web, scrivi se secondo te si tratta di una notizia vera o
falsa e spiega come lo hai capito; TASK 3 - Scrivi qui sotto il testo di un messaggio che
manderesti in un social network che usi per lavoro all’azienda Rossi. Il nome del profilo dell'a-
zienda è “DittaRossi”. Con il messaggio vuoi fare due cose: segnalare questa notizia all'a-
zienda e taggare il post per aprire una discussione su un argomento da te identificato come
rilevante nell’articolo; TASK 4 - Trova la home page di un quotidiano online, copia la scher-
mata e produci un file di immagine con tale schermata dove hai cerchiato di rosso il titolo del
quotidiano. Salva questo file sul desktop. Una volta fatta questa operazione, carica il file
nell’apposito spazio; TASK 5- Inventa e scrivi qui sotto una password funzionale e sicura,
spiegando poi i criteri con cui l’hai costruita; TASK 6 - Per le vacanze estive hai affittato un
appartamento a Pescara, in Viale Paolo de Cecco 49. Arriverai la settimana prossima e vuoi
vedere com’è fatta la recinzione del condominio, in modo da trovarlo più facilmente una volta
lì. Usando il web, cerca di determinare di che colore e materiale è fatta la recinzione e scrivi
la risposta nel primo box.
Sei un appassionato di pesca e durante la vacanza vuoi praticare questa attività. Ti hanno detto
che nella spiaggia attigua ci sono dei piccoli moli da cui farlo. Di quanti di questi moli dispone
la spiaggia? Scrivilo nel secondo box.
12
Graf.1 - Distribuzione dei punteggi dei soggetti sulle competenze digitali cri-
tiche
Gli item si distribuiscono, inoltre, su un’ampia gamma di livelli di diffi-
coltà, a partire da item che vengono risposti correttamente dal 10% del cam-
pione ad altri che superano il 90%.
Per evitare la diffusione incontrollata degli item, che potrebbe distorcere
le future somministrazioni del test, non è opportuno pubblicare qui le do-
mande del test finale. Riportiamo però di seguito tre item del test che sono
stati scartati durante il lavoro di revisione ma che risultano rappresentativi
del tipo di item utilizzati. Il primo è relativo alla macro-area informazioni, il
secondo alla macro-area comunicazione e il terzo all’area della sicurezza.
Fig. 1. Esempio di item del test n.1 (la risposta corretta è sottolineata)
Talvolta su Facebook compaiono dei "post consigliati” come quello nel
riquadro rosso della schermata sottostante. Secondo te di cosa si tratta?
13
Sono delle pubblicità mostrate casualmente a tutti gli utenti
Sono delle pagine consigliate dai tuoi amici
Sono delle pubblicità personalizzate in base alle informazioni che
Facebook ha su di te
Sono delle pubblicità segnalate in base alle tue amicizie
Fig. 2. Esempio di item del test n.2 (la risposta corretta è sottolineata)
Un tuo contatto ha pubblicato una tua foto che un po’ ti imbarazza in
un social network. Per evitare i problemi che potrebbero derivare dalla
diffusione di questa foto:
Rimuovi il tuo tag dalla foto
Condividi la foto solo nel tuo profilo social privato
Chiedi che la foto sia rimossa
Modifichi la foto con un programma di editing
Fig. 3. Esempio di item del test n.3
Immagina di ricevere una email che parla di un nuovo servizio di
Google, invitandoti a provarlo seguendo un link e inserendo la tua
password di Google. Quale di questi indirizzi ti potrebbe far pensare ad
una truffa?
https://accounts.google.com/ServiceLogin?service=analytics
https://maps.google.it/login.php
http://google.administreert.com/login.php (1)
14
Nessuno dei precedenti
Conclusioni
Il test di competenza digitale critica Fastweb-Bicocca è un tentativo di
creare uno strumento di misurazione statisticamente solido e ancorato teori-
camente ai framework più diffusi, in particolare al DIGCOMP 2.0. Esso mira
a porsi, quindi, come punto di riferimento nella misurazione della compe-
tenza digitale content-related nel panorama italiano. Non si tratta di uno stru-
mento mirato a valutare specifiche competenze di settore ma vuole misurare
quel set di competenze di “cittadinanza digitale” necessarie, in generale, per
partecipare attivamente al mondo del lavoro e alla vita civile. Esso esclude
le competenze tecnico-operative, che come detto in precedenza appaiono
più solidamente coperte da ECDL ed altre certificazioni simili e il cui livello
base diventa invece un prerequisito per svolgere il nostro test. Inoltre, il no-
stro strumento mira anche a costituire un supporto per i progetti di educa-
zione ai media, sia nel campo aziendale che educativo. In quest’ottica, il suo
ruolo può essere quello di mettere in luce i punti critici da potenziare attra-
verso specifici interventi. Il suo uso come certificazione potrebbe risultare
conseguente, se esso sarà in grado di imporsi e di diffondersi.
Data la velocissima e continua evoluzione delle tecnologie, dei software
e delle pratiche digitali, il test dovrebbe essere aggiornato piuttosto frequen-
temente in modo che possa cogliere le nuove sfide alla consapevolezza
nell’uso del web che le innovazioni pongono (ad es. le novità su come ap-
paiono gli annunci pubblicitari sui social network, gli stessi nuovi social net-
work, le nuove dinamiche di circolazione delle notizie poco attendibili, ecc.).
Questo si scontra, però, con l’estrema onerosità della validazione di nuovi
item. La strada che ci appare ora più sostenibile è la strutturazione di un me-
todo di creazione di item che parta dallo scheletro degli item già validati per
produrne versioni alternative e che possa validare item aggiuntivi ad ogni
nuova somministrazione del test. L’idea è quella di produrre un vasto data-
base di item, continuamente aggiornati. Grazie ad un finanziamento interno
di Università Bicocca e a un co-finanziamento di Fastweb, il gruppo di ri-
cerca è attualmente impegnato nell’adattamento del test Fastweb-Bicocca al
mondo della scuola secondaria di II grado.
5
Questo nuovo progetto di ricerca
prevede anche un naturale sviluppo del test: la costruzione di un percorso
formativo per il rafforzamento delle competenze digitali critiche maggior-
mente carenti.
6
5
Chi fosse interessato ad utilizzare questa nuova versione del test rivolto agli studenti
delle scuole superiori per la propria ricerca può contattare gli autori.
6
A proposito della valutazione della competenza digitale nel mondo della scuola, si
veda il tentativo del MIUR di diffondere una prassi in questo senso tramite le “Indicazioni
15
Siamo consapevoli che un utilizzo competente e proficuo dei nuovi media
non si esaurisce nelle skill individuali ma si radica in un sistema di norme e
valori sociali (vedi ad esempio Couldry, 2015; Cappello, 2017). Tuttavia,
riteniamo che la presenza di uno strumento affidabile per la misurazione
della competenza digitale individuale se utilizzato al di fuori di un’ottica
meramente performativa possa supportare le istituzioni formative, i singoli
e le organizzazioni nel prendere coscienza delle nuove esigenze di alfabetiz-
zazione che la società digitale ci pone e nel farvi fronte in maniera più pronta.
Bibliografia
Calvani, A., Cartelli, A., Fini, A., & Ranieri, M. (2009). Modelli e strumenti per la
valutazione della competenza digitale nella scuola, «Journal of e-Learning and
Knowledge Society-Italian Version» (until 2012), 4(3).
Calvani, A., Fini, A., Ranieri, M., & Picci, P. (2012). Are young generations in
secondary school digitally competent? A study on Italian teenagers, «Computers
& Education» 58(2), pp. 797-807.
Cappello, G (2017), Literacy, Media Literacy and Social Change. Where Do We Go
From Now?, «Italian Journal of Sociology of Education» 9(1), pp. 31-44.
Cortoni, I., Lo Presti, V. (2014), Verso un modello di valutazione delle competenze
digitali, «RIV Rassegna Italiana di Valutazione», 60, pp. 7-23.
Couldry N. (2015), Sociologia dei nuovi media, ed. it. curata da P. Magaudda,
Pearson.
Ferrari, A., (2013), DIGICOMP: A Framework for Developing and Understanding
Digital Competence in Europe. Institute for Prospective Technological Studies,
Seville, Spain.
Gui, M. (2007), Formal and substantial Internet information skills: The role of
socio-demographic differences on the possession of different components of
digital literacy, «First Monday», 12(9).
Gui, M., & Argentin, G. (2011), Digital skills of internet natives: Different forms of
digital literacy in a random sample of northern Italian high school students,
«New media & society», 1461444810389751.
Gui, M. (2013), Indagine sull’uso dei nuovi media tra gli studenti delle scuole
lombarde, Regione Lombardia.
Gui, M. (2014), A dieta di media. Comunicazione e qualità della vita, Bologna, Il
mulino.
Gui, M., Fasoli, M. Carradore, R. (2017). “Digital Wellbeing”. Developing a New
Theoretical Tool for Media Literacy Research, «Italian Journal of Sociology of
Education», 9 (1), pp. 155-173.
Hargittai, E. (2001), Second-level digital divide: Mapping differences in people's
online skills, arXiv preprint cs/0109068.
Hargittai, E. (2005), Survey measures of web-oriented digital literacy, «Social
nazionali per il curricolo dalla scuola dell’infanzia alla scuola del primo ciclo d’istru-
zione” del 2012 e gli analoghi documenti per la scuola secondaria di II grado. Il test qui
illustrato potrebbe dare concretezza a tale richiesta, finora rimasta in sostanza inevasa.
16
science computer review», 23(3), pp. 371-379.
Hargittai, E., & Hinnant, A. (2008), Digital inequality differences in young adults'
use of the Internet, «Communication Research», 35(5), pp. 602-621.
Hargittai, E., & Hsieh, Y. P. (2012), Succinct survey measures of web-use skills,
«Social Science Computer Review», 30(1), pp. 95-107.
Helsper, E. J., Eynon, R. (2013), Distinct skill pathways to digital engagement,
«European Journal of Communication», 0267323113499113.
Iordache, C., Mariën, I. & Baelden, D. (2017), Developing digital skills and
competences: A quick-scan analysis of 13 digital literacy models, «Italian Journal
of Sociology of Education», 9(1), pp. 6-30.
Johnson, C.A. (2012), The information diet. A case for conscious consumption,
Farnham, O’Reilly.
Levitin, D. J. (2014), The organized mind: Thinking straight in the age of
information overload, Penguin.
Litt, E. (2013), Measuring users’ internet skills: A review of past assessments and a
look toward the future, «New Media & Society», 15(4), pp. 612-630.
OECD (2015), Students, Computers and Learning: Making the Connection, PISA,
OECD Publishing.
OFCO (2016), Communications Market Report 2016,
http://stakeholders.ofcom.org.uk/binaries/research/cmr/cmr16/uk/CMR_UK_20
16.pdf
Parlamento europeo (2006), Raccomandazione del Parlamento Europeo e del
Consiglio del 18 dicembre 2006 relativa a competenze chiave per
l'apprendimento permanente (2006/962/CE), «Gazzetta ufficiale dell’Unione
europea», 30(2006), pp. 10-18.
Rheingold, H. (2012), Net smart. How to thrive online, Cambridge MA, MIT.
Sonck, N., Livingstone, S., Kuiper, E., & de Haan, J. (2011), Digital literacy and
safety skills, London: EU Kids Online, London School of Economics and
Political Science.
Stothart, C., Mitchum, A., & Yehnert, C. (2015), The attentional cost of receiving a
cell phone notification, «Journal of experimental psychology: human perception
and performance», 41(4), pp. 893.
Van Djik, A.G.M. (2005), The deepening divide: inequality in information society,
London, Sage.
Van Deursen, A. J., & van Dijk, J. A. (2009), Improving digital skills for the use of
online public information and services, «Government Information Quarterly»,
26(2), pp. 333-340.
Van Deursen, J.A.M., Helsper, J.E., Eynon, R. (2015), Development and validation
of internet scale (ISS), «Information, Communication and Society», pp. 1-20.
Van Djik, A.G.M., Van Deursen, J.A.M. (2014), Digital Skills. Unlocking the
information society, Palgrave, Mac Millan.
Vuorikari, R., Punie, Y., Gomez, S. C., & Van Den Brande, G. (2016), DigComp 2.0:
The Digital Competence Framework for Citizens, Update Phase 1: The
Conceptual Reference Model (No. JRC101254). Institute for Prospective
Technological Studies, Joint Research Centre.
Zimic, S. (2009), Not so ‘techno-savvy’: Challenging the stereotypical images of the
‘Net generation’, «Digital Culture & Education», 1(2), pp. 129-144.
... Being digitally literate means communicating effectively in a global world where a great deal of communication is mediated by ICTs (McLoughlin, 2011). To achieve this aim it is necessary to possess both hard and soft digital skills (Rheingold, 2012;Gui & Fasoli, 2017). Here we propose a new perspective to conceptualize and assess digital skills namely Digital Smartness, characterized by: (1) integration of technical-hard and communicational-soft digital skills; (2) practice orientation (Hsieh, 2012), so we shift from a notion approach to a pragmatic vision; (3) professional context focus, so we shift from general digital skills to specific ones. ...
Book
Full-text available
ARCTT is a peer-reviewed all-purpose journal covering a wide variety of topics of interest to the mental health, neuroscience, and rehabilitation communities. The mission of ARCTT is to provide systematic, periodic examinations of scholarly advances in the field of CyberTherapy and Telemedicine through original investigations in the telemedicine and cybertherapy areas, novel experimental clinical studies, and critical authoritative reviews. It is directed to healthcare providers and researchers who are interested in the applications of advanced media for improving the delivery and efficacy of mental healthcare and rehabilitative services. www.arctt.info
... Stando alle evidenze empiriche, tali competenze sono connesse alla quantità d'uso del computer e di internet e sono, inoltre, più facilmente acquisibili in contesti formali e informali di istruzione e formazione (Van Djik, 2005). Si può aggiungere, a tale proposito, che le tecnologie digitali e della Rete, per quanto complesse sul piano della loro progettazione, sono sempre più facilmente usabili da parte dell'utente al quale non richiedono l'acquisizione di un bagaglio tecnico particolarmente gravoso; una esigenza, quest'ultima, peraltro già coperta dalle certificazioni della competenza digitale presenti sul mercato (Gui & Fasoli, 2017). Viceversa, le competenze digitali critiche (content related), nonostante siano indicate pressoché in tutti i modelli esaminati, risultano più scoperte sia sul piano della valutazione e misurazione, sia su quello della formazione. ...
Article
Full-text available
Digital culture requires a constant implementation of multilevel digital skills, oriented both to the management of tools and content. Monopoly’s blended learning model refers to this latter dimension, and aims to implement the development of digital skills for media education. The article presents the results of experimentation conducted with students of the Communication, culture and media education course at the University of Calabria.
Book
Full-text available
Lavoro, studio, svago, informazione: tra computer, televisione, smartphone o tablet la quantità di tempo che passiamo quotidianamente con gli occhi puntati su uno schermo è enorme. Ma esiste un pericolo di "obesità mediale", analoga a quella alimentare, nell'era digitale? Il libro sviluppa questo parallelo indicando, per la "cura", quattro punti chiave: limitarsi nella quantità del consumo; scegliere la qualità dei contenuti e delle relazioni fruite; concentrarsi contro i rischi del multitasking e della perdita dell'attenzione; relazionarsi gestendo con accuratezza i rapporti personali tra offline e online.
Article
Full-text available
Abstract: In this paper we show that a new problem is arising for users of digital media, who deal with an overabundant flow of information and social relationship options throughout the day. They increasingly need specific skills to channel digital stimuli towards personal goals and benefit, avoiding excessive multi-tasking, fragmentation of daily time and overconsumption of new media. We argue that these side effects are starting to represent a menace for people’s well-being. We show that existing frameworks of digital skills do not explicitly consider abilities to cope with communication overabundance. We also recognise that this question is not merely one of individual skills since the use of digital media is framed within social norms and expectations about what is “good” in the digital environment. Drawing from an interdisciplinary body of literature on the concept of “well-being”, we offer a definition of “digital well-being” as a state obtainable not only by the individual through his/her personal “digital well-being skills”, but also as a characteristic of a community whose norms, values and expectations contribute to its members’ comfort, safety, satisfaction and fulfilment. In the concluding section, we show the fruitfulness of the concepts of “digital well-being” and “digital well-being skills” for interdisciplinary social research and policy. Keywords: digital well-being, well-being, digital skills, overconsumption
Article
Full-text available
The development of digital literacy has become a key element on the agenda of scholars, practitioners and policymakers worldwide. To this end, actors in the field often make use of conceptual models on digital literacy. As these models inevitably play a role in shaping the public debate on digital literacy, it is important to gain insights into the concepts and ideas they put forward. This article aims to: (1) unravel the complexity and diversity of concepts regarding digital skills, literacies and competences; (2) identify the concepts promoted in 13 selected models on digital literacy; and subsequently (3) analyse the concepts that shape and/or dominate the scholarly and public debate on digital literacy. The results of this article are based on a literature review and quick-scan analysis of 13 digital literacy models that have been published and used by actors in the field between 2004-2014. The frameworks were mapped in a matrix and compared on the basis of 39 indicators, clustered in five categories: operational, technical and formal; information, cognition; digital communication; digital content creation; and strategic. The results of the analysis point towards an unbalanced focus on certain skills and competences, with particular emphasis on a series of operational, information-searching, and communication skills.
Technical Report
Full-text available
The European Digital Competence Framework for Citizens, also known as DigComp, offers a tool to improve citizens’ digital competence. DigComp was first published in 2013 and has become a reference for many digital competence initiatives at both European and Member State levels. This document introduces DigComp 2.0. It constitutes phase 1 of the update of the framework which focuses on the conceptual reference model, new vocabulary and streamlined descriptors. The document also gives examples of how DigComp is used at the European, national and regional levels.
Article
Full-text available
Although a number of instruments have been used to measure Internet skills in nationally representative surveys, there are several challenges with the measures available: incompleteness and over-simplification, conceptual ambiguity, and the use of self-reports. Here, we aim to overcome these challenges by developing a set of reliable measures for use in research, practice, and policy evaluations based on a strong conceptual framework. To achieve this goal, we carried out a literature review of skills-related studies to develop the initial Internet skills framework and associated instrument. After the development of this instrument, we used a three-fold approach to test the validity and reliability of the latent skill constructs and the corresponding items. The first step consisted of cognitive interviews held in both the UK and the Netherlands. Based on the cognitive interview results, we made several amendments to the proposed skill items to improve clarity. The second step consisted of a pilot survey of digital skills, both in the UK and in the Netherlands. During the final step, we examined the consistency of the five Internet skill scales and their characteristics when measured in a representative sample survey of Dutch Internet users. The result is a theoretical, empirically and cross-nationally consistent instrument consisting of five types of Internet skills: operational, navigation information, social, creative, and mobile.
Article
Over the years research on literacy has progressively moved away from a narrow definition of the term in strictly psycholinguistic terms expanding it so as to recognize its inevitable embeddedness within particular social relationships and practices. In this paper, after a short historical overview of the scientific debate developed around this expanding notion of literacy, we are going to focus on the role media technologies have played in accelerating this expansion towards media literacy. To be media literate today means to be able to cope efficiently with the flood of information in contemporary highly mediated societies and act as critical, creative and responsible digital citizens. Eventually, we are going to question the techno-utopist and instrumentalist drift that often inspires the adoption of media technologies in educational contexts, and make some short conclusive re-marks on the risks and limits of the recent media literacy policy agendas as developed by public authorities and private companies.
Book
The Deepening Divide: Inequality in the Information Society explains why the digital divide is still widening and, in advanced high-tech societies, deepening. Taken from an international perspective, the book offers full coverage of the literature and research and a theoretical framework from which to analyze and approach the issue. Where most books on the digital divide only describe and analyze the issue, Jan van Dijk presents 26 policy perspectives and instruments designed to close the divide itself.
Article
Digital literacy and inclusion have been two important, largely separate, areas of study that examine the relationships between Internet skills and engagement. This article brings together these areas of research by testing a model that assumes specific pathways to inclusion: specific sociodemographic factors predict specific digital skills and specific digital skills predict related types of engagement with the Internet. Analyses of nationally representative survey data of Internet use in Britain highlight considerable measurement and conceptual challenges that complicate digital literacy research. The findings suggest that linking literacy and exclusion frameworks allows for a more nuanced understanding of digital engagement. Different groups lacked different skills, which related to how their engagement with the Internet varied.
Article
There is a dearth of survey instruments for measuring Internet skills. This article presents results from additional implementations of a previously-developed index measure. It considers the performance of the original instrument over time as well as shortened versions of it on two surveys of different populations. Drawing on analyses of five different data sets, the article makes recommendations for various length survey items for measuring people’s web-use skills.