ArticlePDF Available

Dall’interazione utente-tecnologia alla valutazione dell’usabilità: Una rassegna sullo stato dell’arte dei metodi e delle normative

Authors:

Abstract and Figures

From the Human computer interaction to the usability evaluation: A state of the art review on methods and rules - An overview on the way in which hardware and software have changed over time - from the Sixties onwards - suggests new ideas of the interaction between user and technology (Human Computer Interaction), that have brought about an increase of specific evaluation techniques for differing aims and theoretical models. So far, practitioners have not provided the basis for defining a uniform Usability Evaluation Method (UEM), nor have researchers agreed on a standard tools for evaluating and comparing UEMs. Turning to the main issues of the historical analysis: firstly, a lack of single evaluation techniques emerges, and secondly, as a consequence, the need of integration and comparability of techniques for integrating UEMs. The latter is only possible in a structured methodology based on a standard set of usability metrics. Interaction problems together with both national and international rules are important topics in terms of the development of a common UEM, and are here discussed from the viewpoint of the Italian regulation for web-usability within public administration (i.e. legge Stanca). The use of a comparative approach, based on the Italian UEM criteria and definitions, enables us to introduce alternative techniques and to suggest new evaluation methods and reliable and valid tools. RIASSUNTO - Le trasformazioni, hardware e software, dagli anni ’60 ad oggi hanno condotto al modificarsi dell'idea di interazione utente-tecnologia e alla proliferare di tecniche di valutazione diversificate per scopi e modelli teorici. Il tema centrale che emerge dall'analisi storica è l'insufficienza delle singole tecniche di valutazione e la conseguente necessità d'integrazione e comparabilità delle tecniche, all'interno di metodologie di analisi strutturate su metriche condivise. L'importanza delle problematiche di interazione e degli aspetti normativi, nazionali ed internazionali, per la formalizzazione di un Usability Evaluation Method sono qui discusse insieme all'analisi della metodologia integrata proposta dalla legge italiana, nota come legge Stanca. L'approccio comparativo è analizzato, in senso applicativo, utilizzando la base di criteri e definizioni standard del quadro metodologico offerto dalla normativa italiana, entro cui diviene possibile l'analisi e la proposta di tecniche alternative a quelle indicate dalla metodologia di analisi della Legge Stanca al fine di ottimizzare l'efficacia e l'efficienza della valutazione.
Content may be subject to copyright.
Giornale di Psicologia, Vol. 2, No.
3
, 2008
ISSN 1971-9558
Giornaledipsicologia.it, Vol. 2, No.
3
, 2008
ISSN 1971-9450
233
© PSICOTECNICA
Dall’interazione utente-tecnologia alla valutazione
dell’usabilità: Una rassegna sullo stato dell’arte dei metodi
e delle normative
Simone BORSCI
1
, Stefano FEDERICI
1,2
1
ECoNA – Interuniversity Center for Research in Cognitive Processing in Natural and Artificial Systems, Univeristy of Rome
2
Dipartimento di Scienze Umane e della Formazione, Università di Perugia
ABSTRACT – From the Human computer interaction to the usability evaluation: A state of the art review on methods
and rules - An overview on the way in which hardware and software have changed over time - from the Sixties on-
wards – suggests new ideas of the interaction between user and technology (Human Computer Interaction), that
have brought about an increase of specific evaluation techniques for differing aims and theoretical models. So far,
practitioners have not provided the basis for defining a uniform Usability Evaluation Method (UEM), nor have re-
searchers agreed on a standard tools for evaluating and comparing UEMs. Turning to the main issues of the historical
analysis: firstly, a lack of single evaluation techniques emerges, and secondly, as a consequence, the need of integra-
tion and comparability of techniques for integrating UEMs. The latter is only possible in a structured methodology
based on a standard set of usability metrics. Interaction problems together with both national and international rules
are important topics in terms of the development of a common UEM, and are here discussed from the viewpoint of
the Italian regulation for web-usability within public administration (i.e. legge Stanca). The use of a comparative ap-
proach, based on the Italian UEM criteria and definitions, enables us to introduce alternative techniques and to sug-
gest new evaluation methods and reliable and valid tools. KEYWORDS: Comparative Evaluation, Evaluation Meth-
ods, HCI, Standard Metrics, Web Usability.
RIASSUNTO – Le trasformazioni, hardware e software, dagli anni ’60 ad oggi hanno condotto al modificarsi
dell’idea di interazione utente-tecnologia e alla proliferare di tecniche di valutazione diversificate per scopi e modelli
teorici. Il tema centrale che emerge dall’analisi storica è l’insufficienza delle singole tecniche di valutazione e la conse-
guente necessità d’integrazione e comparabilità delle tecniche, all’interno di metodologie di analisi strutturate su me-
triche condivise. L’importanza delle problematiche di interazione e degli aspetti normativi, nazionali ed internaziona-
li, per la formalizzazione di un Usability Evaluation Method sono qui discusse insieme all’analisi della metodologia
integrata proposta dalla legge italiana, nota come legge Stanca. L’approccio comparativo è analizzato, in senso appli-
cativo, utilizzando la base di criteri e definizioni standard del quadro metodologico offerto dalla normativa italiana,
entro cui diviene possibile l’analisi e la proposta di tecniche alternative a quelle indicate dalla metodologia di analisi
della Legge Stanca al fine di ottimizzare l’efficacia e l’efficienza della valutazione. PAROLE CHIAVE: Valuitazione
Comparativa, Metodi Di Valutazione, HCI, Metriche Standard, Usabilità Del Web.
Sviluppo storico dell’interazione utente tec-
nologia
In questa prima sezione sarà presentato lo svi-
luppo dell’interazione utente tecnologia secondo
una progressione storica che va dall’inizio degli anni
’60 ad oggi. L’analisi della società dell’informazione
e delle problematiche connesse all’uso della tecnolo-
gia, sono la base per discutere le ragioni
dell’importante sviluppo degli studi e delle metodo-
logie di valutazione dell’usabilità. Tale percorso fa
emergere tre esigenze attuali: la prima è
l’integrazione delle tecniche di valutazione
dell’usabilità, la seconda è l’esigenza di misure stan-
dardizzate all’interno di metodologie condivise di
valutazione, la terza è comparazione delle tecniche.
Dalla “command line interface” alla “direct
manipulation”
L’analisi storica dei modelli di interazione non
può non tener conto del fatto che la tecnologia, in
quanto téchnê è un’estensione delle capacità umane
con cui occorre entrare in comunicazione, “You
must talk to the media not to the programmer” (Mc
Luhan e Fiore, 2001), pertanto, il prodotto tecnolo-
gico non è soltanto un possibile “mezzo” di comu-
nicazione, ma in parte, l’interlocutore stesso con cui
si entra in comunicazione.
Borsci, S., Federici, S. – Dall’interazione utente-tecnologia alla valutazione dell’usabilità: Una rassegna
Giornale di Psicologia, Vol. 2, No. 3, 2008
ISSN 1971-9558
234 Giornaledipsicologia.it, Vol. 2, No. 3, 2008
ISSN 1971-9450
Verso la fine degli anni cinquanta, ogni stru-
mento tecnologico ed informatico era creato con
specifiche funzioni determinate dal modello di inte-
razione ideale del progettista dello strumento.
L’esigenza principale era quella di ottenere presta-
zioni di calcolo, o di funzioni macchina, idonei per
la gestione e il controllo delle tecnologie.
L’operatore di un calcolatore aveva a disposizione un
pannello di controllo che permetteva principalmente
funzioni di correzione (debugging) e che poteva esse-
re usato per inserire direttamente le righe di coman-
do nel sistema. Questo tipo di interazione era guida-
to da principi noti fin dai primi anni cinquanta, che
andavano sotto il nome di command line interface
(CLI), ossia l’interazione a linee di comando, che
obbligava l’utente ad apprendere i comandi da scri-
vere con la tastiera. L’interfaccia era sostanzialmente
testuale e consisteva di input ed output del sistema.
È nei primi anni del 1960 che comincia a diffonder-
si fra gli studiosi l’esigenza di un modello interfaccia
differente, reso possibile dall’introduzione di nuovi
elementi hardware (Dix, Finlay, Abowd, e Beale,
2004) e dal fatto che l’utilizzatore del prodotto tec-
nologico industriale non potesse più essere conside-
rato come oggetto-macchina del processo di mon-
taggio, ma soggetto di diritti, quindi utente del
processo di produzione. L’esigenza di migliorare le
condizioni di scambio interattivo origina dai muta-
menti avvenuti negli anni ’50, in cui l’uomo viene
progressivamente sgravato dalla fatica fisica, svol-
gendo automaticamente il processo di lavoro;
l’operatore interagiva con la macchina, che richiede-
va istruzioni e trasmetteva informazioni sul modo in
cui il processo si svolgeva. L’attenzione, a livello er-
gonomico, si spostò dal carico muscolare a quello
percettivo. L’utente, posto di fronte a schermi radar,
cruscotti e quadri di comando, si trovava a costruire
interazioni nuove con la tecnologia in cui entrarono
in gioco abilità cognitive come: l’attenzione, la dete-
zione del segnale, le variazioni nel tempo di risposta.
In questa nuova relazione utente-tecnologia, soprat-
tutto nei processi lavorativi, assunse una fondamen-
tale importanza, la riduzione del numero di errori
compiuti durante l’interazione con il sistema. La
progressiva automazione dei processi di lavoro portò
la macchina ad assumere una parte rilevante del trat-
tamento dell’informazione, quindi anche delle pro-
cedure, delle strategie e delle decisioni prese
dall’operatore esperto. Crebbe così d’importanza
nell’ambito ergonomico la dimensione psicologica e
cognitiva (Re, 1995).
Nel 1963, presso il Massachusetts Institute of
Technology (MIT), venne sviluppata quella che
probabilmente può essere considerata la prima inter-
faccia utente grafica interattiva, denominata Ske-
tchPad (Sutherland,1964; 2003). L’introduzione
dell’interfaccia grafica poneva in essere nuove pro-
blematiche dell’interazione fra utente e tecnologia,
in quanto una struttura non più predisposta solo at-
traverso righe di comando presupponeva una capaci-
tà di adattamento grafico-visivo dell’utente alle in-
terfacce. Nel 1983, Shneiderman, presso l’Università
del Maryland, definì così i principi che caratterizza-
vano la manipolazione diretta delle interfacce:
“Continuous representation of the object of inter-
est.
Physical actions (movement and selection by
mouse, joystick, touch screen, etc.) or labeled but-
ton presses instead of complex syntax.
Rapid, incremental, reversible operations whose
impact on the object of interest is immediately
visible.
Layered or spiral approach to learning that per-
mits usage with minimal knowledge. Novices
can learn a modest and useful set of commands,
which they can exercise till they become an “ex-
pert” at level I of the system. After obtaining re-
inforcing feedback from successful operation, us-
ers can gracefully expand their knowledge of
features and gain fluency”. (1983, 64)
Questi principi furono successivamente sviluppa-
ti da Hutchinson, Holland e Norman (1986), al fine
di implementare l’idea della manipolazione diretta,
partendo dal presupposto che la qualità
dell’interazione fosse legata alle affordance (Gibson,
1979), cioè alle proprietà degli oggetti di un ambien-
te percepite dall’utente come possibilità di azione in
un determinato contesto.
Dalla Manipolazione diretta alle interfacce
WIMP
Un’interfaccia, intesa come luogo di funzioni e
variabili predisposte per operare sul sistema macchi-
na partendo dagli input (clic/query) degli utenti a-
vrebbe dovuto essere progettata in modo tale da faci-
litare la comprensione dell’ambiente-interfaccia
rendendo più fluida ed immediata l’elaborazione dei
messaggi o il richiamo di conoscenze utili dalla me-
moria (Shneiderman, 1987). Queste conoscenze,
possono essere distinte qualitativamente in due cate-
gorie: conoscenze sintattiche e conoscenze semanti-
che (Shneiderman e Mayer, 1979). Le conoscenze
sintattiche sono relative all’interfaccia e possono va-
riare se si cambia il software in uso. Invece, le cono-
scenze semantiche sono organizzate secondo una
Borsci, S., Federici, S. – Dall’interazione utente-tecnologia alla valutazione dell’usabilità: Una rassegna
235
struttura gerarchica bottom-up, che spazia dal livello
più basso (relativo alle singole azioni) al livello medio
(relativo alle strategie) fino al livello più alto (relativo
agli obiettivi) e si articolano in: computer concepts e
task concepts. Task e computer concepts sono iden-
tificabili a livello cognitivo come quelle conoscenze
dell’utente, stabili nella memoria a lungo termine,
che gli permettono di agire sul sistema in relazione
con gli oggetti. Se un utente intende scrivere una let-
tera con il proprio computer egli deve possedere le
conoscenze per scrivere con il sistema (task action)
una lettera (task object), riconoscere che la lettera
deve essere memorizzata su un file (computer object)
attraverso il comando “salva” (computer action). In
sostanza l’utente deve confrontarsi con aspetti multi-
pli della conoscenza come azioni, oggetti e molteplici
livelli di conoscenze sintattiche.
Questa impostazione permise lo sviluppo, presso
il Palo Alto Research Center, dei primi sistemi a fi-
nestre Smalltalk e InterLisp e la formalizzazione dei
principi base del Graphical User Interface (GUI). A
consacrare il successo delle interfacce grafiche fu, nel
1985, la prima versione di MS-Windows. Si affermò
così l’interfaccia WIMP (Windows, Icons, Menus, and
Pointer) che caratterizzerà gli ambienti in cui, ancora
oggi, si interagisce principalmente con i computer.
In ragione delle trasformazioni hardware e sof-
tware, lo sviluppo dell’aspetto grafico dell’interfaccia
acquistò sempre maggiore importanza imponendo
l’utilizzo di codici comunicativi basati non solo su
un linguaggio lineare, ma anche simbolico e spaziale.
Infatti, nell’interfaccia WIMP l’informazione è vei-
colata oltre che dalla successione e dall’ordine dei
contenuti verbali, come per i menu a tendina, le bar-
re degli strumenti e le guide testuali, vincolati dalla
temporalità, irreversibilità, orizzontalità, uniformità,
causalità e frammentazione della lingua scritta, anche
dai contenuti grafici e dall’organizzazione dello spa-
zio e della forma, come l’aspetto di un desktop, le
icone, i menu radiali, l’interazione tramite mouse,
ecc. Di conseguenza all’utente sarà richiesto
l’esercizio di facoltà cognitive non più solo logico-
analitiche, lineari e sequenziali, ma figurative, spazia-
li, gestaltiche e circolari (De Kerckhove,1995).
Mentre nelle CLI sia il progettista che l’utente
erano vincolati da un medesimo codice comunicati-
vo di tipo testuale logico e analitico, nelle WIMP
l’informazione è veicolata anche tramite codici grafi-
co-spaziali il cui contenuto comunicativo non è
coincidente con il codice di programmazione. Per
esempio la rilevanza di un’informazione contenuta in
una icona dipenderà non solo dal suo contenuto e
dalle sue funzioni ma anche dalla posizione della
stessa sullo schermo. Nelle CLI, invece, il contenuto
dell’informazione è del tutto svincolato dal contesto
grafico e le facilitazioni dell’interazione per l’utente
possono essere ridotte a poche regole ergonomiche
(grandezza dello schermo e del carattere, luminosità
ecc.). Pertanto, nell’interfaccia WIMP il contenuto
essendo strettamente collegato al contesto grafico-
spaziale introduce molte più variabili sulle possibili
che l’utente ha di interpretare l’informazione veicola-
ta graficamente (posizione, chiarezza del simbolo,
effetti grafici ecc.).
Tutto ciò ha comportato che per il progettista
non bastasse più la verifica della correttezza del codi-
ce di programmazione per garantire la funzionalità
dell’interfaccia, ma occorresse la verifica del codice
interpretativo utilizzato dall’utente che è così diven-
tato parte del processo di progettazione. L’usabilità
trova ragione del suo crescente sviluppo proprio da
queste nuove caratteristiche dell’interazione sistemica
utente-tecnologia. Per esempio, in una verifica tecni-
ca non è sufficiente che appaia un messaggio di al-
larme ma che questo nel contesto dello spazio virtua-
le venga colto come tale dall’utente.
Questi cambiamenti hanno comportato il prolife-
rare di nuove metodologie che oltre a verificare
l’accessibilità tecnica delle interfacce fossero in grado
di cogliere gli aspetti dell’usabilità quali dimensioni
dell’interazione sisteimica del soggetto con una inter-
faccia. In accordo con la definizione di Gray e Sal-
zman (1998), utilizzeremo il termine metodologia di
valutazione dell’usabilità (UEMs) riferendoci ad ogni
forma di metodologia o tecnica usata per la valuta-
zione dell’usabilità di un’interfaccia ad ogni fase del
suo sviluppo, così come è stata utilizzata da Hartson,
Andre e Williges (2003).
L’usabilità e lo sviluppo degli UEMs:
l’integrazione delle tecniche
L’usabilità è un concetto noto e ben circoscritto
nel campo delle HCI che si riferisce al modo in cui
un utente ed un sistema (tecnologia) possono comu-
nicare chiaramente e senza fraintendimenti attraverso
l’interfaccia (Chou e Hsiao, 2006). Esistono molte
definizioni di usabilità che possiamo definire acca-
demiche e che, nel corso delle trasformazioni delle
tecnologie e del conseguente mutamento dei processi
di costruzione delle interazioni utente-tecnologia, si
sono andate specificando costituendo un insieme
strutturato e diversificato. Goodwin (1987) definisce
l’usabilità come il grado di compatibilità del sistema
con le caratteristiche cognitive dell’utente di: comu-
nicazione, comprensione, memoria e problem sol-
ving. Un’ulteriore definizione del concetto di usabili-
tà si ritrova in Prece e Benyon (1993): ”Gli obiettivi
Borsci, S., Federici, S. – Dall’interazione utente-tecnologia alla valutazione dell’usabilità: Una rassegna
Giornale di Psicologia, Vol. 2, No. 3, 2008
ISSN 1971-9558
236 Giornaledipsicologia.it, Vol. 2, No. 3, 2008
ISSN 1971-9450
della Human Computer Interaction sono quelli di svi-
luppare e migliorare sistemi che prevedano l’utilizzo di
calcolatori in modo che gli utenti possano svolgere i loro
compiti senza problemi, efficacemente, efficientemente e
apprezzando il loro strumento di lavoro. Questi quattro
fattori, assieme, compongono il concetto di usabilità.
In generale, l’usabilità è spesso definita utilizzando le
dimensioni di “effectiveness, efficiency, learnability,
flexibility, memorability, errors, and satisfaction” (Hix
e Hartson, 1993; Jordan, 1998; Nielsen, 1993; Sha-
ckel, 1991; Shneiderman, 1987). Oltre a queste de-
finizioni, uno standard è stato pubblicato
dall’International Organization for Standardization
(ISO) e dall’International Electrotechnical Commis-
sion (IEC). Tre ISO determinano questo standard:
ISO 9241-11, ISO/IEC 9126 e l’ISO/IEC FDIS
9126-1. L’ ISO 9241-11 definisce l’usabilità come:
the extent to which a product can be used by specified
users to achieve specified goals with effectiveness, effi-
ciency and satisfaction in a specified context of use”,
sottolineando quali informazioni vanno prese in con-
siderazione nel momento in cui si valuta l’usabilità
intesa come performance e satisfaction (Be-
van,2001). L’ISO/IEC 9126 e l’ISO/IEC FDIS
9126-1 determinano, invece, le metriche per la
Quality in use” come specifica Bevan (1999), de-
finendo l’usabilità come “a set of attributes that bear
on the effort needed for use, and on the individual as-
sessment of such use, by a stated or implied set of users
(ISO 9126) e specificando che, in un modello di
qualità legato al software, deve essere più propria-
mente intesa come: “the capability of the software
product to be understood, learned, used and attractive
to the user, when used under specified conditions
(ISO9126-1).
Lo scopo degli studi di usabilità, appare evidente
dalle definizioni, è quello di creare un’interfaccia che
risponda alle necessità, alle aspettative ed alle abilità
dell’utente in senso qualitativo. Il raggiungimento di
questo obiettivo passa attraverso il fulcro della valu-
tazione dell’usabilità intesa come la misura della qua-
lità dell’interazione.
Fra le tecniche di valutazione esitono differenti
approcci che possiamo distinguere, seguendo
l’indicazione di Dillon (2001) in: “User-based: where
a sample of the intended users try to use the application;
Expert-based: where an HCI or usability expert makes
an assessment of the application; Model-based: where
an HCI expert employs formal methods to predict one
or more criteria of user performance”
Sin dai primi anni ottanta l’esigenza principale
era quella di adoperare test che fossero utilizzabili sia
per l’analisi dei prodotti finali sia delle interfacce in
costruzione. Tali test analizzavano la performance
dell’utente in base alla velocità, all’accuratezza e agli
errori di interazione (Hartson et al. 2003) e si affian-
cavano alle tecniche user-based, che si concentrano
su fattori come la soddisfazione o la percezione del
sistema da parte dell’utente, come: il verbal protocols
e il thinking aluod (TA) (Ericsson e Simon, 1984;
1987; Lewis e Rieman, 1993; Nielsen,1993; 1994),
il critical incident reporting (Del Galdo, Williges,
Williges, e Wixon,1987), il user satisfaction ratings
(Chin, Diehl, e Norman, 1988) e l’utilizzo di que-
stionari. Durante gli anni novanta il bisogno degli
sviluppatori di diminuire costi e tempi dei test di u-
sabilità avendo a disposizione tools da utilizzare nelle
primissime fasi di sviluppo, apre la strada
all’implementazione di tecniche che non coinvolgo-
no l’utente ma che si basano sulla valutazione
dell’esperto (expert-based), come: l’heuristic evalua-
tion (Nielsen e Molich, 1990), cognitive wal-
kthroughs (CW) (Lewis, Polson, Wharton, e Rie-
man, 1990; Wharton, Bradford, Jeffries, e Franzke,
1992), l’usability walkthroughs (Bias, 1991), il for-
mal usability inspections (Kahn e Prail, 1994), e la
heuristic walkthroughs (HC) (Sears, 1997).
Contestualmente allo sviluppo di queste tecniche
expert-based e user based, nei laboratori si sviluppa-
no tecniche “model-based” (Dillon, 2001) fondate su
modelli cognitivi dell’azione umana in relazione con
la tecnologia. Una delle tecniche “model based” più
note è il GOMS (Goals, Operators, Methods,
Selection
and rules) sviluppato da Card, Moran e Newell
(1983) che introdusse un modello ideale di processo
di elaborazione dell’informazione umana in grado di
fornire una rappresentazione semplificata di come
l’essere umano percepisce ed elabora gli stimoli e-
sterni e di predire la performance umana durante
l’interazione con la tecnologia. Tale modello risultò
utile per l’analisi dei task e per individuare problema-
tiche legate all’utilizzo efficace ed efficiente
dell’interfaccia. Un'altra tecnica basata sull’analisi dei
modelli, conosciuta come Cognitive Complexity
Theory (CCT), venne proposta da Bovair, Keira e
Polson (1990), tale modello era in grado di predire
non solo le performance, ma anche il tempo di ap-
prendimento dell’utente in interazione. Tuttavia
come sottolineò Polson, paragonando i risultati otte-
nuti con tali modelli a quelli del CW: “The use of this
model can suplement, but not replace, cognitive wal-
ktrough” (Polson, Lewis, Rieman e Wharton, 1992).
Lo stesso Polson, utilizzò un modello cognitivo
d’azione umana definito “theory of exploratory lear-
ning” (Polson e Lewis, 1990) per implementare la
tecnica del CW. Nello stesso periodo Norman e col-
laboratori svilupparono un modello per descrive
Borsci, S., Federici, S. – Dall’interazione utente-tecnologia alla valutazione dell’usabilità: Una rassegna
237
l’azione umana in interazione con strumenti tecno-
logici (1986; Norman, 1990).
Tra le tecniche model based occorre annoverare
anche il modello matematico di Fitts (1954), che
applicato alle interfacce, permette di individuare e
ridurre il coefficiente di difficoltà delle azioni
nell’interfaccia. Recentemente anche l’applicazione
di modelli logici come quelli Fuzzy, si stanno affer-
mando come modelli plausibili per la valutazione di
dimensioni dell’usabilità come: “system feedback, con-
sistency, error prevention, performance /ef•ciency, user
like/dislike, and error recovery” (Chang e Dillon,
2006).
John e Marks (1997) hanno operato
un’interessante analisi comparativa delle metodologie
di valutazione dell’usabilità, dimostrando che non ne
esiste una migliore delle altre in quanto ognuna ma-
nifesta lacune e vantaggi specifici. Dillon, commen-
tando l’analisi proposta da questi studiosi ha affe-
mato che: “Finally, there are good reasons for thinking
that the best approach to evaluating usability is to com-
bine methods e.g., using the expert-based approach to
identify problems and inform the design of a user-based
test scenario, since the overlap between the outputs of
these methods is only partial, and a user-based test nor-
mally cannot cover as much of the interface as an ex-
pertbased method” (2001). L’integrazione dei modelli
di valutazione sembra affermarsi in letteratura come
l’unica strada praticabile per non escludere
l’elemento utente, che è il perno centrale della valu-
tazione, ma anche per includere l’elemento esperto
che ha il compito di analizzare i problemi strutturali
e sistemici spesso non rilevati attraverso l’analisi
dell’utente. La stessa integrazione dei modelli di va-
lutazione è comunque un campo aperto di dibattito
per gli studiosi internazionali, dibattito che analizza
la natura stessa delle tipologie di valutazione sogget-
tiva e del ruolo della soggettività nell’analisi ergono-
miche (Annett, 2002a; Baber, 2002; Federici, Mi-
cangeli, Ruspantini, Borgianni, Pasqualotto e
Olivetti Belardinelli, 2005).
User centered design
L’interazione uomo-computer, o Human Com-
puter Interaction (HCI), è oggetto di uno studio
multidisciplinare che coinvolse, fin dai primi anni
’80, varie discipline fra cui l’ingegneria, la psicologia
cognitiva e l’ergonomia che hanno affrontato il pro-
blema dal punto di vista sia della progettazione sia
del rapporto utente-medium. Occorre sottolineare,
tuttavia, come lo studio dell’interazione fra uomo e
computer si sia sviluppato, almeno inizialmente, sen-
za una chiara convergenza degli approcci disciplinari
al problema: da un lato a livello ingegneristico ed in-
formatico ci si preoccupava di creare processi di pro-
gettazione e software sempre più interattivi, dall’altro
gli approcci ergonomici e psicologici cercavano di
comprendere l’interazione e gli aspetti cognitivi e
comportamentali coinvolti. Un interessante punto di
raccordo fra i diversi approcci disciplinari fu intro-
dotto da Norman (1983) il quale identificò tre tipo-
logie di modelli mentali coinvolti nella costruzione
dell’interazione. Secondo, questo studioso, ogni tipo
di interazione si sviluppa attraverso le relazioni che si
creano fra il modello mentale dell’utente, l’immagine
del sistema e il modello concettuale del sistema. Il
modello mentale dell’utente è una rappresentazione
della macchina che l’utente sviluppa quando impara
ad usare un computer o una tecnologia in generale.
Questa rappresentazione permette all’utente di piani-
ficare le operazioni da compiere e di prevedere, valu-
tare e spiegare le reazioni del sistema. Il modello
mentale che guida l’utente nell’interazione è costrui-
to sull’immagine del sistema, cioè su tutti gli elemen-
ti del sistema con cui l’utente viene a contatto: aspet-
to fisico, stile di interazione, forma e contenuto delle
informazioni scambiate. Infine, il modello concet-
tuale del sistema rappresenta il modello impiegato
dal progettista per realizzare il sistema per scopi spe-
cifici. Questi tre modelli mentali sono in relazione
fra loro. Infatti, è ovvio che il modello concettuale-
progettuale strutturerà l’immagine del sistema e che
questa a sua volta influirà sul modello mentale
dell’utente. Questa relazione fra gli elementi proposti
da Norman rileva come un buon progetto debba ne-
cessariamente essere basato su un modello concettua-
le derivato dall’analisi dell’utente e dei compiti che
svolgerà la macchina. A seconda del medium con cui
il soggetto entra in interazione, cambiano i modelli
concettuali di progettazione perché cambiano i mo-
delli mentali che l’utente utilizza per interagire. Du-
rante la progettazione occorre tenere presente un ci-
clo di interazione fra uomo e macchina, al cui
interno avvengono due processi fondamentali:
l’esecuzione, cioè la distanza tra le intenzioni
dell’utente, ovvero le azioni da svolgere, e le azioni
effettivamente consentite dal sistema e la valutazione,
ovvero la distanza tra le rappresentazioni fornite dal
sistema e quelle che si aspetta l’utente (Norman,
1990). Secondo questa impostazione l’interazione fra
computer e essere umano è sostanzialmente equipa-
rabile ad uno scambio comunicativo in cui uno dei
due agenti è programmato ad eseguire gli input
dell’altro creando feedback (output) per l’utente.
Al centro della progettazione dell’interazione
non viene posta la macchina e la sua programmazio-
ne ma l’utente che diventa il perno su cui progettare
Borsci, S., Federici, S. – Dall’interazione utente-tecnologia alla valutazione dell’usabilità: Una rassegna
Giornale di Psicologia, Vol. 2, No. 3, 2008
ISSN 1971-9558
238 Giornaledipsicologia.it, Vol. 2, No. 3, 2008
ISSN 1971-9450
lo scambio interattivo. Questa impostazione svilup-
patasi nei primi anni ’90 prende il nome di User
Center Design (UCD) che D. Norman definisce co-
me: “A philosophy based on the needs and interest of the
user, with the emphasis on make products usable and
understandable” (1990). Secondo lo stesso Norman
lo sviluppo necessario del UCD è l’“Emotional De-
sign” (2004), ossia un processo di progettazione
dell’interazione che non solo si concentri sugli aspetti
di progettazione centrati sull’utente ma che sia in
grado di guidare e tener conto anche delle risposte
emotive dell’utente all’interfaccia.
Il modo stesso di utilizzare le tecnologie è in-
fluenzato dallo specifico ambiente all’interno del
quale le tecnologie si trovano. Fin dai primi anni no-
vanta gli utenti furono coinvolti già durante le fasi di
progettazione e non solo nella valutazione finale del
prodotto compiuto sviluppando quello che alcuni
studiosi hanno definito “design partecipativo-
interattivo” (Sentinelli, 2003). Lo scopo era avvicina-
re la tecnologia all’utente e non l’utente alla tecnolo-
gia, come era avvenuto fino agli anni ottanta.
Problematiche di interazione e misure di va-
lutazione dell’usabilità
Nella misura in cui nella società
dell’informazione l’interazione passa attraverso i si-
stemi informatici è emersa, sin dai primi anni ’90, la
necessità di accedere all’informazione come mezzo di
nuove possibilità economiche, di sviluppo educativo
e sociale. In conseguenza alla diffusione delle tecno-
logie internet si sono sviluppate barriere di accesso
legate ai vincoli culturali e sociali dei contesti in cui
gli utenti erano inseriti. Tale fenomeno, noto come
digital divide non è circoscrivibile unicamente ad
una questione economica, ma è considerato una
proprietà endemica della società dell’informazione e
più in generale della Information and comunication
technologies (Sukkar, 2006). Infatti anche nelle socie-
tà in cui la diffusione delle tecnologie è molto estesa
esiste un alto tasso di analfabetizzazione informatica
che discrimina le possibilità degli utenti di reperire
informazioni nella rete ed è causa di digital divide di
secondo livello (Hargittai, 2002).
L’esigenza politica, economica e sociale di af-
frontare il problema del digital divide è testimoniato
dai vasti programmi europei progettati per contrasta-
re questa problematica attraverso la diffusione della
tecnologia internet per mezzo di sostegni economici,
formativi e culturali (Commissione europea, 1999;
2001; 2005). In parallelo alle problematiche dovute
alla diffusione di internet, cominciò ad assumere un
ruolo economico e sociale ancora più rilevante, ri-
spetto agli anni ottanta, la progettazione
dell’interazione. La necessità di interfacce accessibili
ed usabili divenne centrale per sviluppo e la diffusio-
ne della società dell’informazione.
L’accessibilità dell’interfaccia è una questione che
Berners-Lee (1999) sintetizza come: “l’arte di garan-
tire, nella misura più ampia possibile, che servizi (come
ad esempio l’accesso al Web) siano disponibili alle per-
sone, indipendentemente dalla presenza o meno di disa-
bilità, di qualsiasi natura esse siano.” Questa è priori-
tariamente legata alla struttura formale
dell’interfaccia, intendendo con ciò tutti quegli a-
spetti di codice che concorrono nel creare
l’architettura dell’informazione (Morville e Rosen-
feld, 1998) permettendo o impedendo di fatto
l’accesso a diverse tipologie di utenti.
Durante la metà degli anni ‘90, un vasto movi-
mento normativo internazionale ha permesso lo
strutturarsi di criteri condivisi, che hanno costituito
la base per la creazione e la valutazione di interfacce
accessibili. Negli Stati Uniti, nel 1998 vengono pub-
blicate le linee guida dell’Electronic and Information
Technology Access Advisory Committee (EITAAC) co-
me emanazione della normativa USA, nota come
Section 508. Mentre già nel 1994 il World Wide
Web Consortium (W3C), aveva pubblicato le linee
guida per l’accessibilità (WCGA 1.0).
La questione delle architetture informatiche ac-
cessibili trova delle misure condivise, su cui struttu-
rare metodologie di analisi e valutazione efficaci ed
efficienti. D’altra parte invece, il campo di studi in-
terdisciplinare che insiste sul tema dell’usabilità, sof-
fre ancora la mancanza di criteri comuni su cui co-
struire, analizzare e comparare UEMs, cioè
metodologie basate su un: “standardized set of usabi-
lity metrics” (Loud, 1998a).
Le misure standardizzate di usabilità sono intese
come un insieme di criteri e definizioni condivisi,
utili per individuare le dimensioni di usabilità. Tale
standardizzazione permette di comparare i diversi
UEMs (Loud, 1998b) in base alla completezza dei
risultati (Thoroughness), alla loro correttezza (Vali-
dity)
, alla loro attendibilità (Reliability), all’efficacia
della tecnica (Effectiveness) ed alla sua efficienza (ac-
tual Efficiency) (Bastien e Scapin, 1995; Hartson et
al. 2003; Hvannberg, Law e Larusdottir, 2007; Se-
ars, 1997). Queste dimensioni hanno lo scopo di e-
videnziare i limiti ed i vantaggi delle tecniche utiliz-
zate per la valutazione dell’usabilità indicandone,
attraverso la loro comparazione, quali risultano più
efficaci ed efficienti integrando differenti tecniche ed
offrendo la possibilità di ottimizzare gli UEMs.
L’applicazione della metodologia comparativa è pos-
sibile solo se esiste un quadro di riferimento che in-
Borsci, S., Federici, S. – Dall’interazione utente-tecnologia alla valutazione dell’usabilità: Una rassegna
239
dichi le priorità di valutazione, le tecniche da inte-
grare e i criteri di base della valutazione. Tale quadro
di riferimento è rintracciabile nelle normative nazio-
nali, che recepiscono e diffondono i criteri interna-
zionali di valutazione dell’usabilità, definendo una
base comune che deve essere analizzata ed approfon-
dita; come affermato dal Consiglio della Comunità
Europea, per costruire una reale società
dell’informazione in cui l’accesso e l’uso delle tecno-
logie sia garantito a tutti, occorre: “promuovere meto-
dologie comuni e dati comparabili in relazione ai siti
web pubblici negli Stati membri e nelle istituzioni eu-
ropee(CUE, 2003).
Il contesto normativo come quadro di riferi-
mento comparativo dei UEMs
Il corpus legislativo che compone la normativa
italiana che regola, definisce e determina le tecniche
e il processo metodologico di valutazione
dell’usabilità e dell’accessibilità delle interfacce è
composto: dalla Legge 9 gennaio 2004 n. 4, cono-
sciuta come legge Stanca, dal Decreto del Presidente
della Repubblica (DPR) del 1 marzo 2005, n. 75,
dal Decreto Ministeriale (DM) dell’8 luglio 2005, e
dalle Delibere del centro nazionale per l’informatica
della pubblica amministrazione (CNIPA) del 15 set-
tembre 2005.
Nel DM vengo presentati sei allegati che conten-
gono le metodologie e le indicazioni per la verifica
tecnica delle interfacce internet, dei personal com-
puter e degli ambienti operativi, oltre alla verifica
soggettiva, contenuta nell’allegato b, intitolato: “Me-
todologia e criteri di valutazione per la verifica sogget-
tiva dell’accessibilità delle applicazioni basate su tecno-
logie internet” (DM, 2005). Sebbene si parli di
verifica soggettiva dell’accessibilità appare chiaro, sia
nel testo dell’allegato sia dai documenti della com-
missione interparlamentare permanente per
l’impiego delle ICT a favore delle categorie deboli o
svantaggiate, pubblicati nei riferimenti tecnici alla
legge Stanca (CNIPA, 2005), che le verifica sogget-
tiva si occupa dell’usabilità e della qualità
dell’interfacce.
Lusabilità è definita dalla normativa come: la
caratteristica dei servizi di rispondere a criteri di facili-
tà e semplicità duso, di efficienza, di rispondenza alle
esigenze dellutente, di gradevolezza e di soddisfazione
nelluso del prodotto (DPR, 2005). Questa defini-
zione, che si ispira sia a quella di quality in use
definita nella norma ISO/IEC 9126-1 e richiama
anche la definizione di usabilità contenuta nella
norma ISO 9241-11, è la base su cui viene: propo-
sta una metodologia per la verifica soggettiva dei diver-
si livelli di qualità di un sito Internet basata su dodici
criteri essenziali, direttamente mutuati dai quei prin-
cipi di qualità ed usabilità definiti nelle norme e docu-
mentati nella letteratura scientifica (CNIPA, 2005).
Tale proposta metodologica definisce un contesto
comune di criteri essenziali per l
usabilità espresso
in dodici punti, riportati in Appendice 1, che forni-
scono la base per la costruzione di una metodologia
integrata di valutazione dellusabilità, che parte da
tre assunti: linterfaccia per essere usabile deve essere
accessibile, indicando laccessibilità come presuppo-
sto necessario dellusabilità; per valutare lusabilità
occorre lintegrazione di più tecniche che contem-
plino sia lanalisi di esperti sia di un gruppo di uten-
ti; la base per la valutazione dellusabilità per i siti
web della pubblica amministrazione italiana è la co-
erenza ai dodici criteri essenziali indicati dalla legge.
Successivamente alla valutazione dell’accessibilità
(verifica tecnica), la verifica soggettiva si compone
attraverso una metodologia che integra più tecniche
di valutazione: un iniziale CW condotto
dall’esperto, attraverso la costruzione di scenari di
navigazione, il quale stila una valutazione in corri-
spondenza ai dodici criteri. In seguito, un gruppo di
utenti, fra cui anche soggetti diversamente abili con
le proprie tecnologie assistive, guidati dall’esperto
vengono impegnati in una task analysis in cui navi-
gano liberamente o per obiettivi e l’interazione viene
analizzata attraverso l’osservazione del comporta-
mento e congiuntamente, ove possibile, con un
thinking aloud. Infine, solo per ottenere un maggior
numero di informazioni utili per redigere la valuta-
zione finale, viene suggerito l’utilizzo di un questio-
nario psicometrico. Il documento però non da indi-
cazioni se tale questionario debba essere relativo alla
raccolta di informazioni circa la soddisfazione, le
performance o piuttosto alle specifiche del sistema.
Secondo l’UEM proposto dalla normativa italiana,
gli strumenti di analisi offrono indicatori di usabilità
diversi che devono essere commisurati ai dodici cri-
teri essenziali di usabilità. In questo senso i risultati
ottenuti da ciascuna tecnica convergono in una va-
lutazione conclusiva e sommaria indicante il pun-
teggio globale dell’interfaccia. Tale metodologia ba-
sandosi su criteri, definizioni e processi specifici,
apre la possibilità di operare comparazioni fra le
tecniche all’interno di un quadro stabile di riferi-
mento.
Borsci, S., Federici, S. – Dall’interazione utente-tecnologia alla valutazione dell’usabilità: Una rassegna
Giornale di Psicologia, Vol. 2, No. 3, 2008
ISSN 1971-9558
240 Giornaledipsicologia.it, Vol. 2, No. 3, 2008
ISSN 1971-9450
Misure di comparazione e metodologia inte-
grata
In questa seconda sezione saranno discussi i te-
mi emersi come rilevanti dall’analisi storica. In par-
ticolare verrà approfondito l’utilizzo dei criteri e del-
le definizioni, proposte dalla normativa italiana
sull’usabilità, come quadro teorico entro cui applica-
re la metodologia di comparazione. La possibilità di
rendere più efficace ed efficiente l’UEM integrato
della normativa sarà discussa sulla base delle caratte-
ristiche di Actual Efficacy, Thoroughness, Effectivness,
Reliability e Validity proprie della comparazione. In
base a questa analisi vengono presentate ed analizza-
te le tecniche di valutazione dell’usabilità proposte
dalla normativa, insieme alle possibili tecniche alter-
native e alle proposte di integrazione dell’UEM.
Comparare le tecniche di misurazione
dell’usabilità
L’esigenza di strutturare metodologie comuni e
di comparare i risultati delle valutazioni, esposta dal-
la Comunità Europea (CUE, 2003), si basa sulla
mancanza di quadri di riferimento nel campo della
valutazione delle tecnologie informatiche che possa-
no orientare la valutazione delle interfacce web e svi-
luppare proficuamente l’interazione utente-
tecnologia. La comparabilità dei risultati è possibile
solo se le tecniche impiegate sono misurate su di-
mensioni standard come la capacità di descrivere,
analizzare, predire ed individuare problemi di usabi-
lità. Nel processo di valutazione diviene fondamenta-
le l’utilizzo di più tecniche, che contribuiscano alla
completezza della valutazione, è per questo che la
normativa italiana propone una metodologia compo-
sta dall’integrazione di tecniche user ed expert based. I
benefici di un UEM integrato, sono tuttavia valuta-
bili ed implementabili solamente attraverso un pro-
cesso di analisi comparativa delle tecniche.
La comparazione di diverse tecniche di valuta-
zione dell’usabilità, come afferma Hartson et al.
(2003), parte dalla creazione di un “standard-of-
comparison usability problem set”, ovvero dei ben-
chmark utlizzati come baseline comparativa (Cuomo
e Bowen, 1994; Desurvire, Lawrence e Atwood,
1991; Desurvire, Kondziela e Atwood, 1992; Mack e
Montaniz, 1994; Nielsen, 1994b) attraverso tecniche
specifiche come:
il Seeding with known usability problems:
l’esperto inserisce nel sistema determinate pro-
blematiche per vedere se e come saranno rileva-
te dalle tecniche da comparare.
il Laboratory-based usability testing e il “Asympto-
tic laboratory-based testing: sono test da cui
l’esperto deriva una lista di problematiche
dell’interfaccia. (Virzi, 1992)
la “Union of usability problem sets over UEMs
being compared”: una tecnica strutturata da Se-
ars (1997) che deriva il set dall’unione di tutte
le problematiche individuate dai metodi che
devono essere comparati.
Indipendentemente dalla tecnica impiegata per
redigerla, sia la lista di problematiche sia i livelli di
severità di analisi decisi dall’esperto sono la base con
cui indagare l’interfaccia comparando diverse tecni-
che (Hix e Hartson, 1992; Nielsen, 1994; Rubin,
1994). Tale comparazione investe sia le analisi e-
xpert-based e la loro capacità di predire problemi di
usabilità (Predicted Usability Problems o PUP), sia
le tecniche user-based che identificano quelli che
Hvannberg, Law e Larusdottir (2007) definiscono
problemi di usabilità reali (Usability Problems o
UP), cioè le difficoltà di interazione definite e riscon-
trate dall’utente in relazione con l’interfaccia.
Come suggeriscono Bastien e Scapin (1995) esi-
stono tre caratteristiche delle tecniche che occorre
considerare nel comparare le capacità di valutazione
delle interfacce: La prima è la Thoroughness, intesa
come la completezza di risultati richiesta al UEM
nell’ identificare più problemi reali possibili di usabi-
lità, che Sears (1997) definisce come il rapporto fra
problemi identificati da una tecnica (PUP) di valuta-
zione e il numero di problemi reali (UP), secondo la
seguente formula:
Thoroughness =
number of real problems found
number of real problems that exist
(1)
Lo stesso Sears sottolinea come sia difficile stabi-
lire i problemi reali di usabilità che rappresentano
l’obiettivo principale della valutazione. Un appro-
fondimento in questo senso viene offerto da Hvan-
nberg e collaboratori (2007) il quale afferma che i
problemi utili all’analisi delle tecniche sono quelli in
comune fra PUP e UP, definiti Hits problems (HP)
intesi come i problemi predetti dalle tecniche e-
xpert-based (PUP) e verificati dalle tecniche user-
based (UP). Dunque, la completezza della tecnica è
individuata dal rapporto fra Hits problem (HP), e la
somma degli Hits problem con i Misses problem,
cioè i problemi non rilevati dagli esperti ma trovati
dalle tecniche user-based:
Thoroughness =
HP/(HP+Misses problems)
(2)
Borsci, S., Federici, S. – Dall’interazione utente-tecnologia alla valutazione dell’usabilità: Una rassegna
241
Una seconda caratteristica è la Validity. Nella mi-
sura in cui per validità si intende quanto una proce-
dura di valutazione misura ciò che è inteso misurare,
in questo contesto la validità, è la misura dei pro-
blemi predetti dalle tecniche e dei problemi reali di
interazione, ovvero la correttezza dei risultati. Il
UEM sarà tanto più valido quanto più individuerà
unicamente problemi reali di usabilità, attraverso il
rapporto fra il numero problemi rilevati e il numero
di problematiche globali del sistema (Sears, 1997):
Validity =
number of real problems found
Number of issues identified as problems
(3)
Anche in questo caso Hvannberg (2007) imple-
menta la formulazione, proposta da Sears, afferman-
do che la validità della tecnica è individuata dal rap-
porto fra Hits problems e la somma dei Hits
problems con i False problems, i problemi rilevati
dagli esperti ma che le tecniche user-based non indi-
viduano come impedimenti di interazione:
Validity =
HP /( HP +False problems) (4)
Una terza caratteristica, fondamentale per la
comparazione è la Reliability ovvero l’attendibilità
dei risultati delle tecniche che devono essere indi-
pendenti dalle performance individuali e
dell’influenza del valutatore. Sears (1997) ha svilup-
pato la seguente formula per valutare l’attendibilità
delle tecniche:
Reliability =
stdev(real problem found)
= stdev(HP)
average(real problem found) average(HP)
(
5)
Recentemente altre due caratteristiche delle tec-
niche sono state proposte per implementare le meto-
dologie comparative. La prima è l’Effectiveness (Har-
tson, 2003) che rappresenta l’efficacia di una tecnica
espressa come prodotto della completezza e della va-
lidità:
Effecti
v
eness = Thoroughness * Validity
(6)
La seconda è la Actual Efficency (AE) intesa come
l’efficienza di una tecnica (Law e Hvannberg, 2004),
ricavata dal rapporto fra i problemi reali (HP) otte-
nuti dalla sessione di test e la sua durata totale.
AE =
Number of Hits identified with the
Testing Session
Total duration (hours)of the Testing
Session
(7)
L’analisi comparativa dunque non si ferma
all’analisi dei risultati di valutazione ottenuti attra-
verso diverse tecniche ma cerca di identificare quali
tecniche siano più adatte al variare di diversi fattori:
numero di utenti che costituiscono il panel, espe-
rienza degli utenti, numero di valutatori, severità di
analisi, tipologia di raccolta delle informazioni e ti-
pologia di interfaccia.
Sebbene recentemente siano state mosse critiche
a questa impostazione comparativa, sostenendo che i
concetti di efficency e throughness siano irrilevanti
nella pratica delle HCI (Lindgaard, 2006), appare
evidente dall’analisi di molti studi comparativi pre-
senti in letteretura (Andre, Hartson e Williges, 2003;
Baauw, Bekker e Barendregt, 2007; Hartson, Andre,
Williges e Van Rens, 1999; Hvannberg et al. 2007;
Sears, 1997; Virzi, Sorce e Herbert, 1993;) che tale
metodologia di comparazione, come sostenuto da
Gray e Salzman (1998), permette una solida e rigo-
rosa base comparativa utile ad individuare quale tec-
nica offra risultati più efficaci ed efficienti al variare
dei fattori e del contesto di analisi. Occorre comun-
que considerare i limiti di questo approccio: è infatti
inutile operare un confronto fra tecniche di valuta-
zione molto diverse fra loro (Hartson et al. 2003),
poiché indagano aspetti differenti dell’usabilità.
L’analisi comparativa è quindi limitata allo studio di
tecniche strutturalmente affini. Inoltre non esistono
criteri standard di comparazione, occorre dunque
identificare per ogni analisi comparativa la “criteria
relevance” ovvero i criteri rilevanti per la valutazione
che possono modificarsi nel tempo e variare rispetto
ai quadri teorici di riferimento (Hartson et al. 2003).
In base a queste problematiche si è scelto di utilizzare
il conteso normativo come base di criteri e definizio-
ni, assumendo che la normativa presenti i criteri di
usabilità più rilevanti.
Tecniche della normativa italiana
Valutazione expert –based: Cognitive walk-
through
La simulazione cognitiva (CW) si basa sulla teo-
ria cognitiva del modello di “exploratory learning”,
proposto da Polson e Lewis (1990) e successivamente
sviluppato da questi autori in collaborazione con
Wharton e Rieman (1994). Tale modello esplorativo
cerca di analizzare le relazioni tra obiettivi, azioni e
stati visibili dell’interfaccia per rilevare problemi rela-
tivi alla facilità di apprendimento del sistema, par-
tendo dal presupposto che un utente inesperto ap-
prenda il funzionamento dell’interfaccia tramite
Borsci, S., Federici, S. – Dall’interazione utente-tecnologia alla valutazione dell’usabilità: Una rassegna
Giornale di Psicologia, Vol. 2, No. 3, 2008
ISSN 1971-9558
242 Giornaledipsicologia.it, Vol. 2, No. 3, 2008
ISSN 1971-9450
l’esplorazione. Il valutatore simula, a livello cogniti-
vo, il comportamento dell’utente tipico in interazio-
ne con la tecnologia cercando di individuare, ed e-
ventualmente predire, determinati problemi di
utilizzo, operando attraverso la costruzione di scenari
d’uso.
Questa tecnica è strutturata come un processo di
valutazione in itinere che, secondo Rieman, Franzke
e Redmiles (1995), si sviluppa partendo da tre fat-
tori di base: “a general description of who the users
will be and what relevant knowledge they possess, a
specific description of one or more representative tasks
to be performed with the system, and a list of the cor-
rect actions required to complete each of these tasks
with the interface being evaluated.” Durante
l’esecuzione di ogni task, il valutatore rispondere a
quattro step/domande principali: “The user sets a
goal to be accomplished with the system (for example,
check spelling of this document). The user searches
the interface for currently available actions (menu
items, buttons, command-line inputs, etc.). The user
selects the action that seems likely to make progress to-
ward the goal. The user performs the selected action
and evaluates the system’s feedback for evidence that
progress is being made toward the current goal” (Lewis
e Rieman, 1993; Polson, Lewis, Rieman e Whar-
ton,1992; Wharton et al. 1994). Il CW permette di
determinare se ogni azione analizzata è operabile
nell'interfaccia o se, al contrario, esistono azioni non
eseguibili.
Un interessante ampliamento di questa tecnica,
con specifico riferimento alla navigazione per obiet-
tivi, è proposto da Rizzo, Marti e Bagnara (2001) i
quali approfondiscono il legame fra CW e il “model-
lo d’azione umana in interazione con uno strumento
tecnologico” proposto da Holland, Hutchins e Nor-
man (1986). Tale modello deriva dalla teoria del
controllo delle azioni di Norman e Shallice (1980) e
tenta di dare conto sia delle fasi osservate nell'uso di
strumenti da parte di utenti, sia delle possibili diffi-
coltà di passaggio da una fase all'altra, definite di-
stanze. Questo modello presuppone una divisione in
sette fasi, che rappresentano le azioni dell’utente. La
prima è l’identificazione dell’obiettivo, da cui il sog-
getto comincia ad eseguire lazione operando in in-
put, ovvero nel lato esecuzione, attraverso: la forma-
zione dell’obiettivo (intention); la specificazione
dell’azione (action); l’esecuzione dell’azione (esecu-
tion). A seguito dell’esecuzione l’interfaccia, presen-
ta un feedback (output) da cui l’utente opera una
valutazione del raggiungimento dell’obiettivo che si
compone di: percezione dello stato del mondo (Per-
ception); interpretazione dello stato del mondo (In-
terpretation); valutazione del risultato (Evaluation)
(vedi Figura 1) (Rizzo et al. 1998). Ogni passaggio,
sia sul lato esecuzione che su quello valutazione, pre-
suppone uno sforzo dell’utente (distanza). Le di-
stanze sono tre, due delle quali sono presenti sia sul
lato dell'esecuzione che sul lato della valutazione: la
distanza semantica e la distanza referenziale. La terza
distanza si riferisce al passaggio dall'esecuzione alla
valutazione dell'azione. La distanza semantica, nel
lato esecuzione, riguarda la relazione fra le intenzio-
ni dell'utente ed il significato dei comandi che è
possibile eseguire sull'interfaccia. Tale distanza risul-
ta funzione della facilità con cui l'interfaccia fornisce
mezzi e strumenti per esprimere le intenzioni dell'u-
tente. Nel lato valutazione, la distanza semantica si
riferisce all'elaborazione che è richiesta all'utente per
determinare se le condizioni di soddisfacimento del-
le proprie intenzioni sono state realizzate. La distan-
za referenziale o “di riferimento” intercorre, sia nel
lato esecuzione che in quello della valutazione, fra il
significato dell’azione che vogliamo svolgere e la sua
forma fisica. Infine, la distanza inter-referenziale ri-
guarda il passaggio dall’esecuzione alla valutazione e
la relazione fra le forme di input e quelle di output
presenti nel corso dell'interazione uomo-computer.
Questa distanza è massima quando il passaggio
da esecuzione (input) a valutazione (output) non è
percepito come consequenziale, per cui l’utente deve
compiere uno sforzo cognitivo per ricostruire se
l’input è stato inserito correttamente attraverso
l’output. Per esempio, se premiamo il tasto di una
calcolatrice dobbiamo osservare il display per sapere
se abbiamo inserito il numero giusto o se abbiamo
commesso un errore. Quando invece l'output del
sistema può essere liberamente usato come input o
perlomeno come una sua componente, tale distanza
è ridotta, per esempio se clicchiamo un icona sul
desktop, l’icona si evidenzia quando viene puntata,
diminuendo lo sforzo cognitivo per raggiungere il
risultato. In questo caso l’icona, che è un output del
sistema, è al contempo un mezzo per le azioni che
l’utente può eseguire come input nel sistema.
Borsci, S., Federici, S. – Dall’interazione utente-tecnologia alla valutazione dell’usabilità: Una rassegna
243
Figura 1. Rappresentazione dell’implementazione del modello d’azione umana in interazione con uno strumento
tecnologico di Norman e Shallice (Rizzo et al. 1998).
In uno studio condotto da Rizzo, Marchigiani e
Andreadis (1998) viene proposto di integrare nel
modello una quarta distanza detta di scenario (Issue
distance), che riguarda la distanza fra l’obiettivo che
l’utente si è formulato prima di iniziare l’interazione
e l’obiettivo che emerge durante l’interazione, più
adatto alla situazione interattiva, come mostrato in
Figura 1. Spesso, infatti, i problemi nascono dal fat-
to che il sistema non è in grado di suggerire obiettivi
od indurre aspettative che sono coerenti con quanto
è effettivamente possibile fare attraverso di esso. Ta-
le distanza è sia sul lato dell’esecuzione che su quello
della valutazione e corrisponde alla quantità di ela-
borazione dell’informazione necessaria all’utente per
capire che lo scopo non è raggiungibile e che un al-
tro scopo più interessante per la attività può essere
raggiunto. Le implementazioni proposte da Rizzo
mettono al centro dell’analisi tramite CW la costru-
zione degli scenari, intesi come un mezzo che per-
mette ai progettisti e agli utenti di descrivere attività
esistenti, di prevedere o immaginare nuove attività
che possano essere prodotte dall’interazione con un
artefatto (Carroll, 1997).
Sia il CW basato sulla teoria dell’apprendimento
esplorativo, sia l’implementazione basata sull’analisi
delle distanze soffrono dell’impossibilità di genera-
lizzare i risultati poiché il valutatore è in grado so-
lamente di simulare la divisione di un compito nelle
sue diverse componenti e le capacità, le conoscenze e
le attitudini degli utenti finali, ma non di rappresen-
tare realmente queste caratteristiche. L’analisi com-
parativa dei risultati del CW e di tecniche alternati-
ve di simulazione potrebbe essere utile sia per capire
quale modello di CW possa ritenersi più efficiente
all’interno di una metodologia di analisi integrata,
sia per implementare un tool in grado di ottimizzare
gli scenari, sia per rendere le predizioni della tecnica
più efficaci in relazione al integrazione valutativa
delle altre tecniche, sia per comprendere se esistono
tecniche alternative che offrono possibilità di analisi
più efficaci ed efficienti.
Task analysis e thinking aloud
La metodologia proposta dalla legge Stanca
(Legge 9 gennaio 2004, n.4) afferma chiaramente
che la task analysis debba essere condotta dall’utente
che esplicita le difficoltà di interazione (thinking a-
loud) all’esperto. Come affermato nei quaderni del
CNIPA (2005) la task analysis mira a scomporre le
azioni necessarie nell'esecuzione di un compito per
mezzo dell’interfaccia del sistema che si intende ana-
Borsci, S., Federici, S. – Dall’interazione utente-tecnologia alla valutazione dell’usabilità: Una rassegna
Giornale di Psicologia, Vol. 2, No. 3, 2008
ISSN 1971-9558
244 Giornaledipsicologia.it, Vol. 2, No. 3, 2008
ISSN 1971-9450
lizzare in sequenze “elementari”. Questa scomposi-
zione consente di effettuare delle previsioni circa la
facilità e gli sforzi necessari a compiere l’azione. Essa
è misurata dal numero di sequenze elementari neces-
sarie a compiere l’azione e dall’altro dalla complessi-
tà in termini cognitivi (e fisici) di ogni singola se-
quenza. All’interno della metodologia, proposta
dalla legge Stanca (Legge 9 gennaio 2004, n.4), due
tecniche task analysis affini fra loro posso essere uti-
lizzate, la prima è quella gerarchica (HTS) e la se-
conda è quella GOMS (GTS). Nella HTS, sviluppa-
ta da Annett e Ducan (1967), l’esperto analizza
l’esecuzione dei task rispetto agli obiettivi finali,
analizzando l’interazione degli utenti in termini di
gerarchie di operazioni, obiettivi e piani ottenendo
informazioni sulla performance dell’utente. (Annet,
2004; Annett, Duncan, Stammers, e Gray, 1971;
Kirwan e Ainsworth, 1992)
Nella GTS l’esperto, durante l’esecuzione dei
compiti, osserva la performance degli utenti compa-
randole alle performance standardizzate del modello
GOMS (Card et al 1983; John e Kieras, 1996a;
1996b; Kieras, 2004). L’utilizzo del GOMS, po-
nendo attenzione agli obiettivi degli utenti in intera-
zione, permette di avere un vantaggio rispetto
all’HTS che si riscontra nella capacità predittiva dei
tempi di apprendimento e della performance, (Kie-
ras, 2004), d’altra parte la HTS si concentra
nell’analisi delle azioni compiute dagli individui e
sulle loro relazioni. In entrambe queste tecniche,
come proposto dalla normativa, possono essere rac-
colte informazioni aggiuntive attraverso il thinking
alous. Questo metodo, che mutua i propri strumenti
dalla ricerca psicologica, consiste nel far verbalizzare
agli utenti quello che pensano durante l'esecuzione
di una attività o compito. Obiettivo del thinking
aloud è quello di far emergere le logiche di intera-
zione e il modello dell'utente. Un esempio di questa
tecnica, e del set ottimale per attuarla, è presentato
da Nielsen (2006), che propone una seduta di test
in cui l’utente interagisce con l’interfaccia con un
“facilitatore” al suo fianco, mentre uno o due osser-
vatori sono posti due metri alle sue spalle. Occorre
sottolineare comunque il limite di questa metodolo-
gia che risiede nel fatto che l’utente è sottoposto ad
un doppio sforzo cognitivo: l’azione e la verbalizza-
zione.
L’utilizzo congiunto della task analysise del thin-
king aloud permette di analizzare sia la performance
e le strategie d’azione sia di cogliere le problematiche
percepite dall’utente come rilevanti. Tuttavia, occor-
re considerare che produrre verbalmente le inten-
zioni e i processi mentali non è un atto cosciente
molto semplice da compiere e che, spesso, tale diffi-
coltà è luogo di importanti vincoli di analisi. Inoltre
un altro limite, che deriva dall’utilizzo congiunto
della task analysis e del Thinkin aloud, è da rintrac-
ciarsi nell’inapplicabilità del thinking aloud a sog-
getti diversamente abili che presentano limitazioni
nella produzione linguistica o con disturbi psico-
fisici che si riflettono sulle abilità di svolgere con-
temporaneamente esecuzione e verbalizzazione. In
base a queste lacune applicative della tecnica, ed in
considerazione del fatto che la normativa prevede la
non applicabilità ad ogni utente del thinking aloud,
sarebbe opportuno indagare i limiti di tali strumenti
d’analisi per compararne vantaggi e svantaggi e co-
struire un set di tools adattabile al pannel di utenti
impegnati nella valutazione.
La misurazione soggettiva: strumenti psico-
metrici
La dicotomia fra misure oggettive, intese come
misurazione quantitativa della performance e quelle
soggettive, intese come esperienza di coscienza, è
sempre più marcata nel campo della valutazione
dell’usabilità. Secondo Annet (2002a) tale dicoto-
mia è intesa in termini troppo assoluti, poiché le mi-
surazioni soggettive possono variare in base al “de-
gree of shared meaning”, inteso come l’insieme degli
strumenti e delle condizioni di analisi che gli osser-
vatori condividono indipendentemente l’uno
dall’altro. Quando tale grado di condivisione o in-
tersoggettività, è massimo la valutazione rivela un
certo grado di oggettività di analisi: “Two people loo-
king at the same instrument under the same circum-
stances will normally agree on the reading, which can
then be taken as objective `fact’”(Annet, 2002a p.
968) ma tale convergenza è l’eccezione e non la
norma dell’analisi soggettive. In questo senso la di-
cotomia fra oggettive e soggettivo non si gioca fra
due opposti inconciliabili, ma fra due termini e-
stremi di una stessa scala. Le misurazioni soggettive
sono considerate uno strumento essenziale della va-
lutazione, in quanto raccolgono informazioni e pro-
blematiche dell’esperienza interattiva vissuta
dall’utente. Il tema della valutazione soggettiva è sta-
to ampiamente dibattuto in letteratura, sviscerando
molteplici aspetti che intervengono sulla natura stes-
sa della valutazione: innanzitutto la soggettività è
considerata pervasiva, cioè una caratteristica che in-
veste ogni campo della valutazione, poiché anche le
misurazioni expert e model based sono influenzate
dalla soggettività del valutatore (Annet, 2002a; Ba-
ber, 2002; Hancock, Weaver e Parasuraman, 2002;
Stanton e Stammers, 2002). Un secondo tema por-
tante nel dibattito riguarda la misurazione soggettiva
Borsci, S., Federici, S. – Dall’interazione utente-tecnologia alla valutazione dell’usabilità: Una rassegna
245
(Annett, 2002a; 2002b; Drury, 2002; Kirakwski,
2002; McKenna, 2002) intesa come: una classe og-
gettiva di dati utile per conoscere il comportamento
di chi compie la valutazione (Annett, 2002b; Mi-
chell, 2002). La valutazione soggettiva viene impie-
gata per individuare relazioni che non possono esse-
re analizzate senza l’ausilio dell’utente come:
workload, fatigue, stress, motivation, satisfaction, pre-
ference, performance, usability, comfort” (Salvedy,
2002). Gli strumenti psicometrici, in questo senso,
intendono offrire un’analisi multidimensionale
dell’usabilità, affrontando un set complesso di varia-
bili poiché, come sottolinea Kirakowski (2002), la
valutazione dell’usabilità è una combinazione del
giudizio personale dell’utente, come per esempio la
soddisfazione, e di dati oggettivi come la performan-
ce. D’altra parte, sebbene esistano interessanti analisi
sulla multidimensionalità dell’usabilità (Chin, Diehl
e Norman, 1988; Glendon, Stanton e Harrison,
1994; Jordan, 1994) tale temantica: “non è stata an-
cora affrontata attraverso uno studio sistematico in
grado di fornire gli elementi sui quali eventualmente
costruire delle metriche” (Di Nocera, Ferlazzo e Ren-
zi, 1999). La validità degli strumenti di valutazione
soggettiva è determinata dalla relazione con altre mi-
sure di interesse in un dato contesto, intendendo
con ciò che la valutazione soggettiva ha una validità
predittiva rispetto alle variabili di studio e che una
data misura soggettiva è raramente valida da sola,
ma può essere utilizzata come indicatore di unaltra
misura (Annet, 2002a; 2002b). In questo senso
l’idea di integrazione delle tecniche sembra essere
affermata come un’esigenza stessa della natura sog-
gettiva delle misurazione dell’usabilità. La normativa
italiana sembra recepire l’importanza degli strumenti
psicometrici, come strumenti che tentano di offrire
un’analisi multidimensionale, proponendo l’utilizzo
di un questionario come strumento di analisi utile
per completare il quadro valutativo. Una mancanza
dell’UEM proposta dalla legge Stanca (Legge 9 gen-
naio 2004, n.4) risiede, tuttavia, nel non specificare
strumenti e obiettivi del questionario da sottoporre
agli utenti a seguito della task analysis e del thinking
aloud.
Esiste un’ampia letteratura sull’impiego dei que-
stionari per rilevare e monitorare la percezione di
usabilità che gli utenti maturano in relazione
all’utilizzo del sistema e per decidere gli interventi
da operare sull’interfaccia. A seconda dell’approccio
teorico e degli obiettivi di analisi, sono state svilup-
pate diverse tipologie di questionari; i più utilizzati
in letteratura sono:
- il QUIS (Questionnaire for User Interaction
Satisfaction), sviluppato nel 1988 muove
dall’assunto che la soddisfazione d’uso dell’utente,
intesa come soddisfazione soggettiva, sia un indica-
tore rilevante dell’usabilità del sistema (Chin et al.
1988; Wallace, Norman K.L. e Plaisant, 1988;
Shneiderman, 1987), poiché indipendentemente
dalle altre qualità interattive, un’interfaccia non
soddisfacente non permette all’utente la qualità
d’uso necessaria all’interazione. Questo strumento,
arrivato alla versione 7.0 di sviluppo, è composto da
undici sezioni costruite in maniera gerarchica (Har-
per, Slaughter e Norman K.L., 1997): un questiona-
rio anagrafico, sei scale che misurano
un’impressione generale sul sistema, quattro misure
relative a fattori specifici dell’interfaccia e, infine,
una sezione opzionale che valuta l’help ondine e la
manualistica di supporto. La valutazione è espressa
su una scala a 9 punti.
- Il SUMI (Software Usability Measument In-
ventory) sviluppato dallo Human Factors Research
Group dell'Università di Cork (Irlanda) nel 1990, è
composto di 50 items organizzati, in cinque sotto-
scale, ognuna delle quali indaga: efficiency, affect,
helpfulness, control, learnability. È stata, inoltre, indi-
viduata una global scale composta dai due items più
significativi di ognuna delle 5 sottoscale (Kirako-
wski, 1998; Kirakowski e Corbett 1993).Tale que-
stionario, si sviluppa sulle metriche dalla definzione
ISO 9241-11 identificando come determinante per
la valutazione dell’usabilità: “effciency, effectiveness
and satisfaction”. La valutazione è espressa su una
scala a 3 punti (accordo, indeciso e disaccordo).
Come sottolinea Kiriakowsky (2002), lo scopo dei
questionari di soddisfazione è misurare: “the personal
quality of the user’s experience”. Il SUMI, nato espres-
samente per valutare la soddisfazione d’uso degli u-
tenti in interazione con un software è stato spesso
utilizzato per la valutazione delle interfacce internet,
sebbene lo stesso centro di ricerca, abbia proposto
per le strutture web un questionario specifico, il
WAMMI (Website Analysis and Measurement In-
ventory). Le caratteristiche di questo strumento so-
no simili, per struttura e risultati, a quelle del
SUMI, differenziandosi nelle scale che sono costrui-
te per rilevare il giudizio degli utenti sull’usabilità
delle interfacce valutando: attractiveness, controlabi-
lity, efficiency, helpfulness e learnability. In letteratura
si trovano giudizi contrastanti sulla validità del
SUMI, da alcuni è considerato uno dei migliori
strumenti validati (Baber, 2002) mentre per altri a
questo strumento manca una validazione su criteri
esterni (Annet, 2002a). Il SUMI e il WAMMI sono
strumenti che fanno esplicito riferimento alla multi-
dimensionalità dell’usabilità, sebbene alcune analisi
comparative ne abbaino dimostrano l’efficacia e
Borsci, S., Federici, S. – Dall’interazione utente-tecnologia alla valutazione dell’usabilità: Una rassegna
Giornale di Psicologia, Vol. 2, No. 3, 2008
ISSN 1971-9558
246 Giornaledipsicologia.it, Vol. 2, No. 3, 2008
ISSN 1971-9450
l’efficienza d’analisi, non è chiaro come siano state
ricavate le metriche multidimensionali che compon-
gono le sotto scale e la scala globale impiegate per la
valutazione dell’usabilità.
- Il CSUQ (Computer System Usability Que-
stionnaire), sviluppato presso la IBM sulla base degli
studi di Lewis del 1995, è un evoluzione del PSSUQ
(The Post-Study System Usability Questionnaire)
sviluppato per misurare la soddisfazione degli utenti
in interazione con un sistema in ambienti di labora-
torio tramite domande contestualizzate all’indagine
(Lewis,1992). Il CSUQ si differenzia dal suo prede-
cessore perché non è contestualizzato, può essere
utilizzato fuori dai laboratori, ed è costruito per cre-
are fattori stabili di indagine. L’assunto da cui muo-
ve è che l’usabilità sia correlata a misure standardiz-
zate di soddisfazione e lo scopo di tale strumento è
quello di fornirle. Il CSUQ si compone di 19 do-
mande con una scala a sette punti con un range da
Strongly Disagree” a “Strongly Agree”. Sviluppato
come test per l’usabilità dei software, il suo utilizzo è
stato esteso più in generale alle interfacce.
- Il SUS (System Usability Scale) è stato svilup-
pato nel 1986 dal Digital Equipment Corporation
ed implementato nel 1996 come scala globale
dell’usabilità di un sistema in un contesto (Brooke,
1996). Questo strumento valuta la soddisfazione in-
tesa come risposta soggettiva nell’iterazione con un
sistema, non utilizza metriche multidimensionali ma
cerca di cogliere l’usabilità come attitudine
dell’utente ad una specifica interfaccia in un deter-
minato contesto d’uso, rifacendosi alla definizione
ISO 9241-11. Il SUS è composto di dieci domande,
misurate su una scala a cinque punti, con un range
da “Strongly Disagree” a “Strongly Agree”. È l’unico
questionario adattabile alla valutazione dell’usabilità
sia dei software che delle interfacce web, poiché va-
luta la soddisfazione dell’utente nei confronti del
sistema inteso come interfaccia. Tale strumento ha il
vantaggio di essere già stato impiegato nel contesto
metodologico della normativa italiana in una ver-
sione tradotta (Mobilio, 2006) e di essere considera-
to estremamente leggero impiegando l’utente in uno
sforzo minimo di valutazione (Green, Byrne e Eve-
ret, 2006), tuttavia analisi recenti hanno individuato
alcune lacune linguistiche di questo strumento, nella
sua versione inglese, che influenzano la comprensio-
ne delle domande da parte di utenti non madrelin-
gua (Finstad, 2006).
- L’Us.E. (Usability Evaluation) sviluppato nel
1999, presso il laboratorio di ergonomia cognitiva
del Dipartimento di Psicologia dell’Università degli
studi di Roma “La Sapienza” parte dall’assunto che
l’usabilità è un costrutto multidimensionale (Di
Nocera et al, 1999; Di Nocera, Ferlazzo e Renzi,
2003). Costruito, nella versione 1.0., su quattro di-
mensioni ricavate tramite analisi fattoriale è giunto,
nell’attuale versione di sviluppo 1.1. ad una compo-
sizione in tre dimensioni: maneggevolezza, soddisfa-
zione e attrattiva (Terenzi, Di Nocera, Ferlazzo e
Renzi, In press; Terenzi, Di Nocera, Ferlazzo,
2006). La dimensione di maneggevolezza, in cui è
confluita anche la dimensione di prevedibilità auto-
noma nella versione di Us.E. 1.0., si riferisce alla fa-
cilità di navigazione tra e all'interno delle pagine,
all'individuazione dei contenuti cui l'utente è inte-
ressato e, in generale, all'interazione con le proprietà
strutturali del sito (Terenzi e Di Nocera, 2004). La
dimensione di soddisfazione, invece, fornisce indica-
zioni relativamente al giudizio di soddisfazione
dell'utente, soprattutto in riferimento all'utilità per-
cepita del sito. Infine, la dimensione dell’attrattiva si
riferisce principalmente alle impressioni di piacevo-
lezza suscitate dai contenuti del sito, dal suo aspetto
estetico, nonché dalla presenza e dalla qualità di ma-
teriale scaricabile. Tale caratteristica si estende a tut-
ti gli aspetti in grado di sorprendere, piacevolmente
o meno, l'utente. Us.E. 1.1. si compone di 24 do-
mande con una scala a cinque punti con un range
da “Assolutamente Falso” ad “Assolutamente Vero”.
Tale strumento costruito e validato in italiano è di-
retto alla misurazione dell’usabilità delle interfacce
web.
Tecniche e strumenti integrabili
I criteri dell’usabilità e l’Heuristic Walk-
through
I criteri essenziali dell’usabilità dichiarati nella
normativa Italiana, diventano, all’interno del quadro
metodologico proposto, il perno centrale dell’analisi
dell’usabilità. Ogni criterio diventa obiettivo della
valutazione dell’esperto tramite simulazione cogniti-
va e, in base a questa valutazione, si determina una
base-line” che l’esperto approfondisce attraverso la
task analysis, il thinking aloud e l’utilizzo di un que-
stionario psicometrico, ottenendo così una valuta-
zione globale dell’interfaccia. I criteri essenziali pos-
sono essere assimilabili ad euristiche, se per euristiche
intendiamo criteri stabiliti attraverso l’esperienza spe-
rimentale (Nielsen e Molich, 1990) che definisco
l’usabilità di un’interfaccia. L’utilizzo di euristiche
per la valutazione dell’usabilità proposte da Nielsen
(Molich e Nielsen, 1990; Nielsen et al. 1990; Niel-
sen, 1994a; Nielsen, 1994b) ha avuto un enorme e-
spansione dai primi anni ’90 ad oggi, diversi studi
hanno implementato e testato liste di euristiche al-
Borsci, S., Federici, S. – Dall’interazione utente-tecnologia alla valutazione dell’usabilità: Una rassegna
247
ternative a quelle sviluppate da Nielsen, come ico-
gnitive engineering principles” sviluppati da Gerhardt-
Powals (1996); tuttavia, in sedi sperimentali, le euri-
stiche di Nielsen hanno dimostrato un’ottima robu-
stezza se comparate con altre liste (Hvannberg et al.
2007).
Un’analisi delle corrispondenze fra i criteri della
Legge Stanca (Legge 9 gennaio 2004, n.4) e le euri-
stiche di Nielsen mostra come solo due dei dodici
criteri normativi non trovano corrispondenza con le
dieci euristiche (vedi Appendice 2). Questa alta cor-
rispondenza lascia supporre che i criteri di usabilità
esposti dalla legge siano utilizzabili come delle vere e
proprie euristiche. Tale parallelo offre l’opportunità
di comparare il primo step della metodologia esposta
dalla normativa Italiana, composto dal CW, con una
tecnica di valutazione dell’usabilità sviluppata da Se-
ars (1997), chiamata l’Heuristic Walkthrough (HC).
L’HC si struttura in due fasi: la prima è
un’analisi di una lista di task prioritari
dell’interfaccia ricavati utilizzando quattro “thought-
focusing questions” (Sears,1997) del tutto assimilabili
agli step del classico CW (Polson et al. 1990; 1994);
la seconda fase è un’analisi del sistema attraverso le
euristiche. Il rapporto globale dei problemi di usabi-
lità è quindi un composto delle due fasi, in cui, come
dimostra questo autore nella sua analisi comparativa,
vengono individuati un numero di problematiche di
media e bassa gravità molto più alto rispetto sia al
classico CW sia all’analisi euristica, sottolineando
anche un’efficienza di risultati maggiore rispetto alle
tecniche comparate poiché minore è il numero di
valutatori e più attendibili si dimostrano i risultati
dell’HC.
D’altra parte tale tecnica è esposta a debolezze
che occorre sottolineare: le problematiche rilevate
sono meno dettagliate del CW, il valutatore si foca-
lizza sulle euristiche e non sull’analisi
dell’interazione, utilizzando task meno specifici e fo-
calizzati rispetto al CW, inoltre l’esperto può essere
indotto a trascurare le problematiche psicologiche
connesse ai compiti svolti dall’utente, perdendo det-
tagli d’analisi presenti nel CW. L’analisi comparativa
potrebbe suggerire se, all’interno della metodologia
integrata proposta dalla normativa italiana, tali limiti
sono superati e se l’HC, considerato come una tecni-
ca alternativa al CW, migliora l’efficacia e l’efficienza
globale di valutazione del UEM.
La scelta di un questionario per l’integrazione
della valutazione
L’utilizzo del questionario, proposto nel corpo
normativo sull’usabilità, è inteso come una tecnica
utile a completare e definire le informazioni già rac-
colte sull’interfaccia per redigere il rapporto finale.
Tutti i questionari, discussi precedentemente, evi-
denziano solide capacità di analisi. Tuttavia sembra
opportuno, per individuare lo strumento che meglio
si adatta alla UEM della normativa, operare
un’analisi comparativa dei diversi questionari, asso-
ciando le analisi di questi alle valutazioni ottenute
dalle altre tecniche di analisi proposte nell’UEM.
Questa analisi permetterebbe di comparare tali stru-
menti intesi come integrativi della valutazione in un
contesto di tecniche associate, offrendo la possibilità
di individuare se esistono differenze tali da poter so-
stenere che uno strumento sia più adatto di altri
all’interno della metodologia proposta dalla normati-
va.
Conclusioni
La metodologia di analisi comparativa di un
UEM con tecniche integrate deve utilizzare un ap-
proccio olistico che tenga conto della soggettività
pervasiva nelle tecniche di valutazione (Annett,
2002a), dei loro limiti specifici e dei risultati com-
plessivi ottenuti con l’integrazione. La normativa ita-
liana sull’usabilità è intesa, in questa analisi, come il
perno centrale della comparazione delle tecniche
poiché costituisce una base di criteri e principi co-
muni entro i quali operare.
L’analisi svolta, suggerisce l’idea che la compara-
zione, attraverso le caratteristiche di Actual Efficacy,
Thoroughness, Effectivness, Reliability e Validity offra
la possibilità di stabilire ed ottimizzare efficacia ed
efficienza della metodologia di valutazione
dell’usabilità permettendo, inoltre, l’analisi di tecni-
che alternative, come quelle proposte nei paragrafi
4.1. e 4.2., che pur rispettano i principi normativi,
utilizzano approcci diversi di valutazione. La compa-
razione permetterebbe di:
Valutare l’efficacia e l’efficienza della meto-
dologia per l’analisi soggettiva dell’usabilità
proposta dalla normativa italiana.
Creare strumenti per semplificare l’analisi.
Offrire una serie di strumenti alternativi per
rispondere alle diversità contestuali di anali-
si.
Occorre sottolineare che l’applicazione della me-
todologia comparativa all’interno del quadro teorico
della normativa è stata una scelta dovuta sia alla ne-
cessità di poggiare la comparazione all’interno di un
quadro unitario e condiviso a livello internazionale,
Borsci, S., Federici, S. – Dall’interazione utente-tecnologia alla valutazione dell’usabilità: Una rassegna
Giornale di Psicologia, Vol. 2, No. 3, 2008
ISSN 1971-9558
248 Giornaledipsicologia.it, Vol. 2, No. 3, 2008
ISSN 1971-9450
che la normativa rispecchia, sia una scelta metodolo-
gica poiché, essendo il quadro normativo basato su
processi, definizioni e criteri condivisi, le analisi e le
considerazioni proposte possono ritenersi estendibili
ad un quadro più generale di valutazione
dell’usabilità rispondendo al bisogno sottolineato da
Hartson, Andre, Williges (2003) della creazione di
strumenti e metodi per supportare gli esperti nella
valutazione: “We also believe that both usability resear-
chers and usability practitioners will benefit from me-
thods and tools designed to support UEMs by facilita-
ting usability problem classification, analysis, reporting,
and documentation, as well as usability problem data
management”.
Appendice 1. I dodici criteri essenziali di usabilità della legge Stanca.
percezione: informazioni e comandi necessari per l’esecuzione dell’attività devono essere sempre disponibili e per-
cettibili;
comprensibilità: informazioni e comandi necessari per l’esecuzione delle attività devono essere facili da capire e da
usare;
operabilità: informazioni e comandi devono consentire una scelta immediata della azione adeguata per raggiungere
l’obiettivo voluto;
coerenza: simboli, messaggi e azioni devono avere lo stesso significato in tutto l’ambiente;
salvaguardia della salute (safety): l’ambiente deve possedere caratteristiche idonee a salvaguardare il benessere psi-
cofisico dell’utente;
sicurezza: l’ambiente deve possedere caratteristiche idonee a fornire transazioni e dati affidabili, gestiti con adeguati
livelli di sicurezza;
trasparenza: l’ambiente deve comunicare all’utente lo stato, gli effetti delle azioni compiute e le informazioni neces-
sarie per la corretta valutazione della dinamica dell’ambiente stesso;
apprendibilità: l’ambiente deve possedere caratteristiche di utilizzo di facile e rapido apprendimento;
aiuto e documentazione: funzioni di aiuto, quali le guide in linea, e documentazione relativa al funzionamento
dell’ambiente devono essere di facili reperimento e connesse al compito svolto dall’utente;
tolleranza agli errori: l’ambiente, pur configurandosi in modo da prevenire gli errori, ove questi, comunque, si
manifestino, deve fornire appropriati messaggi che individuino chiaramente l’errore occorso e le azioni necessarie
per superarlo;
gradevolezza: l’ambiente deve possedere caratteristiche idonee a favorire e mantenere l’interesse dell’utente;
flessibilità: l’ambiente deve tener conto delle preferenze individuali e dei contesti.
Appendice 2. Comparazione fra i criteri della normativa italiana e le euristiche di Nielsen.
Criteri della normativa italiana Euristiche di Nielsen
Percezione:
Le informazioni e i comandi necessari per l’esecuzione
dell’attività devono essere sempre disponibili e percettibili.
Visibility of system status
The system should always keep users informed about what is
going on, through appropriate feedback within reasonable
time.
Comprensibilità:
Le informazioni e i comandi necessari per l’esecuzione delle atti-
vità devono essere facili da capire e da usare.
Match between system and the real world
The system should speak the users' language, with words,
phrases and concepts familiar to the user, rather than sys-
tem-oriented terms. Follow real-world conventions, making
information appear in a natural and logical order
Operabilità:
Informazioni e comandi sono tali da consentire una scelta im-
mediata della azione adeguata per raggiungere l’obiettivo voluto.
User control and freedom
Users often choose system functions by mistake and will
need a clearly marked "emergency exit" to leave the un-
wanted state without having to go through an extended dia-
logue. Support undo and redo
Borsci, S., Federici, S. – Dall’interazione utente-tecnologia alla valutazione dell’usabilità: Una rassegna
249
Coerenza:
Stessi simboli, messaggi e azioni devono avere gli stessi significati
in tutto l’ambiente.
Consistency and standards
Users should not have to wonder whether different words,
situations, or actions mean the same thing. Follow platform
conventions.
Salvaguardia della salute (safety):
Indica le caratteristiche che deve possedere l’ambiente per salva-
guardare e promuovere il benessere psicofisico dell’utente.
Error prevention
Even better than good error messages is a careful design
which prevents a problem from occurring in the first place.
Either eliminate error-prone conditions or check for them
and present users with a confirmation option before they
commit to the action.
Sicurezza:
Indica le caratteristiche che l’ambiente deve possedere per fornire
transazioni e dati affidabili, gestiti con adeguati livelli di sicurez-
za.
None
Trasparenza:
Lambiente deve comunicare il suo stato e gli effetti delle azioni
compiute. All’utente devono essere comunicate le necessarie in-
formazioni per la corretta valutazione della dinamica
dell’ambiente.
None
A
pprendibilità:
Indica le caratteristiche che l’ambiente deve possedere per con-
sentire l’apprendimento del suo utilizzo da parte dell’utente in
tempi brevi e con minimo sforzo.
Recognition rather than recall
Minimize the user's memory load by making objects, ac-
tions, and options visible. The user should not have to re-
member information from one part of the dialogue to an-
other. Instructions for use of the system should be visible or
easily retrievable whenever appropriate.
A
iuto e documentazione:
Fornire funzioni di aiuto come guide in linea e documentazione
relative al funzionamento dell’ambiente. Le informazioni di aiu-
to devono essere facili da trovare e focalizzate sul compito
dell’utente.
Help and documentation
Even though it is better if the system can be used without
documentation, it may be necessary to provide help and
documentation. Any such information should be easy to
search, focused on the user's task, list concrete steps to be
carried out, and not be too large.
Tolleranza agli errori:
L’ambiente deve prevenire gli errori e, qualora questi accadano,
devono essere forniti appropriati messaggi che indichino chiara-
mente il problema e le azioni necessarie per recuperarlo.
Help users recognize, diagnose, and recover from errors
Error messages should be expressed in plain language (no
codes), precisely indicate the problem, and constructively
suggest a solution.
Gradevolezza:
Indica le caratteristiche che l’ambiente deve possedere per favori-
re e mantenere l’interesse dell’utente.
esthetic and minimalist design
Dialogues should not contain information which is irrele-
vant or rarely needed. Every extra unit of information in a
dialogue competes with the relevant units of information
and diminishes their relative visibility.
Flessibilità:
L’ambiente deve tener conto delle preferenze individuali e dei
contesti.
Flexibility and efficiency of use
Accelerators -- unseen by the novice user -- may often speed
up the interaction for the expert user such that the system
can cater to both inexperienced and experienced users. Allow
users to tailor frequent actions.
Bibliografia
Andre, T.S., Hartson, H.R., and Williges, R. (2003).
Determining the Effectiveness of the Usability
Problem Inspector: A Theory-based model and tool
for finding usability problem. Human Factors, 45(3),
455-482.
Annett, J. (2002a). Subjective rating scales: Science or
art? Ergonomics, 45(14), 966-987.
Annett, J. (2002b). Subjective rating scales: a replay.
Ergonomics, 45(14), 1042-1046.
Annett, J. (2004). Hierarchical Task Analysis. In D.
Diaper e N. Stanton (Eds.) The Handbook of Task
Analysis for Human-Computer Interaction, New York:
Borsci, S., Federici, S. – Dall’interazione utente-tecnologia alla valutazione dell’usabilità: Una rassegna
Giornale di Psicologia, Vol. 2, No. 3, 2008
ISSN 1971-9558
250 Giornaledipsicologia.it, Vol. 2, No. 3, 2008
ISSN 1971-9450
LEA
Annett, J. and Duncan, K.D. (1967). Task Analysis and
Training Design. Occupational Psychology 41, 211-
221.
Annett, J., Duncan, K. D., Stammers, R. B., and Gray,
M. J. (1971). Task analysis. London: Her Majesty’s
Stationery Office.
Baber, C. (2002). Subjective evaluation of usability.
Ergonomics, 45(14), 1021-1025.
Bastien, J.M.C., and Scapin, D.L. (1995). Evaluating a
user interface with ergonomic criteria. International
Journal of Human–Computer Interaction, 7, 105–121.
Bekker, M.E., Baauw, E., and Barendregt, W. (2007). A
comparison of two analytical evaluation methods for
children’s computer games. Cognition, Technology and
Work. Accepted 4 March 2007, Retrived 20, May
2007
from:http://www.springerlink.com/content/y152141
144210k32/fulltext.pdf
Berners-Lee, T. (1999). Weaving the Web. San Francisco:
Harper.
Bevan, N. (1999). Quality in Use: Meeting User Needs
for Quality. Journal of Systems and Software. 49, (1)
89-96.
Bevan, N. (2001). International standards for HCI and
usability. International Journal of Human–Computer
Studies, 55, 533–552.
Bias, R. (1991). Walkthroughs: Efficient collaborative
testing. IEEE Software, 8(5), 94–95.
Bovair, S., Kieras, K.E., and Polson, P.G. (1990). The
acquisition and performance of text editing skill: A
production system analysis. Human Computer
Interaction, 5, 1-48.
Brooke, J. (1996). SUS: a "quick and dirty" usability
scale. In P. W. Jordan, B. Thomas, B. A.
Weerdmeester and A. L. McClelland (eds.) Usability
Evaluation in Industry. London: Taylor and Francis.
Card, S., Moran, T., and Newell, A. (1983). The
Psychology of Human-Computer Interaction. Hillsdale
New Jersey: Erlbaum.
Carroll, J.M. (1997). Scenario-based design. In M.
Helander and T. K. Landauer (Eds.), Handbook of
human-computer interaction Amsterdam: North-
Holland.
Centro Nazionale per l’Informatica nella Pubblica
Amministrazione. (2005). Studio sulle linee guida,
Quaderni Cnipa, n.4, 93-110.
Centro Nazionale per l’Informatica nella Pubblica
Amministrazione. (2005) Delibere CNIPA 25/2005,
15 settembre 2005. Retrived June 16, 2007 from
http://www.cnipa.gov.it/site/itIT/Normativa/Circolar
i_e_Deliberazioni/
Chang, E., and Dillon, T.S. (2006). A Usability-
Evaluation Metric Based on a Soft-Computing
Approach. Ieee Transactions on Systems, 36(2), 356-
372.
Chin, J.P., Diehl, V.A., and Norman, K.L. (1988).
Development of an instrument measuring user
satisfaction of the human–computer interface. In
CHI Conference on Human Factors in Computing
Systems New York: ACM.
Chou, J.R., and Hsiao, S.W. (2007). A Usability Study
on Human-Computer Interface for Middle-Aged
Learners. Computers in Human Behavior, 23(4),
2040-2063.
Commissione Europea (1999).
eEurope - Una società
dell'informazione per tutti. Retrived June 10, 2007
from http://europa.eu/scadplus/leg/it/lvb/l24221.htm
Commissione Europea (2001).
eEurope 2002:Impatto e
priorità. Retrived June 10 from, 2007
http://europa.eu/scadplus/leg/it/lvb/l24226a.htm
Commissione Europea (2005). i2010: la società
dell'informazione e i media al servizio della crescita e
dell'occupazione. Retrived June 10, 2007 from
http://europa.eu/scadplus/leg/it/cha/c11328.htm
Consiglio dell’Unione Europea (2003). Risoluzione del
Consiglio del 6 febbraio: “e-accessibility”: migliorare
l’accesso delle persone con disabilità alla società dei
saperi. Gazzetta Ufficiale dell’Unione Europea , C 39.
Cuomo, D.L., and Bowen, C.D. (1994). Understanding
usability issues addressed by three user-system
interface evaluation techniques. Interacting With
Computers, 6(1), 86-108.
De Kerckhove, D. (1995). La civilizzazione video-
cristiana. Milano: Feltrinelli.
Decreto del Presidente della Repubblica n° 75 (2005).
Regolamento di attuazione della legge 9 gennaio 2004,
n. 4. Retrived June 22, 2007 from
http://www.pubbliaccesso.gov.it/normative/regolame
nto.htm
Decreto Ministeriale del 8 luglio 2005, Requisiti tecnici e i
diversi livelli per l'accessibilità agli strumenti
informatici. Retrived June 22, 2007 from
http://www.pubbliaccesso.gov.it/normative/DM0807
05.htm
Del Galdo, E. M.,Williges, R.C.,Williges, B.H., and
Wixon, D.R. (1986). An evaluation of critical
incidents for software documentation design.
Thirtieth Annual Human Factors Society Conference
Anaheim, CA: Human Factors Society.
Desurvire, H., Lawrence, D., and Atwood, M. (1991).
Empiricism Versus Judgment: Comparing User
Interface Evaluation Methods on a New Telephone-
Based Interface. SIGCHI Bulletin, 23(4), 58-59.
Desurvire, H.W., Kondziela, J.M., and Atwood, M.E.
(1992). What is Gained and Lost when Using
Evaluation Methods Other than Empirical Testing.
In Proc.of the HCI '92 conference on Human factors in
computing systems NY: ACM.
Di Nocera, F., Ferlazzo, F. and Renzi, P. (1999). Us.E.
1.0: costruzione e validazione di uno strumento in
lingua italiana per valutare l'usabilità dei siti Internet.
In M.F. Costabile, and F. Paternò (Eds)
HCITALY’99: Giornata Italiana su Human-Computer
Interaction. Rapporto CNUCE-B4-1999-003. Pisa:
CNUCE-CNR.
Di Nocera, F., Ferlazzo, F., and Renzi, P. (2003).
L'usabilità a quattro dimensioni. Ricerche di
Borsci, S., Federici, S. – Dall’interazione utente-tecnologia alla valutazione dell’usabilità: Una rassegna
251
Psicologia, 26(4), 83-104.
Dillon, A. (2001). Usability evaluation. In W.
Karwowski (ed.) Encyclopedia of Human Factors and
Ergonomics, London: Taylor and Francis
Dix, A., Finlay, J., Abowd, D.A., and Beale, R. (2004).
Interazione uomo macchina. Milano: Mc Graw-Hill.
Drury, C.G. (2002). Measurement and the practising
ergonomist. Ergonomics, 45(14), 988-990.
Ericsson, K.A., and Simon, H.A. (1984). Protocol
analysis: Verbal reports as data. Cambridge, MA: MIT
Press.
Ericsson, K.A., and Simon, H.A. (1987). Verbal reports
on thinking. In C. Faerch, and G.Kasper (Eds),
Introspection in Second-Language Research (p. 24–53).
Clevedon: Multilingual Matters.
Federici, S., Micangeli, A., Ruspantini, I., Borgianni, S.,
Pasqualotto, E., and Olivetti Belardinelli, M. (2005).
Checking an integrated model of web accessibility
and usability evaluation for disabled people. Disability
and Rehabilitation: An International Multidisciplinary
Journal, 27(13), 781-790.
Finstad, K. (2006). The System Usability Scale and Non-
Native English Speakers. Journal of Usability Studies,
1(4), 185-188.
Fitts, P.M. (1954). The Information Capacity of the
Human Motor System in Controlling the Amplitude
of Movement. Journal of Experimental Psychology, 47,
381-391.
Gerhardt-Powals, J. (1996) Cognitive Engineering
Principles for Enhancing Human-Computer
Performance. International Journal of Human-
Computer Interaction, 8(2), 189-211.
Gibson, J.J. (1979). The ecological approach to visual
perception, Boston:Houghton Miffilin.
Glendon, A.I., Stanton, N.A., and Harrison, D. (1994).
Factor analysing a performance shaping concepts
questionnaire. In S.A. Robertson (Ed.), Contemporary
Ergonomics 1994. London: Taylor and Francis, 340-
345.
Gray, W.D., and Salzman, M.C. (1998). Damaged
merchandise? Areview of experiments that compare
usability evaluation methods. Human–Computer
Interaction, 13, 203–262
Green, K.K., Byrne, M.D., and Everet, S.P. (2006).
Comparison of Usability Between Voting Methods.
In Proceedings of the tht USENIX/Accurate Elettronic
Voting Technology Workshop. Vancouver: ACM.
Hancock, P.A., Weaver, J.L. and Parasuraman, R.
(2002). Sans subjectivity : ergonomics is engineering.
Ergonomics, 45(14), 991-994.
Hargittai, E. (2002). Second-Level Digital
Divide:Differences in People’s Online Skills. First
Monday, 7(4), 1-20.
Harper, B., Slaughter, L., and Norman, K.L. (1997).
Questionnaire administration via the WWW: A
validation and reliability study for a user satisfaction
questionnaire. In Proceedings of WebNet 97. Toronto.
Retrived May 10, 2007 from
http://lap.umd.edu/quis/publications/harper1997.pdf
Hartson, H.R., Andre, T.S., and Williges, R.C. (2003).
Criteria For Evaluating Usability Evaluation
Methods. International Journal of Human-Computer
Interaction, 15(1), 145-181.
Hartson, H.R., Andre, T.S., Williges, R.C., and van
Rens, L.S. (1999). The user action framework: A
theory-based foundation for inspection and
classification of usability problems. In H.J. Bullinger,
and J. Ziegler (Eds.), Human–computer interaction:
Ergonomics and user interfaces, Volume 1 (pp. 1058–
1062). Mahwah, NJ: Lawrence Erlbaum Associates.
Hix, D., and Hartson, H.R. (1992). Formative
evaluation: Ensuring usability in user interfaces. In L.
Bass, and P. Dewan (Eds.), Trends in software, Volume
1: User interface software (pp.1–30). New York: Wiley
Hix, D., and Hartson, H.R. (1993). Developing user
interfaces: Ensuring usability through product and
process. New York: Wiley.
Hutchinson, E.L., Holland J.D. and Norman
D.A.(1986) Direct manipulation interfaces. Human-
Computer Interaction, 1, 311-338.
Hvannberg, E.T., Law, E.L.C., and Larusdottir, M.K.
(2007). Heuristic Evaluation: Comparing Ways of
Finding and Reporting Usability Problems.
Interacting With Computers, 19(2), 225-240.
Imaz, M. and Benyon, D. (2007) Designing with Blends,
Conceptual Foundations of Human-Computer
Interaction and Software Engineering, Massachusetts:
MIT Press.
International Organization for Standardization (1991).
ISO/IEC 9126:Information technology - Software
product evaluation - Quality characteristics and
guidelines for their use.
International Organization for Standardization (1991).
ISO/IEC 9126-1: Software Engineering - Product
quality - Part 1: Quality model.
International Organization for Standardization (1998).
ISO 9241-1:Ergonomic Requirements for Office
Work with Visual Display Terminals, part 11,
Guidance on specifying and measuring usability.
John B., and Marks, S. (1997). Tracking the effectiveness
of usability evaluation methods. Behaviour and
Information Technology, 16(4/5), 188-202.
John, B.E., and Kieras, D.E. (1996a). Using GOMS for
user interface design and evaluation: Which
technique? ACM Transactions on Computer-Human
Interaction, 3, 287–319.
John, B. E., and Kieras, D.E. (1996b). The GOMS
family of user interface analysis techniques:
Comparison and contrast. ACM Transactions on
Computer-Human Interaction, 3, 320–351.
Jordan, P.W., and Design, P. (1998). An introduction of
usability (2ed.). London: TaylorandFrancins.
Jordan, P.W. (1994). What is usability? In S. A.
Robertson (Ed.), Contemporary Ergonomics London:
Taylor and Francis, 454-458
Kahn, M.J., and Prail, A. (1994). Formal usability
inspections. In J. Nielsen, and R. L. Mack (Eds.),
Usability inspection methods. New York: Wiley.
Borsci, S., Federici, S. – Dall’interazione utente-tecnologia alla valutazione dell’usabilità: Una rassegna
Giornale di Psicologia, Vol. 2, No. 3, 2008
ISSN 1971-9558
252 Giornaledipsicologia.it, Vol. 2, No. 3, 2008
ISSN 1971-9450
Kieras, D. (2004). GOMS Models for Task Analysis. In
D. Diaper, and N. Stanton (Eds.) The Handbook of
Task Analysis for Human-Computer Interaction,
New York: Lawrence Erlbaum Associates.
Kirakowski, J. and Corbett, M. (1993). SUMI: The
software usability measurement inventory. British
Journal of Educational Technology, 24,210-212.
Kirakowski, J. (1998). SUMI Manual. University College
Cork, Ireland: Human Factors Research Group,
Retrived May 11, 2007 from http://sumi.ucc.ie/
Kirakowski, J. (2002). Is ergonomics empirical?
Ergonomics, 45(14), 995-997.
Kirwan, B., and Ainsworth, L. K. (Eds.). (1992). A guide
to task analysis. London: Taylor and Francis.
Law, E.L.C., Hvannberg, E.T. (2004). Analysis of
strategies for improving and estimating the
effectiveness of heuristic evaluation. In Proceedings of
the third Nordic conference on Human-computer
interaction, Tampere, Finland: ACM press.
Legge 9 gennaio 2004, n. 4, Disposizioni per favorire
l'accesso dei soggetti disabili agli strumenti informatici,
Retrived June 10, 2007 from
http://www.pubbliaccesso.gov.it/normative/legge_20
040109_n4.htm
Lewis, C., Polson, P., Wharton, C., and Rieman, J.
(1990). Testing a walkthrough methodology for
theory-based design of walk-up-and-use interfaces. In
CHI Conference on Human Factors in Computing
Systems (pp. 235–242). New York: ACM.
Lewis, C., and Rieman, J. (1993). Task-Centered User
Interface Design: A Practical Introduction. Colorado
University: Freeware book. Retrived May19, 2007
from http://www.hcibib.org/tcuid/tcuid.pdf
Lewis, C., and Rieman, J. (1993). Task-Centered User
Interface Design — A Pratical Introduction.
Distribuited via anonymous ftp. Retrived June 16,
2007 from
http://users.cs.dal.ca/~jamie/TCUID/tcuid.pdf
Lewis, J.R. (1992). Psychometric evaluation of the post-
study system usability questionnaire: The PSSUQ. In
Proceedings of the Human Factors Society 36th Annual
Meeting. Santa Monica, CA: Human Factors Society.
Lewis, J.R. (1995). IBM Computer Usability Satisfaction
Questionnaires: Psychometric Evaluation and
Instructions for Use. International Journal of Human-
Computer Interaction, 7(1), 57-78.
Lindgaard, G. (2006). Notions of thoroughness,
efficiency, and validity: Are they valid in HCI
practice? International Journal of Industrial
Ergonomics, 36, 1069–1074.
Lund, A.M. (1998a). Damaged merchandise? Comments
on shopping at outlet malls. Human–Computer
Interaction, 13, 276–28.
Lund, A.M. (1998b).The need for a standardized set of
usability metrics. In Proc. HFES, 42nd Annual
Meeting, Santa Monica, CA: HFES.
Mack, R., and Montaniz, F. (1994). Observing,
Predicting, and Analyzing Usability Problems. In R.
L. Mack, and J. Nielsen (Eds.), Usability Inspection
Methods. New York: John Wiley and Sons.
Mc Luhan, M., and Fiore, Q. (2001). The medium is the
message, Corte Madera, CA: Gingko Press.
McKenna, F.P. (2002). Subjective measures: not perfect
but what is? Ergonomics, 45(14), 998-1000.
Michell, J. (2002). Do ratings measure latent attributes?
Ergonomics, 45(14), 1008-1010.
Mobilio,V. (2006). La sperimentazione di piattaforme
Open Source. Innovazione,10(4),7-8. Retived
June,10, 2007 from
http://auriga.cnipa.gov.it/cnipa/backoffice/rivista/nu
meri/cnipa_34/ Cnipa_InnovAzione_n10_2006.pdf
Molich, R., and Nielsen, J. (1990). Improving a human-
computer dialogue, Communications of the ACM,
33(3), 338-348.
Morville, P., and Rosenfeld, L. (1998). Information
Architecture on the World Wide Web. Cambridge:
O'Reilly.
Nielsen, J. (1993). Usability engineering. New York: AP
Professional.
Nielsen, J. (1994a). Enhancing the explanatory power of
usability heuristics. In Proc. ACM CHI'94 Boston,
MA: ACM Press.
Nielsen, J. (1994b). Heuristic evaluation. In J. Nielsen,
and R.L. Mack (eds), Usability Inspection Methods.
New York, NY: John Wiley and Son.
Nielsen, J., and Loranger, H. (2006). Web usability 2.0:
L'usabilità che conta. Milano: Apogeo.
Nielsen, J., and Molich, R. (1990). Heuristic Evalution
of User Interfaces. In Proc. ACM CHI'90 Conference
Seattle, WA: ACM Press.
Norman, D.A. (1983). Some Observations on Mental
Models. In D. Gentner, and A. Steven (eds.), Mental
Models. Hillsdale: Erlbaum.
Norman, D.A. (1988). The Design of Everyday Things.
New York: Doubleday.
Norman, D.A. (2004). Emotional Design: Why We Love
(or Hate) Everyday Things. New york: Basic books.
Norman, D.A., and Draper. (1986). User centered system
design: New perspectives on human-computer
interaction. Hillsdale, NJ: Erlbaum.
Norman, D.A. and Shallice, T. (1980), Attention to
action: Willed and automatic control of behavior. San
Diego: University of California.
Polson, P.G., Lewis, C., Rieman, J., and Wharton, C.
(1992). Cognitive walkthroughs: a method for
theory-based evaluation of user interfaces.
International Journal of Man-Machine Studies , 36(5),
741-773.
Polson, P.G. and Lewis, C.H. (1990). Theory-based
design for easily learned interfaces. Human-Computer
Interaction,
5, 191-220.
Preece, J., and Benyon, D. (1993). A Guide to Usability:
Human Factors in Computing. (1 ed.). Boston:
Addison-Wesley.
Re, A. (1995). Ergonomia per psicologi. Lavoro cognitivo e
nuove tecnologie. Milano:Raffaello Cortina.
Reiman, J., Franzke, M., and Redmiles, D. (1995).
Usability Evaluation with the Cognitive
Borsci, S., Federici, S. – Dall’interazione utente-tecnologia alla valutazione dell’usabilità: Una rassegna
253
Walkthrough. Conference on Human Factors in
Computing Systems Denver: ACM.
Rizzo, A., Marti, P., and Bagnara, S. (2001). Interazione
Uomo-Macchina. In E. Burattini, and R. Cordeschi
(Eds.), Manuale di Intelligenza Artificiale per le scienze
umane. Roma: Carocci.
Rizzo, A., Marchigiani, E., and Andreadis, A. (1998).
The AVANTI Project: Prototyping and evaluation
with a Cognitive Walkthrough based on the
Norman's model of action. In ACM Conference on
Designing Interactive Systems ‘97 Amsterdam: ACM
Press.
Rubin, J. (1994). Handbook of usability testing. New
York: Wiley.
Salvedy, G. (2002). Use of subjective rating scores in
ergonomics research and practice. Ergonomics, 45(14),
1005-1007.
Sears, A. (1997). Heuristic walkthroughs: Finding the
problems without the noise. International Journal of
Human–Computer Interaction, 9, 213–234.
Sentinelli, M. (2003). L’usabilità dei nuovi media. Roma:
Carocci.
Shackel, B. (1991). Usability - Context, Framework,
Definition, Design and Evaluation. In B. Shackel,
and S. Richardson (Eds.), Human Factors for
Informatics Usability. Cambridge: Cambridge
University Press.
Shneiderman, B., and Mayer, R. (1979).
Syntactic/Semantic interactions in programmer
behavior: Amodel and experimental results.
International Journal of Computer and Information
Sciences, 8, 219-238.
Shneiderman, B. (1983). Direct Manipulation:A Step
Beyond Programming Languages. IEEE Computer,
16(8), 57-69.
Shneiderman, B. (1987). Designing the user interface:
Strategies for Effective Human - Computer Interaction.
Massachusetts: Addison Wesley.
Slaughter, L.A., Harper, B.D. and Norman, K.L. (1994).
Assessing the Equivalence of Paper and On-line
versions of the QUIS 5.5. In Proceeding of the 2nd
Annual Mid-Atlantic Human Factors Conference, (pp.
87-91), Washington, D.C..
Stanton, N., and Stammers, R.B. (2002). Creative
(dis)agreement in ergonomics. Ergonomics, 45(14),
693-695.
Sukkar, N. (2004). The digital divide and development.
In International Conference on: Information and
Communication Technologies: From Theory to
Applications. IEEExplore.
Sutherland, I.E. (1964). Sketch pad a man-machine
graphical communication system. In Proceedings of the
SHARE design automation workshop NY: ACM Press.
Sutherland, I.E. (2003). Sketchpad: A man-machine
graphical communication system. (Report No. 574).
Cambridge: University of Cambridge. Retrived June
11, 2007 from
http://www.cl.cam.ac.uk/TechReports/
Terenzi, M., and Di Nocera, F. (2004). Sulla validità
della scala "Maneggevolezza" di Us.E. 1.0. X
Congresso Nazionale della Sezione di Psicologia
Sperimentale - Associazione Italiana di Psicologia
Sciacca.
Terenzi, M., Di Nocera, F., and Ferlazzo, F. (2006)
Firmitas, Utilitas, Venustas: Assessing the Validity of
the Usability Evaluation (Us.E.) Questionnaire. In D.
de Waard, K.A. Brookhuis, A. Toffetti (Eds.),
Developments in Human Factors in Transportation,
Design, and Evaluation. Maastricht, the Netherlands:
Shaker Publishing, 249-253.
Terenzi, M., Di Nocera, F., Ferlazzo, F., and Renzi, P.
(In press). Psychometric Properties of the Usability
Evaluation (Us.E.) Questionnaire v. 1.1.
Tullis, T.S., and Stetson, J.N. (2004). A Comparison of
Questionnaires for Assessing Website Usability. In
Proceedings of Usability Professionals Association
Minneapolis, MN: UPA.
Virzi, R.A. (1992). Refining the Test Phase of Usability
Evaluation: How Many Subjects is Enough? Human
Factors, 34(4), 457-468.
Virzi, R.A., Sorce, J., and Herbert, L. B. (1993). A
comparison of three usability evaluation methods:
Heuristic, think-aloud, and performance testing. In
Proceedings of the Human Factors and Ergonomics
Society 36th Annual Meeting Seattle, WA: Human
Factors and Ergonomics Society.
Wallace, D.F. and Norman, K.L., and Plaisant, C.
(1988). The American Voice And Robotics
"Guardian: System: A Case Study In User Interface
Usability Evaluation. Technical Report (CAR-TR-
392). College Park, MD: Human-Computer
Interaction Laboratory, Center for Automation
Research, University of Maryland.
Wharton, C., Rieman, J., Lewis, C., and Polson, P.
(1994). The Cognitive Walkthrough Method A
Practitioner’s Guide. In J, Nielsen, and R.L. Mack
(Eds.), Usability Inspection Methods. New York: John
Wiley and Sons.
Wharton, C., Bradford, J., Jeffries, R., and Franzke, M.
(1992). Applying cognitive walkthroughs to more
complex user interfaces: Experiences, issues, and
recommendations. In CHI Conference on Human
Factors in Computing Systems New York: ACM.
Ricevuto : 5 maggio 2008
Revisione ricevuta : 16 ottobre 2008
... The experience of any MR application must take into account a set of variables that can vary from time to time: the type and structure of the content; the time of use of the content; the context of use (i.e., single experience or collective experience); the place of use; and the conditions of use. All these aspects influence the users' behaviors and the usability of the MR system when the users interact with it [11][12][13]. ...
Article
Full-text available
Within the EU CEMEC project framework, a novel approach for using holographic showcases in museums has been conceived and experimented upon in different venues in the context of an itinerant exhibition dealing with Early Medieval European collections. The purpose of this holographic showcase, the so-called “box of stories”, is to improve the link and interaction between real and virtual contents in the museum’s context, making the exhibited object “alive” in the visitors’ perception. An Avar sword and a Byzantine treasure have been used as the main case studies, and they have been experienced in the museums of several European regions by audiences with different cultural backgrounds. This has been a great opportunity to carry out user experience (UX) evaluations in order to collect feedback (from about 600 museum visitors) regarding the attractiveness of such a mixed reality (MR) system, its usability, the comprehension of the contents, the efficacy of the logistics and environmental conditions, as well as the educational impact. The results of such inquiries helped the CNR ISPC team to identify the most meaningful User eXperience Analytics (UXA) able to support the work of UX evaluators and UX designers to assess the efficacy of digital cultural products. Indeed, this manuscript presents UXA and tries to draft a concrete and effective evaluation model for future digital projects for museum contexts.
Chapter
Today the system around design is “complexified”. Digital technologies have reconfigured decision-making processes and the ways in which users interact with tools and the surrounding world. It is necessary to guarantee the user, in the design of interactions, the communication with his surroundings, to increase, amplify and optimize the skills and abilities in carrying out tasks. To explore the boundaries and trace the limits and opportunities of the topics covered, the goal was to transfer the overall mapping of knowledge, good technical-scientific practices, different approaches and languages, resulting from the work of synergistic contamination between academia and industry. The present contribution documents the design processes aimed at defining new physical and digital interactive models applied to the cultural heritage, manufacturing and robotic surgery sectors starting from the study and identification of human–machine interaction factors and through Human–Computer Interaction as analysis tool. Through the interdisciplinary approach, it was therefore possible to hypothesize new models and interactive experiences through multidimensional and multimodal expedients capable of ensuring usability and ergonomic quality for all users.
Chapter
Population aging and related healthcare costs already are a problem to face and will increasingly become an even more serious issue. This phenomenon triggers important social changes, highlighting the urgency of finding new dynamics and services also for the Home Care and Healthcare field. The spreading of smart objects and the Internet of Things it is possible to improve the quality of services and device performance for monitoring qualitative and quantitative parameters of elderly people with the ultimate goal of improving their quality of life. The paper therefore proposes to perform a competitive benchmarking between the selected products and the needs identified in the Habitat project, in order to determine its effectiveness; moreover, the correspondence to the needs will be evaluated from a qualitative and quantitative point of view. This work, in addition to provide a lucid and specific market analysis of the studied products, will help to identify the critical points and strengths of the smart objects. Its ultimate goal is to develop a comprehensive needs framework which provides a solid foundation in making new smart object prototypes for old people.
Thesis
Quali sono gli aspetti psicologici impliciti nel processo di Trasferimento Tecnologico (TT)? E’ possibile una lettura alternativa alle prospettive economiche e giuridiche in merito? Nel mio elaborato, prendo in considerazione il TT come processo comunicativo intersistemico che ha come oggetto la conoscenza il cui obiettivo è l’impiego dei prodotti di tale conoscenza in ambiti diversi da quelli per cui erano stati pensati in origine. Da una parte, si propone un’analisi del contesto politico ed economico: in particolare ho cercato un confronto tra l'Europa e gli U.S.A. di tipo economico e culturale, i risvolti più oscuri dell’economia della conoscenza verso una crescente aziendalizzazione delle università. Dall’altra, un’intervista semistrutturata, rivolta a Lorenza Paolucci (Agente di TT all'Università dell'Insubria), porta alla luce gli aspetti esperienziali e soggettivi di un agente di trasferimento tecnologico in visita presso il Technology Transfer Network del CERNT. Da tale riflessione scaturiscono almeno due proposte di ricerca futura: 1) il profilo professionale dell'agente di trasferimento, i processi di inserimento nell'organizzazione di ricerca e i significati attribuiti dagli agenti stessi e dal management; 2) la costruzione e la cura di reti comunicative: come la promozione della cultura del TT all’interno e fuori dall’organizzazione di ricerca può contribuire a rafforzare e riequilibrare i rapporti tra Università e Industria. In conclusione, l’analisi proposta si propone di creare nuovi schemi di interpretazione e buone pratiche per supportare chi fa TT: sia gli EdR, costruendo linee guida per un buon trasferimento tecnologico, sia in particolare gli agenti di TT, aiutandoli a costruire la propria professionalità e il loro ruolo
Article
Full-text available
Analyzing a task into Goals, Operators, Methods, and Selection rules (GOMS) is an established method for characterizing a user's procedural knowledge. When combined with additional theoretical mechanisms, the resulting GOMS model provides a way to quantitatively predict human learning and performance for an interface design, in addition to serving as a useful qualitative description of how the user will use a computer system to perform a task. This chapter focusses on GOMS models as a task-analytic notation and how to construct them.
A critical problem for the advancement of our discipline is the lack of consensus about metrics for measuring the dimensions of usability. What matters to users and to those who want users to adopt a system or product is usability from the users' perspective, and what should matter to designers and researchers is the question of what influences that perspective. Solving this problem would add structure to research on user interface methodologies and new design techniques. It would allow the research to be integrated more effectively. It would provide a way for industry to assess when the benefits of applying the results from the lab are justified by the cost, and it would support the creation of more useful guidance for the practitioner on when to apply new methodologies and techniques.
Book
Part 1: the task analysis process. Part 2: task analysis techniques task data collection task description methods task simulation methods task behaviour assessment methods task requirements evaluation methods. Part 3: task analysis case studies balancing automation and human action through task analysis a preliminary communications system assessment a plant local panel review a staffing assessment for a local control room task simulation to predict operator workload in a command systenm task analysis of operator safety actions maintenance training a method for quantifying ultrasonic inspection effectiveness operational safety review of a solid waste storage plant a task analysis programme for a large nuclear chemical plant.
Conference Paper
Several published sets of usability heuristics were compared with a database of existing usability problems drawn from a variety of projects in order to determine what heuristics best explain actual usability problems. Based on a factor analysis of the explanations as well as an analysis of the heuristics providing the broadest explanatory coverage of the problems, a new set of nine heuristics were derived: visibility of system status, match between system and the real world, user control and freedom, consistency and standards, error prevention, recognition rather than recall, flexibility and efficiency of use, aesthetic and minimalist design, and helping users recognize, diagnose, and recover from errors.