Content uploaded by Bodong Chen
Author content
All content in this area was uploaded by Bodong Chen on Sep 08, 2017
Content may be subject to copyright.
-1-
解析学习分析学:一次撬动冰山的尝试
陈 伯 栋 1 黄天慧2 3
(1.明尼苏达大学 教育与人类发展学院,美国 明尼阿波利斯 55455;2.复旦大学 高等教育
研究所,上海 200433;3.云南大学 信息技术中心,云南 昆明 650091)
【摘 要】学习分析学正如一座冰山,可见的部分通常是物化的工具和显见的活动,掩藏在冰山底部的包括对学
习的界定,教学中的权力关系,教育大环境里的社会、政治和文化意图等。本文旨在解析学习分析学领域的关键
概念和争议,并探讨中国在该领域面临的机遇和挑战。
【关键词】学习分析学;信息技术整合;教育数据;教育变革
【中图分类号】G40-05 【文献标识码】A 【文章编号】2096-1510(2017)04-0001-09
一、引言
自2011年第一届“学习分析学与知识”
(LAK)会议至今,学习分析学(Learning
Analytics)作为一个新兴领域在盛赞和质疑中已渐
成熟。短短七年间的一系列大事件,把学习分析学
这个始于加拿大班夫小镇的词条推向各类期刊、报
端、教育机构和科研基金页面。2012年,学习分析
学研究协会(SoLAR)成立;2013年,专注于跨
界对话和梯队培养的“学习分析学暑期研习班”
(LASI)第一次举行;2014年,学习分析学期刊首
次发行;2015年,LAK会议专门辟出实践类文章,
吸引学校和企业实践者参加;至2017年LAK会议,
会议论文集的作者总人数突破了1 000人,其中来自
美国以外国家的作者占据34%。表1罗列的各届LAK
会议的主旨也体现了此领域从辨析内涵到探索实际
影响的发展历程。这一系列事件标志着学习分析学
作为一个领域的日趋成熟,也体现了其在学术和实
践中不断获得的广泛国际认可。
表1 各届学习分析学与知识会议主旨
年份 地点 会议主旨
2011 加拿大班夫 学习分析学
2012 加拿大温哥华 更多的学习分析学
2013 比利时鲁文 中间地带和有效的多义分析
2014 美国印第安纳波利斯 研究、理论和实践的交叉
2015 美国波启浦夕 从大数据到大影响
2016 苏格兰爱丁堡 加强影响
2017 加拿大温哥华 用数据理解、引导和提高学习
2018 澳大利亚悉尼 走向用户中心的分析学
和其他国家一样,中国学者和教育实践人员近
年来对学习分析学的兴趣也在不断升温。在中国知
网用“学习分析”为关键词检索发现,2012年该术
语开始进入中国教育技术学者的视野,近年来相关
文献呈现逐年递增的趋势(从2012年的7篇增长为
2016年的88篇)。其中,绝大部分文献集中于介绍
该领域国外的研究进展,包括学习分析的概念、分
析框架、分析方法、分析工具、典型应用案例等。
本文在笔者对此领域常年参与和反思的基础上,将
探讨领域的一系列关键问题、辨析几个常见误区,
并旨在讨论中国未来学习分析学发展的策略。
Vol.22,No.4
Aug.2017
第22卷 第4期
2017年8月
开放学习研究
Journal of Open Learning
【学习分析与学习支持】
[DOI编码]10.19605/j.cnki.kfxxyj.2017.04.001
-2-
二、概念解析
学习分析学最广泛被采用的定义来自第一届
LAK会议征文邀请——“学习分析学(Learning
Analytics)通过测量、收集、分析和汇报学生和学
习环境中产生的数据,以理解和优化学习及学习环
境”(Siemens, 2013)。作为一个跨学科领域,学
习分析学成员普遍来自于学习科学、计算机科学、
高等教育、远程教育等领域。由于各自研究和实践
的侧重不同,领域内对学习分析学的解读一直都
是多元的,进而导致了不同学科背景的学者对此
领域的不同认识。比如,来自学习科学(Learning
Sciences)的学者强调对学习的分析必须考虑认识
论和教学法等因素,心理测量背景的学者着重分析
手段的信度和效度,来自人机交互的学者看重分析
结果对终端用户的可解读性,而计算机科学背景
的研究者则侧重算法在具体应用情景中的开发和
调试。近年来,学习分析学与“教育数据挖掘”
(Educational Data Mining)等其他领域的互动和
交叉更是加重了这一现象。很大程度上,对学习分
析学如此宽泛的定义有助于吸纳新成员的加入,
引入新鲜血液和观点,近几年学习分析学的迅猛发
展也印证了这一点。但宽泛、包容的定义也势必引
发对领域内涵和外延的争论。对此,不断有学者试
图做出澄清。例如,领域的几个开创者强调学习分
析学的根基应该在学习,因此领域里计算、分析方
面的开发和研究必须和现有教育研究整合(Gašević,
Dawson, & Siemens, 2015)。但无论是在媒体的报道
还是在非正式的交流中都可以看到,有相当一部分
领域的参与者更看重数据科学(Data Science)而
非学习或学习科学(Greller & Drachsler, 2012;张进
良,何高大,2014;李逢庆,钱万正, 2012)。对
此,下面我们在前人基础之上讨论几个理解学习分
析学的关键点。
(一)从分析到分析学
对Learning Analytics的翻译,笔者一直坚持使
用“学习分析学”,而非“学习分析”或“学习分
析技术”。分析学(analytics)与分析(analysis)
紧密相关却又不同。简要地讲,数据分析是研究者
和实践者常做的一件事。正如一些学者提到的那
样,教育中不缺乏数据(包昊罡,李艳燕,2015),
教育领域里实证研究者长期从事的工作就是从数据
中寻求对问题的解答,以深化对教育现象的认识、
影响教育政策、改善教育实践。因此,在教育领
域,数据分析(analysis)本身并无新颖之处。
与分析不同,分析学(analytics)是一个多维度
的、系统化的学问。分析学囊括了数据分析,并更
进一步强调数据分析后的反应、行为和决策。分析
学不止步于从数据中获取新发现,还强调该发现对
行为的引导性及向利益相关者有效传递分析发现。
如Cooper(2012)所说,分析学帮助我们评价过去活
动以估量未来活动的潜在价值,从而帮助个人和组
织寻求更有效的决策和策略。因此,分析学的关注
点不在于单个的数据分析手段,而是在对全局掌控
的基础上如何采用多元数据分析寻求可用来指导行
为的知识和洞见。这体现了分析学与传统的学术研
究中数据分析的差异。体现在学习领域中,学习分
析学领域有吸引力之处在于它对教育行为更直接的
干预。这源自它对分析学中的系统性思想、自动化
分析手段和多方参与原则的纳入。
与此同时,学习分析学又依赖对学习现象本身
的深入理解,而不只强调分析手段在技术上的先
进性和数据量的大小。这是因为与其他领域的分析
学一样,学习分析学强调对行为有引导意义的洞
见,对复杂的教育行为来说,这无疑更需要前人发
现和理论的支持。如果学习分析学只关注分析本
身,或者只关注数据科学、“大数据”或狭义的
分析技术,那么学习分析学本身的价值就会打折
扣。总之,类似于早期学者对教育技术的辨析(尹
俊华, 庄榕霞, 2002),学习分析学是一门系统化的
学问,对其理解应超越分析(analysis)和分析技术
(techniques)本身,关注已有研究发现和学习理
论的价值,并强调分析结果能带来的具体教育应用
(applications)。下文中,我们用“学习分析学”
指代此多维度、系统化的学问,以“学习分析技
术”(techniques)指代领域内使用的数据捕捉、存
储、分析和汇报的手段(如自然语言处理、数据可
视化),以“学习分析工具”(applications)指代
在学习分析技术基础上开发的服务于具体教育目的
的工具(如教育预警系统)。
(二)解析“中间地带”
学习分析学的根基在学习,因此学习分析学领
-3-
域里计算、分析方面的开发和研究必须和现有教
育研究整合(Gašević et al., 2015; Suthers & Verbert,
2013)。这一认识早在2013年LAK年会主旨中就深有
体现:“中间地带和有效的多义分析”。会议组织
者提到,“虽然个别研究的着眼点各异,所有学习
分析学的研究都需要关注学习与分析学间的中间地
带。我们需要考虑学习和分析学双方,并保证技术
和应用的契合”(Suthers & Verbert, 2013)。
对于这个中间地带由什么元素构成,领域的
学者做了深入的探索。Knight等(2014)探讨了认识
论、教学法和评价体系在学习分析学中间的重要
性。作为哲学的重要分支,认识论主要关注“什么
是知识”和“人如何通晓知识”。显然,认识论
无疑会影响教学法和教育测评。例如,实证主义
(positivism)认为知识客观存在并被权威所掌握,
抱有实证主义主张的教学法可能倾向于强调知识传
递或死记硬背,而对应的教学测量会关注学生对权
威知识的掌握(Katz, 2000);与此相对,基于建构主
义知识观的教学法关注学生对现象的主观解读,测
评会关注知识的情境性和学生的元认知。对学习分
析学来说,教学法、其背后的认识论和学习观与教
学测评会共同影响学习的形态、学习环境的设计、
学习数据的生成以及对学习数据的合理解读(见图
1)。因此,对这些重要因素的清晰认识和阐释对任
何学习分析学研究都至关重要。
图1 学习分析学需要关注的中间地带
剖析此中间地带对学习分析学研究和实践都异
常重要。“大数据”的崛起造就了一种“数据决定
论”,并波及教育领域。不乏研究者认为我们应该
“让数据自己说话”,理由是数据是最“中立”、
无偏见的。持这个观点的人往往只关注分析这一
方的元素,忽视了教学中深刻的社会、文化和政治
烙印,由此遗漏了对学习和“中间地带”的解析。
针对这一现象,领域的开创者提出学习分析学需
要让数据收集、测量、分析、汇报和解读扎根到已
有的对学习的研究里(Gašević et al., 2015)。学习分
析学的研究不能忽视学生学习的内部条件、外部的
教学条件及学习工具对学习的价值和影响。认为数
据“中立”、让数据自己说话的观点忽视了教学的
复杂性、教学技术系统中人为设计的痕迹以及教学
的各个环节对学习数据的决定性影响。简明地讲,
一个教学系统从被设计之日起就已掺入了设计者的
想法,这些想法可能偏好或抑制特定的学习形态,
进而决定学习数据的捕捉和可靠解读。这一问题在
近年来美国高校和商业公司的合作中体现得淋漓尽
致。当高校的“数据清洗”业务(data laundry)被
外包到软件公司时,由于数据流程的复杂性、外包
公司对高校教学情境的不了解及分工策略的不成
熟,数据分析的结果往往毫无意义(Wheeler, 2017)。
可见,在学习分析学中有效对接对学习和分析的理
解尤为关键,深刻剖析此中间地带势在必行。
三、现存争议
学习分析学的跨学科性注定了百家争鸣的局
面,以及对以上概念认识上的千差万别。了解领域
内不断演进的争议对于研究和实践十分重要。下面
笔者在上一节概念辨析的基础上讨论领域内几项重
要的争议环节,包括:对学习的不同构想,数据与
算法下的权力关系,学习优化与高阶素养,以及数
据获取与伦理规范。
(一)对学习的不同构想
如上所述,学习分析学是众多领域的杂合。学
习分析学不只是数据和分析手段的拼凑,而要求进
一步关注分析结果是否有实践价值以及如何把分析
结果交给相关人员去改善教与学。在学习分析工具
中,对学习的理解反映了对教育意义的认识,从而
会支配对学习数据的收集和分析。学习科学领域有
学者把学习大致理解为“学习即知识获取”、“学
习即参与”和“学习即创造”三大类别(Paavola &
Hakkarainen, 2005)。由此,一个把学习等同于学生
-4-
个人知识获取的学习分析学研究会把测试成绩当
成学生表现的标杆(Agudo-Peregrina et al., 2014),
而强调社会参与学习观的研究会从群组活动里去
寻找学习的指标(Buckingham Shum & Deakin Crick,
2012)。前者形成的学习分析框架会强调学生的个人
指标,采取如贝叶斯知识追踪(Bayesian Knowledge
Tracing;van de Sande, 2013)的分析手段分析个人
知识掌握;而后者会关注学习过程生成和不断演进
的社会关系,采用如社会网络分析的分析策略。着
眼未来,开发新的学习分析技术时需要研究和开发
者首先明确团队对学习的界定,并清晰地向项目团
队及用户陈述此界定,以避免对学习理解上的混
淆。学习分析学领域能开放地容纳对学习的不同定
义,但清楚剖析学习定义对各自团队和领域大有裨
益。
(二)数据与算法下的权力关系
汉字“数”在金文里作 ,其形如一个人举起
双手接受责骂,动词本意是“列举过错并加以惩
罚”。可见中文里“数据”一词的原意里蕴含了强
烈的权力关系。这有趣的文字构造和演进切实反映
了数据在很多情景里的作用——“数据即权力”。
在漫长人类史里,能握有数据的一方通常在权力关
系中居于上位,而数据的使用往往会使其进一步获
益。用于处理数据的算法和程序亦是如此。算法往
往植入了算法开发方的决策,反映了更有权力的开
发方的思想和意图(Prinsloo, 2017)。在教育体系中,
著名的教育理论家Michael Apple对课程中定义的
“官方知识”体现出的权力关系进行了深刻的论
述——“课程从来都不是对知识中立的装配”,而
蕴含了掌权者对权威知识的带有政治性的选择
(Apple, 1993)。在学习分析学中,对数据的收集、
分析和使用亦是如此。当学习分析技术被用于预测
学生表现时,数据和技术的应用已经蕴含了对学生
“合格表现”的假设,从而忽视或抑制了其他可能
出现的同样有意义的学习表现。这一有关权力关系
的话题在学习分析学中还鲜有讨论,但已受到个别
学者的重视。
可是,就如同有人赞同“数据中立”一样,领
域内也有人认为计算机算法或程序是中立的。学习
分析工具常被理解为把学习“痕迹”客观地翻译成
数字以便解读,就如同水温计的功用一般(Greller
& Drachsler, 2012),可事实往往并非如此简单。因
为学习过程其核心是一种社会活动,Siemens(2013)
强调学习分析学需要“把人和社会过程放在学习分
析工具的中间位置”。学生在学习过程中留下的轨
迹如同“影子”,认识这些影子的过程中无论是人
还是算法都会做很多隐性的假设;这些假设会深受
各种价值观、权力关系的影响(Buckingham Shum,
2015)。因此,把带有偏见和假设的算法放到黑匣子
里来引导教学的做法难免带有风险。以广为讨论的
学生预警系统为例(如普渡大学的“信号灯”),
此类系统在设计时需要详细考量相关人员间的关
系、人员与大学系统的关系及工具可能对使用者尤
其是学生的影响。当一个学生被打上“辍学”的标
签时,除算法的精准程度外,预测系统和学生间形
成的强力的社会关系更需要谨慎拿捏。如果不考虑
程序对既有社会关系的继承、巩固或颠覆,可能会
引起严重后果。由此看来,学习分析学需要识别影
响算法应用和程序开发中暗藏的各类权力关系。我
们不能指望纯粹的“大数据”和“超算法”引领教
育变革(Macfadyen & Dawson, 2012),我们需要更多
地思考教育系统中的复杂关系,并对数据和分析技
术的角色做更切实的界定。就如过去几十年教育信
息化整合中积累的智慧表明的那样(Cuban, 2003),
当技术用于变革教育时,重要的不再是技术本身,
而是对有技术参与的新情境的不断调试。在新兴的
学习分析学领域里,对算法的过于简化的理解是片
面和危险的。更广泛地讲,人们愈发意识到搜索引
擎、社交媒体等工具中隐藏的算法对人的信息摄入
的强大作用。以美国2016年大选为例,社交媒体中
新闻的排序功能让人们通常只能读到和自己政见相
合的新闻,造就了不同政见群体间的信息隔阂和日
渐割裂。再加上此类算法广泛的不透明性,近年来
对“算法责任”(algorithmic accountability)的讨
论愈演愈烈,以致美国计算机协会(ACM)出台了
有关算法责任的声明①。声明在揭示非透明的算法
应用及其进行的自动化决策可能存在的谬误、偏见
和歧视的同时,提出了如下增进算法透明和责任的
七项原则:意识(加强各方对算法偏见的意识)、
获取和矫正(提供获取有关算法信息的渠道、建
立矫正机制)、 责任(算法使用机构需担责)、
解释(系统和使用机构应提供有关算法和决策的解
-5-
释)、数据来源(解释训练数据的来源并明确可能
的偏差)、可审计(模型、算法、数据和决策等需
要备案及被审计)、验证和测试(机构应定期用严
谨的方法验证和测试算法)。这一系列原则对算法
在学习分析学中的使用和开发也具有强烈的指导意
义。
(三)学习优化与高阶素养
学习分析技术会影响学生的自治度(agency)
(Buckingham Shum, 2015)。在学习分析学中,一个
持续的话题存在工具和学习者之间谁该拥有多少的
决策权、有多少决策权被从学习者一方摊走。学习
分析工具在个性化学习方面潜力巨大。在很多情形
下,它们会解除学生的一部分职能和选择权,例如
帮助学习者选择资源或学习路径。这种应用可能会
使学生越来越依赖工具的帮助,而不是发展学生自
己的元认知和其他高阶素养(Buckingham Shum &
Ferguson, 2012)。以广为接受的学习仪表盘为例,一
方面设计良好的仪表盘能化繁为简地呈现信息,但
不同仪表盘设计里对学生自我反思的支持程度天差
地别,有的单单让学生接收一个数值,而有的会通
过交互式的信息可视化支持学生的自我探索(Verbert,
Duval, Klerkx, Govaerts, & Santos, 2013),如此不同
的设计无疑体现了设计者对学生决策的不同期许,
揭示了截然不同的教育用意。
在对这一争议的反思中,Wise(2014)建议把学
生自治当做技术整合的一个重要的设计原则,提出
学习分析工具的应用需要考虑两方面的学生自治
权:一方面是对分析结果的解释权,另一方面是对
该如何使用结果的话语权。她强调学习分析工具在
应用中应更多地导向包括学生自律性学习和反思等
高阶认知能力的发展。无独有偶,2016年学习分析
学期刊的一份特刊尤其强调了学习分析学对培养21
世纪素养的贡献②。与一些工具试图替代学生决策
相反,有的学者强调学习分析工具在支持高阶认知
方面的探索(Chen, Zhang, 2016)。这一观点在当前人
工智能和“自动化”的大背景下更显重要。当优化
和自动化在众多领域甚嚣尘上时,如何用新技术帮
助教育葆有社会性和人性,如何在学习分析学中探
索合理“人—机”协同关系是值得进一步探讨的话
题。针对中国教育中学生自治力普遍不足的现状,
这一话题尤其值得关注。如何避免学习分析工具成
为另一个学生需要服务的对象,如何让工具帮助学
生反思和决策是亟待思考的问题。
(四)数据获取与伦理规范
学习分析学中的伦理问题是多维度的。不可争
辩,学习分析工具用意是支持学生和教师,但其存
在的前提是对用户个人信息的收集(Kobsa, 2007)。
如伦理研究中对受益和风险的权衡一样,学习分析
学面临个人隐私风险与更优教学支持间的冲突。对
此,学者间目前还没有就数据拥有权和使用权达成
共识。例如,有的学者认为学生在使用学习系统时
就代表自动许可对其学习数据的挖掘与使用。有的
认为“行政系统收集的学习数据应该受‘信息自由
与隐私保护法案’约束”,而非传统意义的研究伦
理审查机制(Macfadyen & Dawson, 2012)。③在这一
建议的机制下,研究和实践人员不需向所有学生收
集许可书,只需不时地审查采纳的数据使用机制
(Boyd & Crawford,2012)。在更新的论述中学者在
总结多国经验的基础上提出了学习分析伦理问题的
分类框架(Willis, Slade, & Prinsloo, 2016)。此框架考
虑学习分析技术在不同情境中的具体应用,包括学
术研究、教学支持、自动化过程和参与性决策,进
而探讨不同情境下需要获得的数据许可的程度。
从学生角度来看,学生在学习分析系统中有双
重角色,他们既是学习分析数据的生产者,同时也
是学习分析数据的潜在受益者。Solove(2004)发现很
多学生在不了解数据使用目的、数据使用情境、数
据归属权以及数据访问权的情况下不愿意分享个人
数据。Ifenthaler和Schumacher(2016)使用问卷调查
与准实验相结合的方式调研了学习者对隐私问题的
感知。该研究调查了学生在学习分析系统中分享各
类数据的意愿,问卷结果发现学生分享个人数据的
意愿很低,其中近90%的学生不愿意分享他们在学
习平台产生的学习行为数据(如学习轨迹、在线时
间、资料下载等)。进一步的准实验研究发现:相
比仅是提供预警信号的系统以及可视化一般学习行
为(作业提交,学习时间等)的系统,学生更倾向
于提供多元个性化支持的学习分析系统(如提供个
性化内容、预测个人对内容的掌握程度、提供对社
会交互的建议等)。简言之,学生愿意分享个人数
据的意愿与能从平台获得有益的个性化支持程度有
关。进一步说,教育工作者可以通过增加学习分析
-6-
平台对个性化学习的支持,更大程度地让学生参与
决策,进而提高学生分享个人数据的意愿。
以上讨论的各项争议话题之间也有着千丝万缕
的联系。例如,学习分析学的伦理规范并不止于数
据使用规范,还在于是否体察了“有效”学习的定
义,对学习进行了“有道德的”解读;对伦理规范
的思考也取决于对教育系统权力关系的剖析。由
于学习分析学领域的多元性,只要有不同学科的参
与,这些争议将会长期存在。对于这个新兴领域来
讲,近期目标不是消弭争议,而是寻求不同视角间
有益的共通之处,在争鸣中探求不同思想间的相互
汲养。
四、中国的机遇和挑战
自领域形成初期,学习分析日益受到了中国研
究者的关注,成为国内教育领域的研究热点之一。
下面笔者抱着抛砖引玉的目的,就中国教育情境下
学习分析学面临的机遇和挑战谈一些肤浅的认识。
(一)国内语境
在我国,教育信息化为发展学习分析学提供了
重要语境。关于教育信息化的作用,《国家中长期
教育改革和发展规划纲要(2010-2020)》作出了高
度的概括:“信息技术对教育发展具有革命性的影
响,必须予以高度重视。”十多年来,我国在教育
信息化建设上投入了大量资源,取得了显著成就,
但也存在很多方面的问题。例如,我们在管理体
制、运行机制、建设模式、发展道路等重大方面有
分歧,重复建设、责权不清等现象普遍存在(余胜
泉, 2012)。因此,如何可持续地继续推进教育信息
化是中国教育技术从业者一直需要思考的问题。就
信息技术在教学中的应用和整合,联合国教科文组
织将其分为了四个阶段:起步、应用、融合、创新
(Zhou, Fumihiko, & Lee, 2005)。我国的教育信息化
正处于“初步应用整合”阶段,正向“融合创新”
阶段迈进(祝智庭, 2012)。“深度融合”一词在2012
年3月发布的《教育信息化十年发展规划(2011-2020
年)》中多次出现,体现了当前教育信息化对信息技
术与教学融合的强调。可见,我国当前对教育信息
化的探讨越发着眼于利用信息技术优化学习过程和
学习环境,让技术服务于教与学本身。这一重要认
识铺垫了我们在中国讨论学习分析学的语境。
在讨论具体的机遇之前,笔者想先表明一个认
识:教育中的信息技术从来不以单一的个体存在。
相反,任何技术都是特具社会性的技术装备、人为
活动及教育实践的合体。因为教育信息化在技术
(狭义)之外的复杂性,教育技术应该被理解为一
系列带有社会、政治、经济和文化意图的事物的交
织体(Selwyn,2013)。例如,对于同一个电子书阅
读器,往里放什么内容、用来支持什么样的教学活
动、从中记录什么学习数据以及如何解读和使用数
据都体现了各异的教育意图。不同意图的事物在交
织中难免混乱和抵触,因此任何只着眼于狭义技术
的“技术中心论”往往徒劳无功甚至有害。对学习
分析学的思考亦是如此。
学习分析技术可能在多个领域促进教育创新和
改革。首先,对于学生而言,学习分析技术可改进
甚至变革学生评价模式。以往对学生的评价大多以
考试形式的终结性评价为主,即使有部分过程性评
价,也更多依靠教师的直觉。而学习分析工具可以
帮助教师对学生做出更加准确、全面的评价。让我
们一直强调的过程性评价、多元性评价更有可能。
与此同时,在学习情境正处于深刻变化的大环境下
(例如非正式学习、新网络媒体、教育游戏),通
过学习分析技术洞悉和汇报不同情境中学习的发
生,有益于拓展教育者和公众对学习的认识,惠及
新的学习形态,对当下探索高考之外的选拔认证机
制的努力或许能做出贡献。
对于教师而言,学习分析可以促进教师专业发
展并改进教师评价模式。相对以往以教师的教学
成果(如发表论文、教学观摩等)为依据来评价其
专业发展水平,在数据时代,可利用教师备课、
上课、团队研讨、网络研修、教学反思、教学成
果等过程性信息留下的痕迹做出过程性评价(李艳,
2014)。这不仅可以记录教师专业发展的轨迹,还可
以向教师反馈其专业发展中存在的问题,提供改进
的方向。再者,教师发展中心等相关部门还可以利
用学习分析工具为教师提供个性化的支持,支持教
师自我探究,帮助其有针对性地改进教学。
对于不同层次的教育机构而言,学习分析工具
或能提供对教学更全景的认识。例如,除学习行为
数据外,目前中国各级各类学校广泛使用的智慧一
卡通可以采集学生的其它行为模式,如进出图书
-7-
馆、实验室、公共机房、宿舍、体育馆等场所的信
息,以及图书馆借书、下载在线资料等日常行为。
这些日常行为数据和学习行为数据的挖掘、整合和
分析,可以更清晰地呈现学生的行为模式,进而使
得个性化教学和服务成为可能。从微观上升到中观
层次(Buckingham Shum, 2012),学习分析技术还可
以用于评估课程、院系所或整所学校的绩效表现,
帮助教学服务人员提高工作质量和效率。在宏观层
次,在有效数据汇总、存储和解读的基础上,地区
教育局等部门可利用学习分析工具更全方位地了解
区域内的教育态势(与单从考试成绩相比),制定
发展方略。如前所述,这些可能性都以对教育中的
权力关系、对学习的深刻认识、对技术以外因素的
全面考量为前提。
(二)“南北营”声音
与很多其他术语一样,学习分析学是“北营”
(Global North,即发达国家)输出的概念,反应了
北营国家教育系统的现状。以美国、英国、加拿大
和澳大利亚等国为例,高校的学习分析实践吸引了
整个学校体系在资金、技术、人才和组织文化等多
方面的大量投入(Colvin et al., 2015)。当学习分析学
被直接嫁接到“南营”(Global South,即发展中国
家)时,本地的教育系统往往难以保障足够投入。
可能的投入缺口不只存在资金方面,还包括多领域
的人才储备、跨领域的协作机制、组织文化变革、
隐私和伦理保障机制等方面。任何一个方面的缺口
都可能造成短视的投入和不可逆的损害。
与“北营”情境类似的是,因为教育体系中广
泛存在技术方案方面的缺口,一些教育机构不可避
免地需要依赖外部解决方案。除上文提到的这种数
据分析“外包”带有的风险之外,南营国家的这一
缺口也可能成为各种硅谷技术公司向其输出技术、
方案乃至价值观的渠道。因此,中国教育机构在学
习分析工具方面的技术引进需要考察技术在本地的
适应性,并反思技术公司提供的技术手段可能暗含
的目的和取向。
在这种现状下,中国在学习分析学的发展一方
面应保证多方面的高标准,另一方面需要在相对
后发的情况下另辟蹊径突破多个环节上的瓶颈。首
先,伦理和隐私保护在发展学习分析技术时不应放
在最末位置来抓。正因中国在传统学术伦理上缺乏
成文的规范,全凭学者自律,探索学习分析学中的
数据使用规范或为发展教育研究的伦理原则和策略
提供了良好契机。其次,由于学习分析学对系统资
源的依赖,单个教育实体力量有限,中国学习分析
学的发展可更多探索跨系所、跨校、跨地区、跨
国协作的机会。这一想法和我国教育技术学者对教
育技术发展的总结是一致的(余胜泉,2012),和美
国、欧盟乃至亚非地区在学习分析学寻求资源共建
的努力也相契合④。对领域长远发展来讲,推进算
法、平台、实践等方面的开放性大有裨益,国内行
业组织在这方面或能起到重要的推动作用。其三,
由于学习分析学涉及面广,此领域在国内的发展或
刺激其他基础研究领域的成果向教育应用的转移,
结合中国的特殊教育情境和体量优势,促进众多
中国自有特色的课题的发展。以“写作分析学”
(Writing Analytics)为例,现有前沿的工具都针对
英文写作(Gibson et al., 2017),无法惠及中文写作。
这恰恰为国内写作分析学的发展提供了契机。如能
有效地将汉字自然语言处理与前沿的写作教学方法
结合,一方面可变革长期备受诟病的作文教学,另
一方面也可把更多国内的研究创新推向国际。凡此
种种,中国学习分析学领域的发展应在根基扎实的
基础上批判地看待既有国际关系,在深度融合学习
分析技术与国内教学情境的前提下推陈出新,发出
自己的声音。
五、结语
海明威提出的写作中的“冰山理论”强调用简
明的文风描述表层现象,让故事的深层寓意由内及
表地浮现。如本文试图揭示的那样,不断演进的学
习分析学正像一座冰山,可见的部分通常是一些物
化的工具和可见的活动,掩藏在冰山底部的包括对
学习的潜在假设,教学中的权力关系,教育大环境
里的社会、政治和文化意图等。但和海明威在写作
中的主张相反,学习分析学领域的研究和实践者需
要努力撬起冰山,反思和揭示其隐藏部分,以促进
领域内的共识、共享、共建,为推进教育信息化的
深度融合做出有益贡献。
注释
①参见https://www.acm.org/binaries/content/assets/
-8-
public-policy/2017_usacm_statement_algorithms.pdf
②特刊参见:http://learning-analytics.info/journals/
index.php/JLA/issue/view/381
③为更大限度地保障研究对象的权益,众多发达国家的政
府部门都对涉及人的科研活动设立了专门的管理条例,众高
校通常也都专设了伦理审查机构。例如https://www.hhs.
gov/ohrp/regulations-and-policy/regulations/common-
r u l e /。
④在美国,以Unizin高校信息技术联盟为例的机构在寻求高
校间的学习技术共享、学习数据对接及实践社区共建。在欧
盟,以“学习分析学社区分享”项目(www.laceproject.eu/)
为例的组织也在致力于案例的整合与分享。在亚非 地区,成立
不久的“数 字学习促 进发展”项目(http://dl4 d.org/)在慕
课、教育游戏和学习分析学三个领域寻求多国的共建和互通。
参 考 文 献
[1] 包 昊 罡 ,李 艳 燕 (2015). 大数据 背景下学习分析 的特点[J].
北 京 广 播 电 视 大 学 学 报 ,( 1 ) : 9-13.
[2] 李 逢 庆 ,钱 万 正 (2012). 学习分析:大学教学信息化研究
与实践 的新 领域 [J]. 现代教育技术,22(7):5-10.
[3] 尹 俊 华 ,庄 榕 霞 (2002). 什么是教育技术学— 关于教育技
术学几个基本问题的浅见[J].中 国 电 化 教 育 ,(12):5-7.
[4] 余胜泉(2012). 推 进技术与教育的双向融 合[J]. 中国电化
教育,(5): 28-29.
[5] 张进良, 何高大 (2014). 学习分析: 助推大数据时代高校
教师在 线专业发 展[J]. 远 程 教 育 杂 志 ,( 1):56-62.
[6] 祝智庭(2012). 教育信息化的新 发展: 国际观察 与国内动
态[J]. 现代远程教育研究, (3):3-13.
[7] Agudo-Peregrina ÁF, Iglesias-Pradas,S., Conde-
González,MÁ, & Hernández-García Á.(2014). Can we predict
success from log data in VLEs? Classifi cation of interactions for
learning analytics and their relation with performance in VLE-
supported F2F and online learning[J]. Computers in Human
Behavior, 31(2): 542-550.
[8] Apple,M.W.(1993). The politics of offi cial knowledge:
Does a national curriculum make sense?[J]. Teachers College
Record, (2): 222-241.
[9] Boyd,D., & Crawford,K.(2012). Critical questions for
big data: Provocations for a cultural, technological, and scholarly
phenomenon[J]. Information, communication & society, 15(5):
662-679.
[10] Buckingham Shum S. (2012). UNESCO Policy Brief:
Learning Analytics [DB/OL]. [2017-04-20].Available from
http://www.iite.unesco.org/publications/3214711/.
[11] Buckingham Shum S.(2015). Learning analytics: On
silver bullets and white rabbits[J]. Coding/learning: Software
and digital data in education: 44-51.
[12] Buckingham Shum S, & Deakin Crick R.(2012). Learning
dispositions and transferable competencies. Proceedings of the 2nd
International Conference on Learning Analytics and Knowledge -
LAK ’12[M]. New York: ACM Press: 92.
[13] Buckingham Shum,S., & Ferguson,R.(2012). Social
learning analytics[J]. Educational Technology and Society,(15):
3-26.
[14] Chen,B., & Zhang,J.(2016). Analytics for knowledge
creation: Towards epistemic agency and design-mode
thinking[J]. Journal of Learning Analytics, (3): 139-163.
[15] Colvin,C., Rogers,T., Wade,A., Dawson,S., Gasevic,D.,
& Buckingham Shum,S. (2015). Student retention and learning
analytics: A snapshot of Australian practices and a framework for
advancement[R]. [2017-04-21].Available from http://he-analytics.
com/wp-content/uploads/SP13-3249_-Master17Aug2015-web.pdf.
[16] Cooper,A. (2012). CETIS Analytics Series Volume 1,
No 9: A brief history of analytics[DB/OL]. JISC CETIS: 1–21.
Retrieved from http://publications.cetis.org.uk/wp-content/
uploads/2012/12/Analytics-Brief-History-Vol-1-No9.pdf
[17] Cuban,L.(2003). Oversold and underused: Computers
in the classroom[M]. Boston:Harvard University Press.
[18] Gašević,D., Dawson,S., & Siemens,G.(2015). Let’s
not forget: Learning analytics are about learnings[J]. TechTrend,
59 (1) :64-71.
[19] Gibson,A., Aitken,A., Sándor Á, Buckingham
Shum S, Tsingos-Lucas C, Knight S.(2017). Refl ective writing
analytics for actionable feedback[C]//Proceedings of the Seventh
International Learning Analytics & Knowledge Conference.
ACM:153-162.
[20] Greller,W., &Drachsler,H.(2012). Translating learning
into numbers: A generic framework for learning analytics[J].
Educational Technology & Society,15(3): 42-57.
[21] Ifenthaler,D.,&Schumacher,C.(2016). Student
perceptions of privacy principles for learning analytics[J]
Educational Technology Research and Development, 64(5): 923-
938.
[22] Katz S.(2000). Competency, epistemology and
pedagogy: curriculum’s holy trinity[J]. Curriculum Journal,
(11): 133-144.
[23] Knight,S., Buckingham,Shum,S., & Littleton K.
(2014).Epistemology, assessment, pedagogy: where learning
meets analytics in the middle space[J]. Journal of Learning
Analytics, (1): 23-47.
[24] Kobsa,A.(2007). Privacy-enhanced Personalization.
Commun ACM[M]. New York: ACM: 24-33.
-9-
[25] Macfadyen,L.P, & Dawson,S.(2012). Numbers
are not enough. Why e-learning analytics failed to inform an
institutional strategic plan[J]. Journal of Educational Technology
& Society, (15): 149-163.
[26] Paavola,S, & Hakkarainen,K.(2005). The knowledge
creation metaphor: An emergent epistemological approach to
learning[J]. Science & Education,(14): 535-557.
[27] Prinsloo,P. (in press). Fleeing from Frankenstein’s
monster and meeting Kafka on the way: Algorithmic decision-
making in higher education[J]. E-Learning and Digital Media.
[28]Selwyn,N. (2013). Distrusting Educational
Technology: Critical Questions for Changing Times [M]. New
York : Routledg e.
[29]Siemens,G.(2013).Learning analytics:The emergence
of a discipline[J]. American Behavioral Scientist ,57(10): 1380-
1400.
[30] Solove,DJ.(2004). The Digital Person: Technology and
Privacy in the Information Age [M]. New York:NYU Press.
[31] Suthers,D., &Verbert,K. (2013).Learning analytics
as a “middle space”. Proceedings of the Third International
Conference on Learning Analytics and Knowledge - LAK ’13[M].
New York: ACM Press: 1-4.
[32] van de Sande B.(2013). Properties of the Bayesian
Knowledge Tracing Model[J]. JEDM - Journal of Educational
Data Mining,(5): 1-10.
[33] Verbert,K., Duval,E., Klerkx,J., Govaerts,S., Santos,J.
L.(2013). Learning Analytics Dashboard Applications[J].
American Behavioral Scientist, 57 (10) :1500-1509.
[34] Wheeler,B.(2017). Who is doing our data laundry?
EDUCAUSE Review[DB/OL]. (2017-03-13).Retrieved from
https://er.educause.edu/articles/2017/3/who-is-doing-our-data-
laun dry.
[35] Willis, JE, Slade,S., &Prinsloo,P.(2016). Ethical
oversight of student data in learning analytics: a typology
derived from a cross-continental, cross-institutional
perspective[J]. Educational Technology Research and
Development, 64(5): 881-901.
[36] Wise AF.(2014). Designing pedagogical interventions
to support student use of learning analytics. Proceedings of the
Fourth International Conference on Learning Analytics And
Knowledge - LAK ’14[M]. New York: ACM Press: 203-211.
[37] Zhou,N., Shinohara, F., &Lee, M.(2005). Regional
Guidelines for Teacher Development for Pedagogy-Technology
Integration[M]. Thailand: UNESCO Asia and Pacifi c Regional
Bureau for Education: 28-30.
作者简介
陈伯栋,哲学博士,美国明尼苏达大学教育与人
类发展学院助理教授。研究方向:学习分析学、计算
机辅助的协作学习、在线学习等。
黄天慧,复旦大学高等教育研究所在读博士生,
云南大学信息技术中心实验师。研究方向:学生发展
与评价、在线教与学等。
Unpacking Learning Analytics: An Attempt to Tilt the Iceberg
CHEN Bodong1 and HUANG Tianhui2 3
(1. College of Education and Human Development, University of Minnesota, Minneapolis 55455, USA; 2. Research Institute for Higher Education,
Fudan University, Shanghai 200433, China; 3. Information Technology Center, Yunan University, Kunming 650091, China)
Abstract: Learning Analytics is just like an iceberg. Its visible parts include materialized tools and observable activities, while its hidden
parts comprise conceptualizations of learning, power relations in teaching and learning, and complex social, political and cultural inten-
tions of the larger education agenda. In this article we attempt to unpack key concepts and tensions within the fi eld of Learning Analytics
and discuss opportunities and challenges of its development in China.
K eywords: Learning Analytics; technology integration; education data; pedagogical innovations