ArticlePDF Available

Human-Agent Collectives

Article

Human-Agent Collectives

Abstract and Figures

Human-agent collectives (HAC) offers a new science for exploring the computational and human aspects of society. They are a new class of socio-technical systems in which humans and smart software (agents) engage in flexible relationships in order to achieve both their individual and collective goals. Sometimes the humans take the lead, sometimes the computer does and this relationship can vary dynamically. HACs are fundamentally socio-technical systems. Relationships between users and autonomous software systems will be driven as much by user-focused issues as technical ones. Humans and agents will form short-lived teams in HACs and coordinate their activities to achieve the various individual and joint goals present in the system before disbanding. This will be a continual process as new goals, opportunities and actors arrive. The novel approaches to HAC formation and operation must also address the needs of the humans within the system. Users will have to negotiate with software agents regarding the structure of the coalitions they will collectively form, and then coordinate their activities within the resulting coalition. The ways in which HACs operate requires us to reconsider some of the prevailing assumptions of provenance work. HACs need to understand and respond to the behavior of people and how this human activity is captured, processed, and managed raises significant ethical and privacy concerns.
No caption available
… 
Content may be subject to copyright.
80 ACM 通讯 | 2014 12 | 57 | 12
评论文章
DOI:10.1145/2629559
HAC提出了一种新的科学来探索社会的计算学与人类
学方面。
N.R.JENNINGS L. MOREAU D. NICHOLSON S. RAMCHURN
S. ROBERTS T. RODDEN A. ROGERS
计算机最初只是实验室里的科学工具,但现在已经得
到了长足的发展。我们生活的世界中遍布了大量的计
算机系统,它们分散在各个物理和信息环境中,越来
越多得影响我们的日常行为。计算机技术影响了我们
生活的方方面面,而我们与数字的关系业已发生了根
本性的改变,因为计算机已经冲破了工作场所,脱离
了桌面的限制。随着周围世界中内置的数字设备种类
越来越多,联网的计算机、平板电脑和个人设备现已
司空见惯。数据和信息按前所未有的速度和容量生成,
信息源的范围越来越宽,收集信息的传感器类型种类
也越来越多。随后,它被以无法预见的方式整合,整
合的方式仅受限于人类的想象力。与以往相比,人类
的活动和协作更加依赖于这种无处不在的信息,并与
其交织在一起。
随着这些趋势继续急速扩张,下列情况会变得愈加
明显:很多工作会涉及人类和计算机的交织共生。不
仅如此,出现这些密切关联的伙伴关系后,促成了深
远的变化。计算机系统感知和响应
现实世界中我们不间断活动的能
力正在改变我们的生活,正在为
二十一世纪造就新的数字社会。具
体而言,我们现在不是向被动的机
器发出指令,而是开始与高度互联
的计算组件步调一致地工作。被动
的机器在实施任何工作前会一直等
待,直到得到请求,而互联计算组
件的行为是自治的和智能的(亦称
代理 42)。为了应对可用信息和可
用服务的容量、种类和节奏,需要
这种转变。
若期待个体能了解全局的潜在
相关的可能性的并具备相应的人工
整合能力,这显然不可行。计算
机需要承担更多的工作,根据用户
的喜好和约束情况主动引导用户互
动。在这个过程中,必须更为关注
人类和机器之间控制的平衡。在很
多情况下,人类是负责人,代理主
要发挥支撑作用,提供建议并提供
选项。然而,在其他情况下,代理
起控制作用,人类发挥支撑作用(例
如,汽车的自动驻车系统和证券市
场的算法交易)。不仅如此,在某
项活动的过程中,这种关系可能会
-代理集体
重要见解
HAC 是一种新的社会 -技术系统
类型,其中人类和智能软件(代理)
会构筑灵活的关系,以便实现他们
个人的和集体的目标。有时候由人
类领导,有时候由计算机领导,且
这种关系会动态变化。
这些挑战是重大的科学挑战。开发
在大型、动态和不确定的环境(在
这些环境中,可能会引起隐私和道
德顾虑)中与人类互动并激励人类
与代理协同工作的系统时,这些挑
战必须得到处理。
HAC 中的关键研究挑战包括:实
现人类和软件之间的灵活自治,构
建敏捷团队统筹和协调他们的行
为。
2014 12 | 57 | 12 | ACM 通讯 81
拼贴画由ANDRIJ BORYS ASSOCIATES/SHUTTERSTOCK提供
改变(例如,人类可能会被更紧急
的要求打断,采取较不需要亲身参
与的方式处理手头工作,或者,某
代理可能会碰到未预见的情况,不
得不请求人类协助处理它原来计划
自主完成的任务)。
我们把这种新兴的系统类别称
-代理的集体
HAC),以反映
人类和计算机之间的紧密伙伴关系和
灵活的社会性互动。除了呈现更强的
自治特性外,此类系统在本质上是开
放的、社会的。这种开放性意味着参
与者需要持续不断地、灵活地建立和
管理各种各样的社会关系。因此,根
据手头的任务,人、资源和信息的不
同组合必须聚集在一起,协同一致地
工作,然后再分散开来。由于开放性
及存在很多特点各异的干系人,且每
个干系人都有自己的资源和目标,这
也就就是说,他们的参与的驱动力来
源广泛——有外部(例如,金钱或税
收优惠)社会或形象方面的动机(例
如,公众认可或排行榜的排名),或
内部的(例如,个人对社会事业的兴
趣、利他主义或爱好 2),而不是政
府命令。不仅如此,一旦获取此类激
励措施后,便需要对这些干系人进行
评估和奖励,且这种评估和奖励须确
保他们的持续行为有益于他们参与形
成的系统。33
在未来的 HAC 系统中,人们
定期地协同地与自治软件互动和协
作。这种系统的例子现正在萌发。
例如,在我们旅行的过程中,互联
程度日渐增强的交通管理系统彼此
合作,让我们的旅行更顺利。Waze
http://www.waze.com/)等系统
整合了市民和(电子)传感器信息,
生成相关内容为用户提供帮助。此
外,软件代理可以主动发起互动行
为,根据旅行者的偏好和当前情况
安排游览地点和就餐地点。然而,
尽管 AI(人工智能)、HCI(人机
交互)、CSCW(计算机支持协同
工作)和 UbiComp (普适计算)
社区正在对此问题部分开展相关研
,开发用于 HAC 的综合性和原
理性理论方法仍是一项重大的研究
82 ACM 通讯 | 2014 12 | 57 | 12
评论文章
变成对指挥人们和协调人们响应的
手段进行管理,让他们的行为具有
意义。这种大尺度和联网的协作通
常使用软件系统实现,以便协调和
分析人们的工作。不仅如此,在
观察和应对人类行为时,软件代理
已经成为一项关键技术。17 在混合
式主动系统 8中以及开发普适的情
境感知计算方法时,这一方法的流
行程度也越来越高。1 然而,在大
多数此项工作中,软件代理是一种
工具,用于帮助理解和管理用户互
动。用户位于前台,代理居于后台。
HAC 的挑战正在从支配关系的假设
转向探索用户和代理如何在共同的
基础上共存的方法,以及如何考虑
用户和代理才能让他们之间出现灵
活关系的方法。
HAC 内部,人类的作用也
把参与者的动机摆上了台面。大多
数当前的系统有利他和慈善行为的
假定,但未理会需要向潜在自利的
参与者提供激励的需求,也未明确
地以一致的方式对参与内容的内在
不确定性进行处理(有关此类行为
的样例,参见 Rahwan 等人 28 的论
文;有关应对该问题的激励结构的
设计,参见 Naroditskiy 等人 23
论文)。与此相似,用于负责任的
信息基础设施的现有方法已经把重
点放在了利用跟踪信息源的能力增
强特定系统上,比如数据库 3或计
算工作流 7。现在,新兴的工作(比
W3CPROV 建议 21 )正在开始允
许跨系统追踪来源,并支持追踪到
需要维持数据机密性的系统。14
是,没有任何工作处理因群体内部
的人类以及长期在线操作而带来的
各种并存的挑战。
实践中的人 -代理集体
让我们考虑下重大自然灾害发生后
的情况:若干组织都处于区域内
包括现场急救员FR、人道救
援机构、新闻记者和本地居民。这
些参与者的重要目的之一是评估情
挑战,这点毋庸置疑。同理,设计
和构建此类系统的流程以及在广袤
世界里让人类接受和部署 HAC
方法也是如此。
-代理的集体有何不同?
HAC 系统展现了诸多独特的特性,
使得规划和预测其行为变得异常棘
手。它们的开放本质意味着控制和
信息广泛地散布在大量潜在的自利
人群和代理之间,而他们有着不同
的目的和目标。多样化的系统元素
造就了多种可用性;有些是持久的,
有些是瞬间的。独立的参与者需要
灵活地与人类和代理协调一致,它
们会因势利导地改变自身的行为和
行动,用最佳的方式达到目标。现
实世界的情境意味着有不确定性、
模糊性和无处不在的偏见,所以代
理需要处理质量、可信度和来源各
异的信息。因此,需要各种技术来
提供可追踪的信息轨迹,覆盖从信
息捕捉点(传感器或人类参与者)
经融合和决策过程到行动点过程的
整个轨迹,而且代理必须推断各种
协作者的可信度,以便采取最佳的
方案。最后,在很多情况下,自愿
参与的参与者的集体行为必须被公
众社会所接受(比如公平、效率或
稳定)这点相当重要。通盘考虑后,
HAC 的特性要求我们:
˲ 理解如何提供灵活的自治,允
许代理有时候按完全自治的方式采
取行动,而不需要询问人类;而有
时候则需要人类更紧密的参与予以
指导。
˲ 发现有效的方式方法,允许代
理和人类组成的团体构建敏捷团队
合作,随时携手完成联合任务,然
后在成功完成合作行为后可以分
散。
˲ 详细阐述激励原则,在设计参
与者的奖励时,鼓励参与者采取的
行动需合乎社会需求。
˲ 设计负责任的信息基础设施,
允许对无缝结合的人类和代理的决
策、传感器数据以及大众生成的内
容进行真实性和准确性方面的确认
和审计。
在若干研究领域中,研究人员
已经着手探索这种宏观构想的多个
方面。然而,其中没有任何研究
领域处理这一整体,也缺乏对相关
系统级挑战的探索。例如,互动的
智能代理日渐成为设计和构建拥有
自主干系人的系统的常用手段,其
中每个干系人拥有自己的目标和资
源。9 迄今为止,这方面的很多工
作关注于由软件或硬件代理组成的
系统【例如,机器人或无人自治系
统(UAS)】。然而,研究人员越
来越深刻地认识到,在此类系统内
部,让人类参与进来作为主动的信
息收集者和信息处理者,与自治的
软件代理步调一致,不仅有必要,
还有帮助11,38 例如,研究人员展
示了多个系统,其中人类收集现实
世界的信息,然后把信息传给执行
一些基本聚集的自治代理,再把信
息发布到网上。30 此类方法往往被
称为参与式感知 26 或公民感知。15
与此相似,研究人员还展示了另外
的多个系统,其中自治代理把信息
处理任务传给人类参与者,然后收
集和归总结果。40 不过,此类范围
广泛的各种工作通常会假定人类与
代理之间的优先关系是固定的,且
存在大量的,固定的熟练人类参与
者集合,他们在自愿的基础上参与。
a
这与 HAC 中代理在动态环境中运
行的观点相左。在动态的环境中,
灵活的自治会按基于情境的方式变
换人 -代理的优先关系,而其中的
参与者会基于他们的偏好和其属主
的属性做出个体的决策。
HCI CSCW 的领域中
研究越来越多地转向大众,研究如
何利用计算机系统处理和协调人类
的工作。41 本质上,这一任务已经
a 亚马逊土耳其机器人 AMT)和其他类似的
系统是一种此类中的例外,它允许软件系统自
动生成人工智能任务,然后向完成任务的大量
人类参与者支付报酬。
2014 12 | 57 | 12 | ACM 通讯 83
评论文章
况,确定未来几天和数周内重点关
注的区域。为了协助他们完成这项
工作,很多机构配备了 UAS(无人
机),可用于空中探索,一些当地
居民也安装了监控环境的传感器(例
如,福岛事故发生两周后,当地居
民建造和设置了 500 多个盖革计数
传感器,并一直上传它们的读数
http://jncm.ecs.soton.ac.uk/);
另外,很多当地居民使用社交媒体
平台【如 Ushahidi 或谷歌危机响应
Google Crisis Response】记录
求助请求,完成受灾地区的地图
本文附图说明了这一 HAC 的代表性
系统结构,相关的视频参见 http://
vimeo.com/76205207
如图中所示,信息基础设施包
含了从许多源头产生的,种类繁多
的内容(例如,道路和关键便利设
施的地图、天气预报、受影响区域
内当地居民的社交媒体报告)。其
中的某些信息源比其他源头提供的
信息质量更高、更值得信任(例如,
国际救助机构对比当地建设的环境
传感器读数)。为了帮助解释和论
证做出的决策,信息源应该在尽可
能多的地方保存。不仅如此,需要
跟踪急救者和自治代理(包括无人
机(UAS))两者做出的决策,确
HAC 中的所有成员都能对其行
动负责,在后续阶段评审此类数据
时,也可以更好的理解救援工作的
成败情况。
在一天开始时,各种参与者(例
如,现场急救员或当地的志愿者)
登记他们的空闲情况和相关资源
(例如,无人机、地面运输车辆或
医疗用品),并说明他们希望开展
的特定任务(例如,搜索学校附近
的区域或确定特定地区内是否有自
来水)。这些任务以后会包含他们
对当前情况的评估的汇报,而且也
可能受到当地居民特定求助请求的
影响。
第一步,某位参与者会编制方
案,以达到一项或多项任务目标 b
(换言之,HAC 形成)。该方案可
能涉及组建由人、代理和资源组成
的团队,共同开展各种子任务,因
为很多活动可能会超出单一团队成
员的能力。当他们联合以后,各急
救员可能会接受本来的方案,并准
b 最初的计划可能由人类提出,也可能由软件代
理提出。不仅如此,多个参与者可能会尝试同
时构建方案,而其中一些可能不会取得成果。
灾害应急的HAC系统
84 ACM 通讯 | 2014 12 | 57 | 12
评论文章
协调员发现代理不足以判断人的能
力(例如,由于疲劳人类的工作表
现降低了)或任务的性质(例如
复杂的挖掘操作或监控)时,协调
员可选择介入,改变方案或输入更
多的信息。
过了数天后,急救员可能会注
意到,当地居民支持救援行动的意
愿降低,而且一些人只开展自己区
域内的任务相关工作。这意味着某
些区域得到的关注度会不够。为了
弥补这一缺口,可以安排一些额外
的激励方案。首先,如果志愿者发
动朋友和家庭成员协助实施救援工
作,可以对其进行奖励,这种奖励
可以是经济上的(例如,按工作的
小时数支付钱款或燃料票),或不
是经济上的(例如,承诺更快地归
还他们的生活用品)。其次,对于
完成了所在当地区域以外的任务以
及高优先级任务的个体,可以给予
额外的补助,比如社区服务奖或双
倍工资。最后,为了鼓励人们准
确地报告任务的重要程度和紧急程
度,可以引入一种激励机制,增加
所做评估与职业救援者的评估相符
的个人的信誉,而且也可以向那些
招募到顶级任务执行者的招聘人员
颁发奖金。
研究的关键挑战
除了其他的事务外,在如何控制用
户和代理(灵活自治)的平衡方面,
动态组建和解散集体方面(敏捷组
队),激励参与者(激励工程)方
面以及如何提供支撑这些工作的信
息基础设施方面,HAC 带来了各种
研究挑战。虽然上述领域都不是全
新领域,但是 HAC 系统的情境引
入了其他的复杂性,让很多新的元
素崭露头角。
灵活的自治。
HAC 引发了与人
和数字系统(这些系统呈现了某种
形式的自治)间关系相关联的基础
问题。具体来说,人们不能再把计
算机系统当成完全的附庸,HAC
备好开始实施方案。然而,他们也
可能希望做一些小调整(例如,在
前往选定区域的道路上放置路标,
以最大化的利用所获得的信息的价
值,或求助志愿者完成方案中的某
些部分)。一些人甚至可能希望做
出更大的调整(例如,说明某个开
始未包含的特定子任务比建议的任
务之一更重要,或者需要相当多的
额外资源才能促成方案成功)。这
种方案迭代的过程会反复多次,直
到达成一致,在其中的多个循环中,
人会亲自参与,而代理则根据急救
员的偏好重新编制方案。
由于问题和环境的本质,HAC
的计划执行(操作)阶段可能不会
顺利展开。更高优先级的新任务可
能出现,方案中的任务可能会变得
不必要,可能可以得到新的参与者
和资源,或者承诺的资源可能无法
兑现(例如,由于现场急救员筋疲
力尽,或是无人机能量耗尽)。所
有这些都涉及对代理和人进行持续
不断的监控以及重新制定方案,也
潜在地涉及解散现有团队,然后组
建能力组合不同的、更适于特定类
型的救援行动的新团队。不仅如
此,在方案实施的过程中,人与代
理之间的自治关系也可能会变化。
例如,无人机团队最初得到的指示
可能是:以完全自治的方式收集特
定区域的图像,在整个任务完成前
不打扰现场急救员。然而,在执行
该任务的过程中,无人机可能会碰
到困难,需要人类协助完成复杂的
行动(例如,在狭小的空间内机动,
获取建筑物的特定视图),或者
UAS 可能发现了重要的东西,它们
认为值得打断救援人员,或值得请
求在线的操作人员帮助分析收集的
图像。如果发生了无法预见的事件,
工作的复杂度增大,需要涉及数百
名急救员、志愿者和无人机,那么
应变协调员可能更为依赖自治代理
来计算方案,为个人和无人机安排
支援,部署行动。不仅如此,如果
人员、资源和信息的
不同组合必须聚在
一起,协同一致地工
作,然后解散。
2014 12 | 57 | 12 | ACM 通讯 85
评论文章
出现突显了人们对这方面关注程度
的不断增加。我们通常会毫无疑问
地遵循导航系统的指示,或遵循通
过电话向我们提供的,由计算机生
成的指示。随着此类自治系统越来
越多地指导我们,各种新形式的关
系正在诞生。这种转变不仅带来了
设计与这些系统互动方式有关的问
题,还让人们关注了更大范围的社
会和道德问题,即责任和问责。
HAC 本质上是社会和技术相
融合的系统。用户和自治软件系统
之间的关系将受下列两方面同等推
动:专注于用户的问题(比如责任、
信任和社会接受程度)以及技术问
题(比如规划或协调算法)。因此,
我们需要揭示灵活自治的互动原
则,因为这种自治塑造了此类系统。
此处的关键问题是如何实现参与集
合的代理和用户之间的控制力的平
衡。具体而言,何时应由用户控制,
何时应由软件系统接管?
鉴于这种情况,关键的挑战之
一是如何确保 HAC 内部的控制具
有积极的意义。该问题的核心是日
常活动中内在的社会问责和责任的
意义。我们通常会有专业的和个人
的行为,通过这些行为影响别人,
我们也必须对其负责。事实上,也
可以争辩说,这塑造了许多范围更
广的社会关系和理解。但是,当我
们把我们的世界分享给计算单元,
使得它们对环境的控制程度与我们
一样时,我们会有什么感觉呢?这
种关系是轻松的,亦或是紧张的?
我们又怎么管理这种关系呢?当控
制力的平衡在 HAC 中的软件代理
和人之间切换时,需要什么样的制
约和平衡才能使它们结成成熟的、
富有成效的关系?
处理这些问题时,需要我们思
索软件代理可能会采取何种方式为
用户工作。现在,此类软件往往“躲
在幕后”运行,用户的可见度有限。
他们可能会代表我们提出建议,或
安排活动并把工作结果呈现给用
户。然而,几乎没有任何信息传达
了造成这种结果的原理。与此相反,
HAC 中的计算代理需要透露自己的
行为和原理,这样他们才能承担社
会责任。
向用户揭示软件代理的作用和
行为后,将会突显一大堆问题,并
需要我们考虑更广的社会和道德问
题,可能还会促使人们反思这些系
统运行所处的法律和政策框架。例
如,鉴于工作的集体性质,谁应该
为特定的结果最终负责,这又会对
这种方法的应用产生何种影响。确
定这些相当重要。用更通俗的话说,
人们可能会给予其他训练有素的资
深专业人士信任和自主权,但对于
这些集合中的软件代理,人们会给
多大的信任和自主权呢?作为集体
的一员,如果软件代理在学习如何
执行工作的过程中犯错,这可以接
受吗?
此处的关键问题是,HAC 中,
如何在多层尺度和集合层面上表征
人类和代理的工作。在提升社会责
任感的同时,还需要具备识别和理
解他人活动以及灵活应对这些行为
的能力,以支持合作并协调各方行
为,使之成为更广泛的社会工作的
一部分。因此,提供各种机制让用
户了解他人的行为是很多合作系统
的核心设计要素。具体而言,有下
列几个中心问题 :需要什么机制支
持我们据此处理用户以及类似的自
治软件代理?我们如何感知人类行
为,识别用户参与的各种活动?以
及如何把这些传递给软件代理?向
用户呈现代理行为和进展的最佳技
术是什么?
敏捷组队
HAC ,人类
和代理会组成短期的团队。在团队
解散前,他们会协调他们的行为来
完成系统中出现的各种单独的和联
合的目标。由于新的目标、机遇和
参与者接踵而来,并且这会是个持
续不断的过程。迄今为止,在多代
理系统社区的研究中,已经产生了
大量的算法用于组建和协调团队。
具体来说,研究人员在联盟形成和
分布式协调领域发现了这些算法。
27,32 然而,其中很多方法只关注了
软件代理之间的互动,而不考虑敏
捷组队的时间方面。36
HAC 的场景中,这些假设
受到了挑战。集中控制基本上无法
用于大规模动态 HAC。不仅如此,
开发的方法不仅必须考虑最优联盟
的形式,还要在各自具有自己有限
的通讯和计算资源的情况下,考虑
人类个体与代理之间如何互相商议
组成联盟,且不需要具备系统中所
有其他参与者的功用和约束的显性
知识。
处理这种分散化问题可能会涉
及局部消息传递方法。这些方法利
用了概率推理、图模型和博弈论领
域的理论和方法。通过利用代理之
间的典型稀疏交互(换言之,每个
代理彼此之间不一定存在直接的互
动),这些方法允许使用图的方法,
有效地展现协调和联盟形成问题。
然而,迄今为止,这些方法仅处理
了成员几十名的团队,而 HAC
规模将扩大到几百,甚至几千名成
员。与此类似,在开发现有的方法
时,明确假设协作中所有的参与者
均拥有相似的计算和通讯资源,在
大多数 HAC 内部,这种假设几乎
必然是错的。这些方法的规模扩大
时会面临挑战。应对此类挑战时,
它们须能够处理大量具有不均等计
算和通讯资源的参与者,这可能要
求做出原理性近似(此领域中具有
发展潜力的成果见 Rahwan 等人的
论文 29,其使用了论证充分的网络
流优化算法来处理大规模联盟形成
问题)。
不仅如此,之前的组队和参与
者协调方法通常假定,所有人均能
获得与系统的公共工具和约束有关
的完整、准确的知识。虽然在迄今
所研究的小规模系统中,此类假设
可能是有效的,但是它们却无法应
86 ACM 通讯 | 2014 12 | 57 | 12
评论文章
望问题。例如,他们举出了 avvo.
com,该网站吸引了美国大量的律
师向访问网站的人提供免费回复和
建议,并根据他们提供的回复的质
量和及时性生成这些律师的声望等
。现在,网上排名明显会影响
客户受吸引并寻求他们私人服务的
几率,但是这种效果是间接的,而
且与直接支付货币相比,这容纳了
更大范围的个人动机。然而,迄今
为止,比较而言,几乎没有研究尝
试从形式上定义这种类型的激励机
制。这是个重大的遗漏,因为我们
相信,把行为经济学的理论方法和
行为变化的“助推”方法 10,38 带入
博弈论提供的机制设计的形式化描
述中后,会得到一个富有潜力的出
发点,可用于策划 HAC 需要的激
励类型。
如今,即便可以确定正确的激
励措施,系统中的参与者也有可能
达不到最佳的绩效,这或是因为他
们的能力有限,或是因为他们本质
上错综复杂。例如,在 AMT(亚
马逊土耳其机器人)等系统中,成
千上万名工作人员会尝试完成报酬
几美分的微任务,而战略型的工作
人员则尝试用最小的努力尽可能多
地完成任务。与此类似,在宇宙动
园(Zooniverse)等公民科学项
目中,业余科学家通常会选择他们
最享受的任务,而不是项目最需要
的任务。34 不仅如此,在长期互动
中,人类参与者可能会受到疲劳的
困扰,他们的表现可能会随时间退
步。然而,如果未加思索地排除所
有不能执行某些任务的参与者,可
能也意味着错失了他们正确执行其
他任务的能力。因此,关键是设计
各种机制,用以确保为执行所派任
务的参与者而设置的激励措施与他
们的能力和责任心相符。举例而言,
在这种背景下,众包和公民科学中
最初的工作已经说明了如何设定微
任务所需支付的价格,或者应该为
每位参与者分配多少特定类型的任
用于运行于动态环境中的、更大规
模的 HAC,其中参与者的感知和通
讯能力未知。在这一领域中,之前
的成果已经通过马尔可夫决策过程
MDP)和部分可观测马尔可夫决
策过程(MDP)的框架处理了这种
不确定性。现在,虽然这些方法中
隐含的贝叶斯框架论证充分,原理
性强,但是现在它的规模还是不够
大,不能在那些必须确保决策时间
的大型系统中使用。与之前的情况
相同,这需要设计新的计算和近似
方法。
最重要的是,HAC 形成和运行
的新方法必须处理系统中人类的需
。用户必须与软件代理商议,就
他们集体形成的短期联盟结构达成
一致,且应协调他们在所形成的联
盟中的各种活动。相比主要聚焦于
计算实体而基本不考虑用户组队方
式,也不考虑用户与群组(如团队)
关系的机制和技术,这是重要的革
。因此,计算学方面的探索必须
通过聚焦于集体内人类参与者的说
服力和参与度而达到平衡。例如,
由于人类天性喜欢稳定和信任,我
们如何理解和管理在解散和重组团
队的需要中存在的冲突?用户对同
时在多个团队工作的可能性有何看
?接收软件代理发出的指令时,
他们的感觉如何?在混合现实游戏 20
和社会机器人 6 的场景中,研究人
员已经开始探讨这些问题。然而,
为了全面地了解这些动态因素如何
影响对底层的组队和协调算法的要
求,我们需要在真实的场景中构建、
部署和评估原型 HAC
激励工程
什么会促成 HAC
的形成,什么又会激励他们一起有
效地工作?我们如何让多个参与者
(单独或群体)的激励措施目标一
致,朝向系统设计者的目标生成特
定的结果?当参与者的行为受到个
人和潜在冲突的动机引导时,上述
两项工作都相当艰巨4现在,虽
然人们承认,此类参与者可能受到
很多不同类型的激励措施的影响,
但迄今为止,大多数研究利用了微
观经济学,聚焦于金钱方面的激烈
措施,并假设参与者的效用函数定
义清晰且是线性的。不仅如此,人
们通常认为参与者是理智的,因为
他们会进行复杂的计算,以推断自
己在形式中的最佳行为。不幸的是,
这些假设通常会引发集中化的激励
机制。HAC 等开放系统的场景下,
这种机制不稳定。
HAC 要求我们重新考虑很多假
设,而这些假设却是激励工程的最
新方法中的核心假设。他们会涉及
有限理性的参与者 10,且这些参与
者的行为有时无法控制。例如,在
灾害应急的场景中,(责任心不同
的)当地志愿者可能会(通过他们
的社交网络)受到他们的家庭成员
和朋友的影响,需要调整他们与不
同机构(能力不同)的紧急救护人
员一起工作。不仅如此,人和软件
代理有时可能也不乐意接受金钱的
报酬,社会或内在的激励措施的反
响可能更好。例如,在 DARPA Red
Balloon Challenge(国防高等研究
计划署红气球挑战赛)中,获胜团
队的激励机制成功了,因为它把个
人找到气球的经济动机与从他们的
社交网络及其他方面招募成员的动
机保持一致28 与此相反,在 My-
HeartMap Challenge http://www.
med.upenn.edu/myheartmap/)中 ,
基本相同的方案却几乎没有吸引到
志愿者,因为那些人主要受到愿意
拯救心脏病发作病人的利他动机的
影响。最近,Scekic 等人 33 调查和
归类了社会化计算平台中使用的激
励机制的此类早期例子。他们注意
到,绝大多数当前系统在工作人员
之间举行了简单的竞赛,并通过主
观评价得出“获胜者”。然后,根
据该获胜者完成的工作,他通常会
得到经济方面的奖赏。相比之下,
很少有系统使用了非货币激励。使
用非货币激励的系统通常聚焦于声
2014 12 | 57 | 12 | ACM 通讯 87
评论文章
务来激励他们表现良好。39 在激励
人类参与者花费数小时从事通常被
视为无聊的任务方面,游戏化方法
也已经取得了成功。41 然而,需要
投入更多的工作来让这些方法变得
更通用,并证明他们在不同应用领
域的效用。
虽然这些挑战与激励措施的选
择和呈现方式有关,但是计算 HAC
场景中的这些激励措施也是一项重
大的挑战。实际上,HAC 涉及大量
参与者,这一事实意味着需要设计
计算效率高的算法来枚举和优化激
励措施的组合(为 HAC 内部的群
体、联盟或个人设置的激励措施)。
当此类 HAC 的行动展开相当长的
时间后,可能会涉及很多反复的互
动和协商,获取拟设置的激励措施
的详单会是一种更大的计算挑战。
在大多数情况下,无法达到最优,
因此目标应该是找出近似解。有一
些相关的例子,比如激励大量的电
动车所有人安排不同的时间给车充
电,以避免本地变压器过载 31 以及
为大团队中各成员粗略算出公平奖
励的算法。19
负责任的信息基础设施。
HAC
将会大大影响我们对支撑 HAC
数字基础设施的认识方式。具体来
说,我们需要考虑如何才能共享数
据基础。信息的源头至关重要。此
处,来源描述了数据的信息来源(什
么)、对其负责的人或代理(谁)
以及获得信息的方法(怎样)。反
过来,基础设施处理信息源头来评
估信息质量,允许用户理解和审计
HAC 的历史行为,并帮助人类确定
HAC 的决策是否可以信赖。
HAC 运行的方式要求我们重新
考虑某些关于源头工作方面的流行
假设。通常情况下,人们认为源头
是细粒度的、确定的, 并且准确和
完整地描述了执行情况。21 HAC
中,这一假设无效,因为人类活动
不仅很难捕捉,而且也不可靠。不
仅如此,异步通信可能会让源头变
得不完整。最后,源头的细粒度本
质让它很难被人类理解。处理这些
挑战十分重要,且需要各种类型的
技术。例如,基于源头构建的概率
模型或许能帮助人们捕捉与所发生
事件相关的不确定性,而抽象技术
或许能允许归总常见的模式,继而
让大图变得更容易管理。在这些前
景广阔的方向中,需要探索此类源
头描述的意义以及它们支持的推理
类型。给定 HAC 在代理和人类方
面以及执行时间方面的潜在规模
后,推理算法的可扩展性也成了一
个重要的问题,需要进一步的研究。
负责任的信息基础设施的愿景
是帮助人和代理理解所作出的决策
并确定它们是否可以信任。事实上,
源头能帮助产生信任,评估质量,
这已是默认的常识,但是目前尚无
原理性的方法可直接应用于 HAC
在这种背景下,从源头学习的能力
就相当重要,因为它有潜力把源头
变成丰富的信息来源,用以建立可
信度并引导 HAC 中的决策过程。
具体来说,假定源头信息通常以图
的形式呈现,一些为图开发的通用
方法或许是可定制的,并且有可能
会被有效地执行。网络指标就是此
类解决方案的一个例子,它用便捷
和简凑的方式汇总了复杂的场景和
行为。具体而言,网络指标可以被
具体化成源图,以与应用无关的方
式帮助刻画 HAC 过去的行为。5
后,通过在面向源的网络指标上面
应用机器学习技术,我们可以标记
图和节点,获取有关代理或数据质
量的可信度。
迄今为止,现存的基础设施机
制倾向于体现一种“中间件”的观
点,对数据模型进行形式化,开发
算法并使用应用构思各部分(如来
源)的集成。然而,HAC 需要理解
和响应人类的行为,但人类行为的
捕捉、处理和管理方式会引起重大
的道德和隐私顾虑。通常,这些顾
虑的核心是人类与被收集的人类数
关键的挑战之一是如
何确保HAC内部的控
制具有积极的意义。
该问题的核心是日常
活动中内在的社会问
责和责任的意义。
88 ACM 通讯 | 2014 12 | 57 | 12
评论文章
据的隔离方式。具体而言,在当前
的基础设施中,人们通常不知道他
们流出的数字信息,这些信息的处
理方式以及从这些数据获取的分析
推理所产生的影响。因此,在管理
与基础设施的关系时,人们在道德
上处于劣势,因为他们在很大程度
上不知道其行为的数字结果,也缺
乏有效的控制或撤销手段。HAC
础设施需要对人类负责,允许他们
与其数据发展更丰富、双向性更强
的关系。
开发负责任的基础设施还响
应了隐私研究人员(如Nissen-
baum24)的要求。他们要求理解和
支持用户及其数据之间的关系。事
实上,她的语境完整性Contextual
Integrity)理论把隐私设想为不同社
会代理之间的辩证过程。基于这一
点,其他人提出,在服务的设计中
需要内置双向的关系,以便人们认
可它们在本质上是社会性的。35
表明,用户应该能够明确地了解并
控制向他人进行的数据披露 25 以及
软件代理对这种数据的使用。建立
这种双向关系还要求我们重新构建
治理和管理人类数据的现有方法。
这方面最关键的问题或许与在
信息系统中谋求使用个人数据的权
限有关。当前的方法使用了传统的
模型,只询问用户一次他是否同意
各种条款,而这些条款往往相当复
杂。在生物伦理学领域,这一传统
模型已经受到了质疑,Manson
O'Neill18 争辩说,需要从比当前合
约概念更广的角度思考同意。我们
建议,与此类似,HAC 也需要重新
考虑同意的设计原则,并重新处理
代理与用户之间的平衡。16
参考资料
1. Abowd, G.D., Ebling, M., Hung, G., Lei, H., and Gellersen,
H.W.Context-aware computing.IEEE Pervasive
Computing 1, 3 (2002) 22–23.
2. Ariely, D., Bracha, A. and Meier, S. Doing good or doing
well?Image motivation and monetary incentives in
behaving prosocially.American Economic Review 99, 1
(2007), 544–55.
3. Buneman, P., Cheney, J. and Vansummeren, S. On the
expressiveness of implicit provenance in query and
update languages.ACM Trans.Database Systems 33, 4
(2008), 1–47.
32. Rogers, A., Farinelli, A., Stranders, R. and Jennings,
N.R.Bounded approximate decentralised coordination
via the max-sum algorithm.Artificial Intelligence 175,
2 (2011), 730–759.
33. Scekic, O., Truong, H.-L. and Dustdar, S. Incentives and
rewarding in social computing.Commun.ACM 56, 6
(2013), 72–82.
34. Simpson, E., Roberts, S.J., Smith, A. and Lintott, C.
Bayesian combination of multiple, imperfect classifiers.
In Proc.25th Conf. on Neural Information Processing
Systems, (Granada, Spain, 2011).
35. Steeves, V. Reclaiming the social value of privacy.
Lessons from the Identity Trail.I. Kerr, V. Steeves and
C. Lucock, eds.Oxford University Press, 2009, 193–208.
36. Stone, P., Kaminka, G.A., Kraus, S. and Rosenschein,
J.S.Ad hoc autonomous agent teams:Collaboration
without pre-coordination.In Proc.24th Conference on
Artificial Intelligence (2010).
37. Tambe, M. et al.Conflicts in teamwork:Hybrids to the
rescue In Proc.4th Int.Joint Conf. on Autonomous
Agents and Multiagent Systems, (Utrecht, The
Netherlands, 2005), 3-10.
38. Thaler, R.H. and Cass, R.S.Nudge:Improving Decisions
About Health, Wealth, and Happiness.Yale University
Press, 2008.
39. Tran-Thanh, L., Venanzi, M., Rogers, A. and Jennings,
N.R.Efficient budget allocation with accuracy
guarantees for crowdsourcing classification tasks.In
Proc.12th Int.Conf. on Autonomous Agents and Multi-
Agent Systems (St. Paul, MN, 2013), 901–908.
40. von Ahn, L. et al. recaptcha:Human-based character
recognition via web security measures.Science 321,
5895 (2008), 1465–1468.
41. von Ahn, L. and Dabbish, L. Labeling images with a
computer game.In Proc.SIGCHI Conf. on Human
Factors in Computing Systems, (Vienna, Austria, 2004),
319–326.
42. Wooldridge, M.J. and Jennings, N.R.Intelligent
agents:Theory and practice.Knowledge Engineering
Review 10, 2 (1995) 115–152.
N.R.Jennings nrj@ecs.soton.ac.uk)是英国南安普顿大
学电子与计算机科学学院计算机科学钦定教授(Regius
Professor )和英国政府首席科学顾问。
L.Moreau lavm@ecs.soton.ac.uk)是英国南安普顿大
学电子与计算机科学学院计算机科学教授, 网络和互联
网科学小组(WAIS)组长以及该学院的副院长(研究与
企业)。
D. Nicholson dn4@ecs.soton.ac.uk)是BAE的高级工
业科学家,EPSRC资助的人-代理集体(Human Agent
Collectives)项目的知识传递官。
S.Ramchurn sdr@ecs.soton.ac.uk)是英国南安普顿
大学电子与计算机科学学院代理、互动和复杂性小组
AIC)的讲师。
S.Roberts sjrob@robots.ox.ac.uk)是英国牛津大学机
器学习研究小组的领军人物。他还是萨默维尔学院的资
深研究教授和牛津人研究所的教职人员。
T.Rodden tar@cs.nott.ac.uk)是诺丁汉大学的计算学教
授和混合现实实验室的联席主任。
A.Rogers (acr@ecs.soton.ac.uk)是英国南安普顿大学电
子与计算机科学学院代理、互动和复杂性小组(AIC
的计算机科学教授。
译文责任编辑:田丰
版权归属于作者 / 所有者。出版权归属 ACM$15.00
4. Dash, R.K., Parkes, D.C. and Jennings,
N.R.Computational mechanism design:A call to arms.
IEEE Intelligent Systems 18, 6 (2003) 40–47.
5. Ebden, M., Huynh, T.D., Moreau, L., Ramchurn, S.D. and
Roberts, S.J.Network analysis on provenance graphs
from a crowdsourcing application.In Proc.4th Int.Conf.
on Provenance and Annotation of Data and Processes.
(Santa Barbara, CA, 2012), 168–182.
6. Fong, T., Nourbaksha, I. and Dautenhahn, K. A survey
of socially interactive robots.Robots and Autonomous
Systems 42 (2003), 143–166.
7. Gil, Y., Deelman, E., Ellisman, M., Fahringer, T., Fox, G.,
Gannon, D., Goble, C., Livny, M., Moreau, L. and Myers, J.
Examining the challenges of scientific workflows.IEEE
Computer 40, 12 (2007), 26–34.
8. Horvitz, E. Principles of mixed-initiative user interfaces.
In Proceedings of the SIGCHI conference on Human
Factors in Computing Systems (New York, NY, 1999),
159–166.
9. Jennings, N.R.An agent-based approach for building
complex software systems.Commun.ACM 44, 4
(Apr. 2001) 35–41.
10. Kahneman, D. Maps of bounded rationality:Psychology
for behavioral economics.American Economic Review
93, 5 (2003) 1449–1475.
11. Kamar, E., Gal, Y. and Grosz, B. Modeling information
exchange opportunities for effective human-computer
teamwork.Artificial Intelligence Journal 195, 1 (2013)
528–555.
14. Kifor, T. et al.Provenance in agent-mediated healthcare
systems.IEEE Intelligent Systems 21, 6, (2006) 38–
46.
15. Krause, A., Horvitz, E., Kansal, A. and Zhao, F. Toward
community sensing.In Proc.Int.Conf. on Information
Processing in Sensor Networks (St Louis, MO, 2008),
481–492.
16. Luger, E. and Rodden, T. An informed view on consent
for UbiComp.In Proc.Int.Joint Conf. on Pervasive and
Ubiquitous Computing (2013), 529–538.
17. Maes, P. Agents that reduce work and information
overload.Commun.ACM 37, 7 (1994), 31–40.
18. Manson, N.C. and ONeill, O. Rethinking informed
consent in bioethics.CUP, 2007.
19. Michalak , T., Aaditha, K.V., Szczepanski, P., Ravindran,
B. and Jennings, N.R.Efficient computation of the
Shapley value for game-theoretic network centrality.J.
AI Research 46 (2013), 607–650.
20. Moran, S., Pantidi, N., Bachour, K., Fischer, J.E.,
Flintham, M. and Rodden, T. Team reactions to voiced
agent instructions in a pervasive game.In Proc.Int.
Conf. on Intelligent User Interfaces, (Santa Monica,
CA, 2013), 371–382.
21. Moreau, L. The foundations for provenance on the Web.
Foundations and Trends in Web Science 2, 2–3 (2010)
99–241.
22. Moreau, L. et al.Prov-dm:The prov data model.W3C
Recommendation REC-prov-dm-20130430, World
Wide Web Consortium, 2013.
23. Naroditskiy, V., Rahwan, I., Cebrian, M. and Jennings,
N.R.Verification in referral-based crowdsourcing.PLoS
ONE 7, 10 (2012) e45924.
24. Nissenbaum, H. Privacy as contextual integrity.
Washington Law Review 79, 1 (2004), 119–158.
25. Palen, L. and Dourish, P. Unpacking privacy for a
networked world.In Proceedings of the SIGCHI
Conference on Human Factors in Computing Systems
(2003), 129–136.
26. Paxton, M. and Benford, S. Experiences of participatory
sensing in the wild.In Proc.11th Int.Conf. on Ubiquitous
Computing, (Orlando, FL, 2009), 265–274.
27. Rahwan, T., Ramchurn, S.D., Jennings, N.R. and
Giovannucci, A. An anytime algorithm for optimal
coalition structure generation.J. Artificial Intelligence
Research 34 (2009), 521–567.
28. Rahwan, I. et al.Global manhunt pushes the limits of
social mobilization.IEEE Computer 46, 4 (2013a) 68–
75.
29. Rahwan, T., Nguyen, T-D, Michalak, T., Polukarov,
M., Croitoru, M., Jennings, N.R.Coalitional games via
network flows.In Proc.23rd Int.Joint Conf. on Artificial
Intelligence, (Beijing, China, 2013b), 324–331.
30. Reddy, S., Parker, A., Hyman, J., Burke, J., Estrin, D. and
Hansen, M. Image browsing, processing, and clustering
for participatory sensing.In Proc.4th Workshop on
Embedded Networked Sensors, (Cork, Ireland, 2007),
13 –1 7.
31. Robu, V., Gerding, E.H., Stein, S., Parkes, D.C., Rogers, A.
and Jennings, N.R.An online mechanism for multi-unit
demand and its application to plug-in hybrid electric
vehicle charging.J. Artificial Intelligence Research
(2013).
... Additional questions regarding the effect of algorithms remain, such as how online dating algorithms alter the societal institution of marriage 35,36 and whether there are systemic effects of increasing interaction with intelligent algorithms on the stages and speed of human development 53 . These questions become more complex in 'hybrid systems' composed of many machines and humans interacting and manifesting collective behaviour 39,67 . For society to have input into and oversight of the downstream consequences of AI, scholars of machine behaviour must provide insights into how these systems work and the benefits, costs and trade-offs presented by the ubiquitous use of AI in society. ...
... Although it can be methodologically convenient to separate studies into the ways that humans shape machines and vice versa, most AI systems function in domains where they co-exist with humans in complex hybrid systems 39,67,125,128 . Questions of importance to the study of these systems include those that examine the behaviours that characterize human-machine interactions including cooperation, competition and coordination-for example, how human biases combine with AI to alter human emotions or beliefs 14,55,56,129,130 , how human tendencies couple with algorithms to facilitate the spread of information 55 , how traffic patterns can be altered in streets populated by large numbers of both driverless and human-driven cars and how trading patterns can be altered by interactions between humans and algorithmic trading agents 29 as well as which factors can facilitate trust and cooperation between humans and machines 88,131 . ...
Chapter
Machines powered by artificial intelligence increasingly mediate our social, cultural, economic, and political interactions. This chapter frames and surveys the emerging interdisciplinary field of machine behaviour: the scientific study of behaviour exhibited by intelligent machines. It outlines the key research themes, questions, and landmark research studies that exemplify this field. The chapter starts by providing background on the study of machine behaviour and the necessarily interdisciplinary nature of this science. It then provides a framework for the conceptualisation of studies of machine behaviour. The chapter closes with a call for the scientific study of machine and human–machine ecologies and discusses some of the technical, legal, and institutional barriers that are faced by researchers in this field. Finally, studying intelligent algorithmic or robotic systems can result in legal and ethical problems for researchers studying machine behaviour.
... Arguably, "the AI systems' objective is to achieve what humans want" [91] and, to that end, we need to focus on the design and development of autonomous agents and multiagent systems that consider the social values and preferences of humans. The human-centred view in multiagent systems research builds on the sociotechnical perspective that, in most application domains, artificial agents need to work in collaboration with humans as a collective [92]. To achieve this, the aim is to form partnerships that are technically effective and trusted by the heterogeneous society of stakeholders [93]. ...
Article
The Agents, Interaction and Complexity research group at the University of Southampton has a long track record of research in multiagent systems (MAS). We have made substantial scientific contributions across learning in MAS, game-theoretic techniques for coordinating agent systems, and formal methods for representation and reasoning. We highlight key results achieved by the group and elaborate on recent work and open research challenges in developing trustworthy autonomous systems and deploying human-centred AI systems that aim to support societal good.
... In their analysis, these authors already consider several of the aspects that will be depicted later in this section in reviewing the following top- (Jennings et al., 2014: p. 80). Nevertheless, the most crucial difference is that while Jennings et al. (2014) consider HACs as a form of agile teaming where humans and agents will form short-lived teams before disbanding, it is assumed here that centaurs constitute a permanent and symbiotic relationship. This symbiotic relationship between humans and AI is the very core of the nature of centaurs and results from the three steps of the symbiotic learning process displayed hereafter. ...
Chapter
We analyze socio-psychological process wins and losses in relation to Human-AI collaborative performance. The reported heterogeneous effects of the body of literature on group performance in relation to structural and processual determinants are briefly summarized. Based on this, two of the most relevant socio-psychological aspects of Human-AI collaborative performance are highlighted: Accuracy of the shared mental model and fulfillment of basic human needs. The paper concludes by proposing an empirical and experimental research program that addresses under-researched socio-psychological phenomena in Human-AI collaboration that can be held accountable for process wins and losses.KeywordsHuman-AI interactionSocio-psychologyCollaborative performance
Chapter
The effectiveness of maintaining and accessing decentralized organization’s information and knowledge is crucial for the competitiveness of the company and its ability to adapt to ever-changing business environment. Most of this knowledge is typically scattered across various socio-cyber-physical systems inside the company. The concept of socio-cyber-physical system and the related reseach aims on providing a holistic view on heterogeneous systems, including physical, software and human components and their real-time interactions via multilevel connections. Context-aware knowledge management is becoming de facto one of the essential business strategies to support such systems. Its purpose is to facilitate the transfer and exchange of knowledge in the context of business structures and activities related to cultural norms. This paper discussess emerging trends (including role organization, dynamic motivation mechanisms, and multidimensional ontology) in knowledge management for socio-cyber-physical systems. These trends can contribute to the creation of an innovative IT and HR environment based on the collective intelligence of humans and machines, where information and knowledge is shared among participants and among collectives of participants who can be either humans (collective intelligence as methods used by humans to take collective action to solve problems) or software services (based on artificial intelligence models). The paper discusses examples of trends and experiences of their implementation in a global manufacturing company and also proposes a concept human-machine collective intelligence environment utilizing the discussed technologies to support human-computer collaboration in decision support scenarios.KeywordsSocio-cyber-physical systemsCollective intelligenceHybrid systemsContext-aware knowledge managementOntology-based systemsMulti-aspect ontologyRole-based organizationDynamic motivation
Article
Collaborative unmanned systems have emerged to meet our society’s wide-ranging grand challenges, with their advantages including high performance, efficiency, flexibility, and inherent resilience. Increasing levels of group/team autonomy have also been achieved due to the embodiment of artificial intelligence (AI). However, the current networked unmanned systems still do not have sufficient human-level intelligence and human needs fulfillment for the challenging missions in our lives. We propose in this paper a vision of human-centric networked unmanned systems: Unmanned Intelligent Clusters (UnIC). Within this vision, distributed unmanned systems and humans are connected via knowledge to achieve cognition. This paper details UnIC’s concept, sources of intelligence, and layered architecture, and review enabling technologies for achieving this vision. In addition to the technological aspects, the social acceptance is highlighted.
Chapter
Pervasive computing has engendered increasing interaction between speakers of English as a second language (EL2) and intelligent software agents using English as a first language. This extends discourse to contexts such as satellite navigation systems giving drivers directions, self-service systems in banks, and computer aided language learning (CALL) devices in Nigeria. Additionally, most research around listenership in Human-Agent Interaction (HAI) has focused on assessing listener feedback using verbal feedback or posed nonverbal behaviours with little attention paid to listener spontaneous nonverbal behaviours. This chapter reports a scoping study aimed at developing a better understanding of the nature of marked spontaneous nonverbal listenership behaviours displayed and their impact on listener-comprehension during interaction. Ten student-teachers of English were tasked with assembling two Lego models using vague verbal instructions from a computer interface and one human instructor within two 15-min interactions. The study used a continuum of four voices comprising two synthesised voices, one by a voice actor and another by a human instructor. A 5-h long multimodal corpus was built and analysed from these interactions. The results suggest that it is possible for humans to show their level and process of comprehending agent instructions through facial actions, nonverbal private talk and repairs during interaction. Furthermore, there is a potential for formulating a theoretical basis for researching interaction in similar contexts. Findings suggest that enhancing agents’ emotive functionality may enhance HAI in English language learning contexts, but this requires further research.
Article
Full-text available
Ubiquitous computing systems tend to be complex, seamless, data-driven and interactive. Reacting to both context, and users' implicit actions resulting from the lived experience, they cast all traces of human life as potential 'data'. To augment users' endeavours, such systems are necessarily embedded below the line of human attention, drawing upon new and highly sensitive types of data. This begs the question, where is the moment of user consent and how can this moment be truly informed? We would argue that it is time to revisit our design principles in respect of consent and redress the balance of agency towards the user. We draw upon a series of multidisciplinary interviews with experts to (a) reframe consent for ubicomp, and (b) offer three indicative principles, supportive of consent, for designers to 'balance' against system functionality. We hope that this will afford a new prism through which designers might make value judgements.
Conference Paper
Full-text available
We introduce a new representation scheme for coalitional games, called coalition-flow networks (CF-NETs), where the formation of effective coalitions in a task-based setting is reduced to the problem of directing flow through a network. We show that our representation is intuitive, fully expressive, and captures certain patterns in a significantly more concise manner compared to the conventional approach. Furthermore, our representation has the flexibility to express various classes of games, such as characteristic function games, coalitional games with overlapping coalitions, and coalitional games with agent types. As such, to the best of our knowledge, CF-NETs is the first representation that allows for switching conveniently and efficiently between overlapping/non-overlapping coalitions, with/without agent types. We demonstrate the efficiency of our scheme on the coalition structure generation problem, where near-optimal solutions for large instances can be found in a matter of seconds.
Conference Paper
Full-text available
Although privacy is broadly recognized as a dominant concern for the development of novel interactive technologies, our ability to reason analytically about privacy in real settings is limited. A lack of conceptual interpretive frameworks makes it difficult to unpack interrelated privacy issues in settings where information technology is also present. Building on theory developed by social psychologist Irwin Altman, we outline a model of privacy as a dynamic, dialectic process. We discuss three tensions that govern interpersonal privacy management in everyday life, and use these to explore select technology case studies drawn from the research literature. These suggest new ways for thinking about privacy in socio-technical environments as a practical matter.
Article
Full-text available
Using social media and only the targets' mug shots, a team competing in the US State Department-sponsored Tag Challenge located three of five targeted people in five cities in the US and Europe in less than 12 hours.
Article
Full-text available
When teh Guest Editors originally proposed this special issue topic to the IEEE, it was targeted for the Personal Communications magazine. Since that original proposal, IEEE Pervasive Computing came into existence and Personal Communications was renamed IEEE Wireless Communications. The editorial boards decided to spread the special issue across both magazines. We received a total of 24 submissions, and 12 were accepted (seven in IEEE Pervasive Computing and five in the Oct. 2002 IEEE Wireless Communications). The Guest Editors provide a brief summary of the articles included in tis Special Issue.
Article
Informed consent is a central topic in contemporary biomedical ethics. Yet attempts to set defensible and feasible standards for consenting have led to persistent difficulties. In Rethinking Informed Consent in Bioethics Neil Manson and Onora O'Neill set debates about informed consent in medicine and research in a fresh light. They show why informed consent cannot be fully specific or fully explicit, and why more specific consent is not always ethically better. They argue that consent needs distinctive communicative transactions, by which other obligations, prohibitions, and rights can be waived or set aside in controlled and specific ways. Their book offers a coherent, wide-ranging and practical account of the role of consent in biomedicine which will be valuable to readers working in a range of areas in bioethics, medicine and law.
Conference Paper
Although privacy is broadly recognized as a dominant concern for the development of novel interactive technologies, our ability to reason analytically about privacy in real settings is limited. A lack of conceptual interpretive frameworks makes it difficult to unpack interrelated privacy issues in settings where information technology is also present. Building on theory developed by social psychologist Irwin Altman, we outline a model of privacy as a dynamic, dialectic process. We discuss three tensions that govern interpersonal privacy management in everyday life, and use these to explore select technology case studies drawn from the research literature. These suggest new ways for thinking about privacy in socio-technical environments as a practical matter.
Article
We develop an online mechanism for the allocation of an expiring resource to a dynamic agent population. Each agent has a non-increasing marginal valuation function for the resource, and an upper limit on the number of units that can be allocated in any period. We propose two versions on a truthful allocation mechanism. Each modifies the decisions of a greedy online assignment algorithm by sometimes cancelling an allocation of resources. One version makes this modification immediately upon an allocation decision while a second waits until the point at which an agent departs the market. Adopting a prior-free framework, we show that the second approach has better worst-case allocative efficiency and is more scalable. On the other hand, the first approach (with immediate cancellation) may be easier in practice because it does not need to reclaim units previously allocated. We consider an application to recharging plug-in hybrid electric vehicles (PHEVs). Using data from a real-world trial of PHEVs in the UK, we demonstrate higher system performance than a fixed price system, performance comparable with a standard, but non-truthful scheduling heuristic, and the ability to support 50% more vehicles at the same fuel cost than a simple randomized policy.
Article
Praise, pay, and promote crowd-member workers to elicit desired behavioral responses and performance levels.