技术很新 问题很老
程盟超
我高中三年最惊悚的回忆,大概是教室后门的玻璃窗上,班主任不时浮现的黑色眼睛。这双眼睛如果一直在,会有很多人坐立不安。
现在:这双“眼睛”又来了。比肉眼还要灵敏的摄像头被布置在教室中央,监控所有学生。人工智能则赋予了它更高级的判断能力:他今天玩手机3次,打瞌睡2次,举手0次,学习不认真;她这堂课露出8次疑惑和3次厌恶的表情,微笑却只有1次,可能不太适应这位教师;教师则可以不动声色地查阅所有信息。
最近试水这一领域的,是人工智能行业的明星企业旷视科技。一个趴在课桌上微笑的女孩,在这家企业的产品演示图里,被标注了“睡觉、阅读、举手、玩手机”等行为的次数。这引起了热议,有人说,管理学生搞得像治理监狱。
被骂惨的企业可能感到很冤。它算不上先行者,一家教育企业早就宣称,自家的技术能识别学生的专注度和情绪;百度公司则在2018年表示,监控学生的头部动作和表情,就能辨别对方是否专心听讲,并“贴心”地推出了定制服务。这些新技术应用的“正面案例”大多淹没在资讯的海洋,为数不多“翻车”挨骂的是杭州的一所中学。去年,该校领导在电视镜头前热情演示了类似的系统。轻点几下,几个“不专注学生”的名字出现在大屏幕上。
有人怀疑这越界了。大多质疑声投给了人工智能这项新技术。刚起步、未成型的东西代表未知,而未知带来恐惧。最糟糕的猜想在科幻小说里被描述过——人类的举手投足被人工智能分析、控制,失去自由。
我想起高中班主任的眼睛和他手里的教鞭,以及一些旧闻:人工智能还没有流行时,学校风靡安装摄像头。有班主任使用班费装了一个,每天监控班级;也有学校让家长交100元,就可以随时查看孩子的一举一动。
好像也没什么不同,所以,我害怕的是人工智能,还是那些充满控制欲、想把学生框进他们设计好的模子里的人?或许人工智能本身并没有引发“新问题”,它只是一个工具,交到了那些本就让人反感的人手中。
一个流行的说法是,新技术一定会带来新问题,比如人工智能会带来隐私争议。但同样的人脸识别,被用于安防、寻找走失幼童、监护老人或重症病人,很少会陷入争议。这些事人命关天,它们符合人们牢固的共识。我们每天使用的App,如今也都要拿走信息,分析和揣测我们的喜好。大多数人会同意那则协议,选择用数据换取方便的生活,这是我们自己的决定。
但那个植入教室的摄像头引发了轩然大波。孩子们很少能有与教师乃至学校平等的话语权,他们没得选择;再好的学生也会走神、会犯困,被一直注意只会带来紧张甚至压抑,没人喜欢被控制,长辈却总想要一直听话的孩子;为了在监控与分析下取得“优良表现”,孩子们会不会被迫表演,就像我们经历过的那些必须朗声发言与热烈鼓掌的公开课,这样的学习有乐趣吗?直至像一位网友所说,这项技术倘若被当成辅助工具,识别那些长期心情不佳、生活不顺的学生,增添呵护,可能便具有温情。可目前,厂家的卖点和买方的诉求,大都倾向于迫使学生时刻专心听讲,甚至直接奖惩。
这般理下来,发生在教室里的这则公案,哪有“新问题”?都是“老问题”!技术发展带来了诸多前所未有的伦理问题:能否编辑基因、克隆人类;有朝一日高度发达的人工智能是否该具备“人权”。但至少这次,问题没那么“浪漫”,就是后窗的眼睛变成了更高级的人工智能。
9月5日,教育部科学技术司司长雷朝滋在受访时表露,对于类似人工智能,“要加以限制和管理,希望学校非常慎重。”“学生个人信息,能不采集就不采。”更大的背景是,今年7月,中国提出组建国家科技伦理委员会,将对新技术带来的伦理和法律问题作出规范。
可以想象,这是一条必经之路。亟待完善的规则,既会涉及人类从未面临的新场景,也要解决诸如这些监控、分析孩子们的摄像头般,我们在过去尚未达成共识的问题。这也告诉我们,技术在未来的样貌并不确定,不同人眼中的它们可能截然不同,需要彼此不断探讨甚至争论。
教室摄像头引发的风波里,有网友激烈地反对。他说,我这么激动,是不想自己的孩子成为被监控的对象。有人想象了一个略显惊悚的场景:人工智能覆盖学校后,学生之后的下一个监控对象是谁?教师。再然后,或许是职场里的所有人——不够“专注”都要扣钱。
所幸,至少在今天,人工智能基本还是人畜无害、让人觉得新奇、下意识喜爱的“孩子”。至于几年、几十年后,它的样子,不由它自己,而由今天的我们决定。
(责任编辑:宋雅静)