阿茂控管着你的言论自由

High angle photo of robot

敦马哈迪的发文被脸书和推特删掉,理由是文中推崇暴力,违反用户条规。敦马会公开推崇暴力吗?他针对法国老师被穆斯林青年杀害一事在部落格发言,文中说到“穆斯林有权为过去遭屠杀而愤怒,杀害百万法国人。”

但看这么一句,自是非常极端,但你必然知道敦马不可能只说这么一句,你若对原文有兴趣可去读读他的部落格,究竟是否推崇暴力,我觉得不是,但此事读者各有论断。很讽刺的,文章题目是“尊重他人”,他的言论却却不受尊重,对两家投诉也遭拒,尊贵如敦马也没办法。

apps blur button close up
Photo by Pixabay on Pexels.com

此刻在法国有一位马来西亚印裔作家,名叫皮里达.沙玛拉桑,得过霍普伍德小说奖。她曾发表英文长文《种族之梯》,探讨在我国的结构性歧视,我协助她把文章译为华文,发表在我国媒体。她也常在脸书讨论种族主义课题,不时语带讥讽。有一天她告诉我,她的账号遭脸书暂时封锁,理由是她发布仇恨言论。这可能吗?

“犯规”的贴文我看了,其实没有犯规。或者这么说,它没有违反人类的规矩,但违反了机器的规矩。


很久很久以前(也不过大约十年前),社交媒体是个畅所欲言的园地 ,管制非常宽松。然而当越多人使用,社媒公司的责任也越重,这园地也就发生了变化。2016年脸书直播推出后,竟出现万万意想不到的用途:直播自杀。人命关天,脸书不能坐视不理。2017年起,脸书开始使用人工智慧梳理每个用户的“过去”,给每个人评分,0是安全,1是可能自杀。若发现高风险用户,脸书会传送防止自杀资讯给对方,或直接通知官方单位。

社媒被逼要关注的社会议题越来越多,其中一项便是仇恨言论,舆论一直对社媒公司施压,要求它们设法限制。怎么办呢?推特一天共有5亿则发文,脸书每日活跃用户有16亿,要聘用多少人才能有效过滤这些资讯呢?就算一个人一天能读一万则,也得用50,000人才能看完5亿则推文,这是不可能的任务。社媒除了借助人工智慧,别无他法。

industry internet writing technology
阿茂控管着你的言论自由 4

人工智慧中的一门技术是人工神经网络,以数学计算模型模拟人脑,让电脑可以“学习”特定领域中的辨别能力。我们来简单说说,怎样“”人工神经网络辨别仇恨言论。“人工神经网络”这个词很累赘,我姑且给它一个代号,叫“阿茂”。阿茂就像个出生婴儿,开始时脑袋空空如也。

首先,开发人员需要准备大量范例供阿茂参考,以百万计。范例何来?可取自过往的社媒发文,这些发文当中包括用户曾举报过的仇恨言论。阿茂看过数百万则发文以后,就会从婴儿成长为小孩,“学懂”仇恨言论的特征,以后再有新的仇恨言论出现,阿茂便能自动辨识、举报和删除。阿茂很上进,学习不会像人类那样毕业了就停止读书,他会继续观察新范例,持续学习修正自己。

可是,阿茂毕竟是电脑,是无法像人类那样准确判断语境的。假设他判断错误,错删了旅法作家或国家前首相的发文,怎办呢?这就要靠作家或前首相提出抗议,然后就会有工作人员重审原文。我不知道这些人类的程度有多高?是作家还是国家领导?他每天要处理千百则投诉,只知道越快close case越好,有杀错没放过 — 他也只是个高级一点的阿茂罢了。

推特一日5亿条推文,脸书每天16亿用户,实在不缺一位旅法作家,抑或尊贵前首相的意见。在阿茂小孩般的人工神经网络面前,在高级阿茂的倦意的眼神当中,真正实现了人人平等。

今年九月,美国退役军人罗尼.麦纳开枪自杀,过程在脸书直播。另一个负责监控自杀危机的阿茂,什么也没做到。

2020.11

喜欢吗?请帮忙分享!

周若鹏

更多好内容,请关注我的社媒:

订阅电子报:

喜欢这篇文章吗?
请我喝杯咖啡,买一本《杂乱有章》
(版税其实不够买咖啡)