怎样让AI取代评论作家
媒体能不能把给评论作家的稿费省起来,以后用AI写作就好?编辑这么问我。其实这也并非全是天方夜谭,只要AI再突破几个障碍,作家就可以回去耕田了。我们来假设有个AI叫小艾,媒体想用它取代所有作家。
小艾面对的第一个障碍是目前生成式AI尚未掌握逻辑,大语言模型只知运用文字应对而已。如果你问小艾:“桥上有钉,车子驶过,会爆胎吗?”小艾会告诉你“可能”;但问题换一换:“桥底有钉,车子驶过,会爆胎吗?”它一样跟你说可能,因为它无法辨知车、桥、钉之间的空间关系。这些对人类来说不假思索便明白的事,对小艾来说仍是挑战;它看似什么都知道,其实不然。
何谓“知”?我们要进入哲学领域了。语言只是反映现实的符号,不管你说苹果还是Apple,意指现实中那红彤彤爽脆又香甜的水果。你“知道”苹果,因为你看过摸过尝过,而小艾只懂”苹果“两个字,再了不起也只算“看”过苹果的图像而已,这样算知道苹果吗?不同学说对“知”有不同的诠释,在此我认为小艾并不“知”,或说它的”知“和人类的大相径庭。用AI来评论人间诸事,就像海水斗量,而且那个斗还是穿洞的。
表面上小艾讲得头头是道,其实都是鹦鹉学舌。就算一只鹦鹉能对你讲解四书五经,你没半刻会以为它是圣贤再世,许多人之所以对AI有幻想是因为它还很新。要克服这个障碍必须进一步训练小艾,它无法直接“体验”人间,只能吸收更多由人类提供的二手资讯,直至这些资讯量超过某个临界点,也许就能变得更像“有知”的人。但,这还不算“有知觉”。
就算小艾全知,它还得突破第二重障碍才可能取代作家:小艾没有观点。它看遍全网全人类的观点,能迅速摘要和总结,但它不会有“自己”的观点,自也不会有立场,因为它是“有知无觉”的机器。小艾没有感情,没有价值观,也就没有喜恶。人类作家的文章好读,资讯含量不是主因,更多是因为字里行间的人间烟火,甚至因为他们的偏见。文章抽掉情感,便和读字典差不多。
我们无法创造有感情的机器,但要模拟情感还是可能的。接下来的是假想:除大语言模型外,还要给小艾附加一套”人格与情感模型“,在撰写评论时用预设的”个性“来选择性使用语言模型中的知识,这样看起来就像有立场了。
但这样还不够,第三个障碍是小艾无血无肉,没有形象,不是真人。这有问题吗?文章好看不就得了?不够的,因为这样剥夺了网民辱骂作者的乐趣,像骂一块石头般无味,媒体会流失读者。这障碍也能解决,除了给小艾做个头像,还要给它“身份”,比如沙地阿拉伯于2017年赋予机器人苏菲亚国籍。在马来西亚,给小艾国籍还不够,还要讲明种族,骂起来才更过瘾。
做到以上三项,莫说评论作家可以回乡耕田,编辑也可以一起了。到时候我这边种香蕉,你那边种番薯,傍晚收工了约一约,我们一边喝酒,一边辱骂小艾。
2023.12刊于星洲