10月11日,“清新书院·学术午餐会”活动在清华大学未来媒体实验室举行。本次午餐会邀请了教育部长江学者特聘教授,中国人民大学吴玉章讲席教授彭兰,为我们作题为《智能传播如何影响人的认知》的分享。讲座深度探讨了推荐算法与大语言模型如何驱动人的认知连接,以及不同群体由此产生的认知区隔,并进一步分析了智能生成内容对人的认知所带来的干扰、制约与削弱。本次活动由清华大学新闻与传播学院党委副书记蒋俏蕾教授主持,吸引了来自不同高校与工作单位的硕博研究生到场学习交流。
首先,彭兰老师从“认知连接”的经验性思考出发,讨论算法对认知带来的影响。她指出,面向个体的推荐算法包括基于标签、协同过滤、知识图谱和社会化推荐等方式,这些算法看似是个性化推荐,实则隐藏着社会关系的线索,使个体的认知与群体产生连接。从平台层面看,算法既能强化“多数人影响少数人”的注意力集中,也能通过普惠机制提升边缘群体认知的可见度。面向群体的推荐算法则通过识别潜在人群、强化群体特征等方式,进一步增强了群体内部的认知连接。随后,彭兰老师还提出了“文本间性”的概念,指出推荐算法重构了文本之间的关系,促使生产者与消费者通过新的文本间性来扩展或改变认知。此外,除了消费者与内容文本,算法也在影响着内容生产端,表现为以流量为导向影响内容生产者的取向,这也会一定程度上带来内容生产者之间的认知连接。
第二部分,彭兰老师将讨论延伸到大语言模型推动的“认知连接”。大模型通过吸收海量、多元语料,将原本局限于局部圈层的认知连接放大为跨文化、跨地域的集体模式,形成统一的“认知模板”。这种整合一方面提升表达的普遍性与可及性,另一方面也带来同质化与格式化的风险,提示词逐渐成为新的认知范式,用户在学习与复用他人提示时就会不自觉地被既有范式塑造。更值得警惕的是,大模型偏见不仅来自于设计者和训练数据,还可能在数据标注环节被放大;当这些模型与平台成为人们主要的信息与社交入口时,人与人之间的直接互动与公共议题的形成都有被弱化或分隔的可能。同时,彭兰老师也指出算法进化可能带来群体智能的涌现,但这一过程既充满希望也需谨慎观察与制度化约束。
第三部分,彭兰老师讨论了智能生成内容对人的认知干扰。所谓“机器幻觉”与其说是机器的问题,不如说是人的幻觉;有警觉的人可以识别机器造假,但大量普通用户可能会不自觉地对机器产生不切实际的期待。与此同时,在使用大模型时,过去社交平台的群体纠错机制失效,个体认知更易被误导且难以获得外力纠正。其次,大量虚构性视觉内容的流通使生活与艺术、虚拟与现实的界限逐渐消失,这让我们重新去思考虚构性的数字世界是否也是真实世界的一部分。
最后,彭兰老师探讨了智能生成内容对认知能力的制约与削弱风险。首先,机器的加工思维与模型套路会限制内容的多样性,大量看似丰富的生成内容未必能改善内容生态或提升个人创造力;其次,大模型提供的速食化、捷径式内容消费,会让人陷入“被喂食”“走捷径”的状态,短期看似高效却可能削弱长期的思辨与认知能力;因此,个体需在被拉向“新常人”式平庸与利用机器激发创造性之间做出选择。彭兰老师也对此提出方向性建议:通过机器拓展认知边界并在突围跨界中寻找灵感,设定有创意的生产目标,利用可理解且富有创造性的指示来推动创作,同时始终以好奇心与想象力作为人机协作的核心,在使用机器时反思自身而非将认知问题或创造力下降全部归咎于机器。
“清新书院 · 学术午餐会”是由清华大学新闻与传播学院党委研究生工作组主办、清华大学新闻与传播学院研究生分会承办的学术交流活动。午餐会以新闻传播学为讨论内容,同时鼓励相关交叉学科的学术交流。每次午餐会由一位主讲嘉宾分享相关研究的选题过程、领域概况、研究方法和创新性结论等。
供稿丨李栖桐
排版丨李栖桐
摄影丨王小淳
审核丨邓依林 庹舒婷