“人工智能时代的演进没有旁观者,每一个人都已身在其中。”生活·读书·新知三联书店第八季“三联·新知大会”,近日在北京三联韬奋书店美术馆店举行。本季新知大会汇聚了算法原理、社会学、经济学、法律、政治等领域的顶尖学者,精心组织四场主题讲演和一场圆桌论坛,带领公众理解算法如何改变世界,进而在这场奔涌的浪潮中,如何重新锚定人之为人的位置与尊严。


圆桌论坛现场图

以“穿越算法:共存哲学与生活想象”为主题,国家对地观测科学数据中心主任李国庆、中国社会科学院财经战略研究院研究员李勇坚、中国社会科学院社会学研究所研究员吕鹏、中国社会科学院文化法制研究中心研究员周辉先后登台发表演讲。他们从计算机科学、经济学、社会学、法学、政治学等领域出发,以算法原理、数字社会、AIGC经济、法律伦理等多维视角展开对话,呈现了一套完整的认知框架:理解算法的底层逻辑,不是技术精英的专利,而是每一个人的必修课。唯有真正理解,才能驾驭算法,而不是被算法驾驭;唯有看见规则,才能选择道路;唯有看见自己,才能共存于这个世界。

活动以三联书店即将出版的“算法丛书”为内容基础。这套丛书包含《算法之问:看透数字世界的底层逻辑》《数字炼金:赋能经济与生活的无形之手》《代码之镜:算法时代的社会图景》《智法共生:算法与法治》四本算法素养普及读物——藉由四个学科视角,展示一条共同路径:从看见到理解,从理解到驾驭——《算法之问》让人看见思维的镜像,《数字炼金》让人看见自己的位置,《代码之镜》让人看见算法的运作,《智法共生》让人看见文明的底线。

从减法思维到加法思维

提起算法,公众最多的可能是对算法推荐的警惕:它在“控制我”,把我的视野收窄成一个信息茧房。

但在活动中,《代码之镜》作者、中国社会科学院社会学研究所研究员吕鹏提出了一个关键判断:算法没有预设好的“你”等待投喂,它一直在学——学你的点击、停留、划过,然后反馈给你想看的内容。是以差别并不在于算法本身,而在于你是否意识到这套规则。“当你意识到了,你可以有意识地输入多元信号,让算法帮你拓宽视野,而不是收窄世界。”这就是从“减法思维”到“加法思维”的转变——前者是被动的、防御的,后者则是主动的、驾驭的。


《代码之镜:算法时代的社会图景》 吕鹏 等 著 生活·读书·新知三联书店,2026年3月

吕鹏在演讲中进一步阐释,算法是“社会的一面镜子”,也是“被用户的行为所共同创造的”,这是一个“双向互构”的过程。用户在塑造算法,算法也在塑造用户。因此,保持主体性的第一步是“看见这个过程”。他提出了三种个人应对策略:“逃离策略”(如卸载软件)、“嵌入策略”(主动搜索、点赞引导)和“反向调节策略”(故意给不相关内容点赞以干扰算法判断)。


吕鹏

吕鹏举例说,一些女性博主在分享性别议题时会加上“宝宝辅食”这类无关标签,以利用算法分众机制屏蔽不必要的窥探;跳广场舞阿姨们则摸索出平台偏好“高饱和度色调和强节奏音乐”,从而用“大红底色、明黄色文字、加速版《最炫民族风》”迅速登上热门榜单。他指出:“理解算法的优化逻辑并不是为了让我们去跟算法对抗,而是为了让我们做出更加自觉的选择。算法塑造社会,而社会的未来需要我们一起去塑造。”

正如这套丛书中的另一本《算法之问》书中所言:“算法绝非计算机科学诞生后的专属产物,而是人类理性思维与自然法则对话的永恒桥梁。”理解这套桥梁,是未来人的基本素养。这套丛书的目标,不是让人逃离算法,而是让人看见算法——看见它的运行逻辑,看见它的能力边界,看见它嵌入社会规则的机制。因为唯有看见,才能选择;而唯有选择,才能共存。

思维的镜像:AI真的在思考吗?

“你以为AI在‘思考’,其实它在概率预测。但概率预测,是另一种形式的思维吗?”活动现场,《算法之问》作者之一、国家对地观测科学数据中心主任李国庆抛出了这个问题。他从AI“幻觉”现象切入,呈现Transformer架构与自注意力机制背后的逻辑,讨论“涌现能力”从何而来、边界在哪里。


李国庆

他指出,AI的“思考”本质上是基于海量数据的概率预测,是一个不断“完形填空”的过程。其核心在于“词元”(对词语的编码)和“词向量”(词语在多维空间中的关系)。比如,AI理解“苹果股价跌了”和“我的苹果很甜”中的不同“苹果”,不是靠词汇本身,而是靠这个词与“股价”、“甜”等其他词在向量空间中的关系。当模型参数规模超过一定临界点(如60-70亿),就会产生“涌现”能力,表现出令人惊异的智能。然而,这也会导致“幻觉”——AI并非撒谎,而是在严谨地进行概率推理,给出的结果虽符合语言模型,却可能违背事实。“有时候,的确是我们冤枉了硅基伙伴,他其实并没有撒谎。”


《算法之问:看透数字世界的底层逻辑》 熊辉、廖方宇 等 著 生活·读书·新知三联书店,2026年3月

《算法之问》一书指出,许多AI算法的设计灵感,源于对自然的模仿——神经网络的结构模仿大脑神经元的连接,遗传算法借鉴生物进化的“变异、交叉、选择”机制,群体智能算法学习鸟群迁徙时的协作模式。这种“道法自然”的设计思路,印证了人类智慧与自然法则的深度共鸣。正如中科院院士钱德沛在序言中所说:“最前沿的计算科学,正在与最古老的自然智慧重逢”,他认为《算法之问》一书的“作者团队聚焦算法的‘应用场景’,让读者既能理解AI算法的工作逻辑,也能清晰地看到它们如何从自然中汲取灵感,感受技术与自然交融的美妙。”

李国庆还对比了“碳基文明”(人类)与“硅基文明”(AI)的根本差异:人类思维低功耗、高容错、为意义驱动;AI则是高能耗、零容错、为数据驱动。“AI它能引用数百万字关于孤独的文学著作……但它自己其实从没有体验过人类在深夜的那种孤独感。”他强调道,“理解算法思维的本质,是穿越算法的第一步。最终不是去否定人,而是去更加深刻地确认人的价值和人的尊严”。

价值的觉醒:我的位置在哪里?

当算法已经在多个领域展现出“优化一切”的高歌猛进,人类的价值究竟又在哪里?

《数字炼金》作者、中国社会科学院财经战略研究院研究员李勇坚指出一个关键判断:算法擅长在已知规则中寻找最优解,但定义规则、质疑规则、在规则失效时找到出路——目前而言,这仍是人类的优势。是以人机共生并不是一句口号,“而是一种需要学习的分工”。


李勇坚

李勇坚从经济学视角剖析算法,认为算法是数字经济时代的“无形之手”,核心解决经济学的四大问题:匹配、优化、预测、决策。他举例说,算法能高效匹配求职与岗位(降低摩擦性失业)、优化外卖配送路线、预测农产品价格波动以指导生产,帮助优化资源配置。


《数字炼金:赋能经济与生活的无形之手》李勇坚 等 著 生活·读书·新知三联书店,2026年3月

面对算法是否会替代人类工作的焦虑,李勇坚提出了人类智能的四级划分:计算智能(已基本被替代)、分析智能(大部分被替代)、直觉智能(创造性,替代很少)和共情智能(几乎无法替代)。他乐观地表示:“人类起码还拥有直觉智能和共情智能,能够让我们维护自己的地位,在这个算法时代有尊严、有价值地活下去。”他呼吁建立“算法素养”,即理解算法如何影响生活,从而避免将其“神话”或“妖魔化”,实现理性共存。

看见的逻辑:我被困在茧房里吗?

“你在社交软件上看到了什么?”《代码之镜》作者、中国社会科学院社会学研究所研究员吕鹏向观众提问,“每一次点击、停留、划过,都在参与构建一个关于你的数字形象——而这个形象,又在决定你下一次能看到什么。”

作者在书中呈现了一个基本事实:算法从来不只是技术工具,也是与社会结构同行、日常生活相伴的“社会建构物”。用户的行为改变算法的判断,算法的推荐改变用户的行为,如此循环。但这个循环并非单向塑造——推荐可以帮助人发现新的可能,也可能在无意间收窄视野。

吕鹏用“茧房”、“谏房”、“荐房”三个概念,区分了三种状态:茧房是被困住,谏房是被批评、被推送多样化内容以打破舒适区,荐房是被好好推荐。吕鹏认为,比起传统社会的文化霸权,算法反而是“最容易被调整的变量”。平台可以通过多目标算法体系、用户可视化工具、主动优化推荐策略以及用户反馈机制来打破信息茧房。“关键不在于算法是加法还是减法,而在于你是否知道自己在哪间房里,以及是否有能力推开门。”

吕鹏还深刻分析了算法偏见的社会根源:并非算法创造偏见,而是算法将历史上已存在的社会偏见、数据采集偏差(弱势群体成为“数据隐形人”)、数据标注员的主观性,以及程序员的文化背景和商业逻辑,一同编码进了系统。他举例亚马逊AI招聘系统曾歧视女性简历、人脸识别系统对深肤色女性错误率更高等案例,说明“正是算法让不平等从隐性转向显性”。

信任的契约:智能时代,法律如何保护我

“法律总是慢现实一步。”《智法共生》作者、中国社会科学院文化法制研究中心研究员周辉的开场白引起观众共鸣。他讨论了学界所称的“科林格里奇困境”——技术总是在早期看不清风险,成熟后又难以改变——这是一个“早期易控但方向未知,晚期后果明确却难以控制”的控制悖论。


《智法共生:算法与法治》 周辉 等 著 生活·读书·新知三联书店,2026年3月

周辉在书中提出一个关键判断:法律不是算法的“绊脚石”,而是“稳定器”。他的回答不是让法律“追上去”,而是从外部的约束者转变为内部的参与者:给创新留出试验的空间,同时把伦理和责任嵌进算法设计本身。“算法治理从来不是某一个群体的‘独角戏’。它既需要国家制定科学合理的治理规则,又需要企业坚守‘向善’的底线,还需要普通用户提升数字素养、主动参与监督。”

周辉在演讲中系统阐述了算法治理的法治框架。他强调需构建政府监管、平台自律、多方协同的治理体系。具体手段包括推行“监管沙盒”,在相对可控环境中测试算法创新的前沿应用;建立层次化的“算法透明度”机制,确保利益相关者知晓算法参与决策并能问责;以及进行“场景化治理”,针对社交媒体、外卖调度、金融信贷、医疗诊断、招聘、执法司法、广告营销、动态定价等八大高风险场景制定细致规则。


周辉

以外卖骑手场景为例,周辉指出算法调度在提升效率的同时,也带来了劳动强度、安全风险等问题。治理需要在保障劳动者权益与尊重其通过劳动获得报酬的需求间取得平衡。他由此提出算法优化方向:比如对雨雪天气等异常情形留出宽容空间,用积分激励替代单纯罚款。他总结道,法治的目标是为算法时代缔结一份“人和算法的信赖契约”。

圆桌讨论:探索人机共生的未来文明

主题演讲结束后,清华大学法学院教授刘晗、中国科学院大学经济与管理学院教授孙毅、北京科技大学副教授王九龙等加入圆桌讨论,从认知、社会、经济、法治等维度展开碰撞。正如整场活动主持人、清华大学社会科学学院副教授张开平所言:“算法已经在舞池里了。问题从来不是是否加入,而是以什么姿态共舞。”

关于普通人如何理解算法,抖音研究员卢垚首先分享了平台在推进算法透明化方面的实践与困惑。他介绍说,抖音团队曾采访内部近百位工程师,尝试系统性呈现其推荐算法,并上线“抖音安全与治理中心”网站进行解释。然而,这项工作面临多重挑战:一是专业性与通俗性的平衡难题,将复杂的机器学习原理转化为大众可理解的语言且不失准确性极为困难;二是需要与“算法操控”等刻板印象做“斗争”。卢垚特别指出,行业将匹配供需的机制普遍称为“推荐算法”,这容易让公众产生平台在“主动推荐”乃至“操控”的误解,而实际上算法的决定性力量更多来源于用户自身的历史行为。

对此,清华大学法学院教授刘晗指出,算法的“可解释性”核心并非公开源代码(这涉及商业秘密且公众难以看懂),而在于明确责任界定——“出了事谁负责”。他认为,应破除对算法的“神化”(认为其结论必然科学正确)或“妖魔化”(认为其完全控制一切),回归理性态度。他以AI生成图片的版权案例说明,最终有版权是因为人的提示词与参数调整起到了创造性作用,这证明了人始终拥有并应保持掌控感。

在探讨如何实现良性共存的路径上,中国科学院大学经济与管理学院教授孙毅教授从治理角度提出,需通过制度设计(例如借鉴欧盟《数字市场法》中的“守门人”规则)和赋予利益相关者权利,来构建政府、平台、利益相关者多元共治的模式,以此保障算法透明度与向善。

北京科技大学副教授王九龙结合自身科研实践,认为人应“驾驭”AI而非被其牵引。他主张将AI视为强大工具,让其处理海量数据、复杂计算和基础工作,而人则专注于提出科学问题、做出最终判断。他引用“莫拉维克悖论”,指出人机应清晰分工,避免用自身短板去挑战机器的优势。

中国社会科学院社会学研究所研究员吕鹏则从用户主体性角度强调,普通用户本就拥有并可以强化自身能动性。他提出了三种个人策略:“逃离策略”(如卸载软件)、“嵌入策略”(主动搜索、点赞以引导算法)和“反向调节策略”(故意干扰算法判断)。他认为,提升“算法素养”,理解算法与用户的“双向互构”关系,是保持主体性的关键。

关于人的不可替代性,讨论进一步深化。刘晗教授强调了“判断力”和“承担责任的能力”。他以学生择业为例,指出AI无法替代个人基于内心感受、价值追求做出的生命抉择,以及为选择承担后果的责任能力。李国庆研究员以科研为例,说明AI能高效完成文献综述、格式整理和基于数据的“头脑风暴”,但提出原始科学问题、形成理论,仍然必须依靠科学家。吕鹏研究员则总结出,人的主体性体现在四个层面:认知上理解算法逻辑、行动上采取主动策略、参与上推动算法治理、共建上实现社会共同塑造。

对于未来,张开平副教授用“自由”一词概括对十年后人机共生状态的想象:希望AI能将人从重复劳动中解放,让人有更多精力追求生命的意义、幸福与社会连接。