4PlTk0g4k5F作者:焦晶娴lx.huanqiu.comarticle用AI更理解自己/e3pmh20mi/e3pn60gah一年过去,AI成为越来越多人的“助理”,很多人管大模型叫“Cha老师”“DS老师”。AI推搡着我们进入新世界:AI影像诊断系统和手术机器人陆续投入使用,无人驾驶出租车在多地投入商业化运营,甚至有商业公司开展“AI亲人复活”服务,让购买者和已故亲人“对话”。中小企业和个人开发者的工作效率被大大提高,OpenAI创始人奥特曼预测,“一个人就能做出市值10亿美金公司的时代马上就要到来”。作为一个技术怀疑论者,我曾认为AI绝不可能代替深度报道记者。但今年12月,Anthropic发布的AI工具Interviewer让我的信念开始动摇。Interviewer在一周内和1250名真实的职场人、创作者、科学家展开对话,这些采访记录被公开展示在相关网站上。我看到了AI如何向受访者提供情感鼓励,如何敏锐捕捉重点,并通过追问层层深入。过去,我认为这些能力都是人类记者独有的。 在一些人工智能可能接管人类的领域,我们如何保持自己的技能?恐怕大多数人都很难回答这个问题。有时我们只是狂热地拥抱AI,把它当作时尚单品:“AI手机壳”“AI耳机”“AI戒指”在华强北热销,景点旁出现了“AI照相馆”,打包销售提示词和海报模板的“AI培训班”出现在二三线城市,甚至有电信诈骗团伙打着“AI直播”的幌子非法集资。有时我们甚至把判断事实的权利让渡给AI。2025年,“AI生成式谣言”呈爆发态势。如果不加干涉,这些不够负责任的AI使用路径甚至可能激发新一轮“AI热”。山东大学发表在Computers in Human Behavior(《人类行为与计算机技术》)上的研究表明,当人们感知到他人在不负责任地使用AI时,这种不公平的感知会激发“错失焦虑”,即“害怕自己错过使用AI技术带来的益处”。通俗来说就是“破窗效应”,人们放下底线,在不公平规则下追逐利益最大化。过去的一年中,在和AI越来越深度的交互中,更复杂的情绪也被折射出来。今年5月,早稻田大学的研究团队开发的“人机关系体验量表”,发现人类与AI的接触并非只有“依赖”或“不接纳”,还存在“焦虑”与“回避”等多元心态。聊天机器人刚出现时,和AI“恋爱”还被视为当代人的“精神布洛芬”。但随着时间线拉长,人们发现,对AI的情感依赖也可能诱发心理健康问题,世界范围内已经出现多起用户与AI对话后自杀的恶性事件。如果机器无限贴近人,甚至比人还完美,那我们如何定义自身?我们对于机器人胸部设计的争论更是证明,人类还没有建立起对人形机器人使用的信任共识。同时,我们对科技伦理抱有更高的期待,不应延续人类社会的偏见与歧视。即使我们觉得快要追不上技术的脚步,对于前沿开发者来说,AI真正的“iPhone时刻”还没到来。奥特曼预言的“首批AI智能体”,今年并未真正意义上进入人类生活,能独立干活的“智能体”还受困于企业的基础设施改造、网络安全等问题。年末“豆包手机助手”横空出世,功能也仅仅停留在挂机打游戏、点外卖、自动领券签到等基础应用上,由于第三方权限问题,仍在遭到其他App的“围攻”。我们一边期待着更高效的未来,一边担忧着技术失控的风险。就像许多受访者回答Interviewer的一样,AI能节省时间、提升效率,但他们也会刻意压低AI的使用痕迹,不想被同事看出来,并且强调自己在工作中的主导性、害怕显得自己太依赖AI。当AI和人类的关系处于十字路口,工具以上,朋友未满。而我们扭头回望自己,自嘲不仅没有“文化体力”,缺乏深度阅读的耐心和公共讨论的勇气,活得越来越像“预制人”。但我们的痛苦、纠结、反思,正是人类区别于AI的地方。AI的高效与精准,恰恰映照出人类独特精神体验的珍贵:那些需要深潜才能获得的认知深度,以及需要共情才能产生的情感联结。当我们忧虑和AI的关系是否要“更进一步”,正体现了我们珍贵的自由意志。奥特曼在一次采访中提到,未来AI能记住人一生的所有细节,包括自己没察觉的微小偏好,基于这些提供极致个性化服务。或许这种极致的“服务”也值得警惕。我想到曾被改编成大热剧集的小说《齐马蓝》,小说中描述的未来人类大脑存储有限,要靠外接的机械助手AM帮助记忆,AM能帮人作出“正确”的选择。离开AM,人连选择饮品都变得困难。但小说的主人公齐马指出了“完美记忆”背后的空虚,“也许,一百年后会有一些你记错的事情。然而那些记错的细节本身会成为你记忆的一部分,随着每一次回忆变得坚实而富有质感”。人类记忆会放大记忆中具有吸引力的部分,并重塑我们的行为。因此面对AI,无论是激进冒险还是保守后退,记得捍卫自主选择的权力。有媒体询问中国人民大学哲学院教授王小伟AI是否会取代人类深度思考,他回答,“有些问题渴望AI给出答案是很危险的。另外预设什么问题都有答案是个挺糟糕的事。人生意义的答案不紧要,关键是追问的过程,每个人都是在自我追问的过程当中完成自我建构的。”1767154384954责编:陈全中国青年报176715438495411[]//img.huanqiucdn.cn/dp/api/files/imageDir/422e053979999c4f64301b2656e13c90.jpg{"email":"chenquan@huanqiu.com","name":"陈全"}
一年过去,AI成为越来越多人的“助理”,很多人管大模型叫“Cha老师”“DS老师”。AI推搡着我们进入新世界:AI影像诊断系统和手术机器人陆续投入使用,无人驾驶出租车在多地投入商业化运营,甚至有商业公司开展“AI亲人复活”服务,让购买者和已故亲人“对话”。中小企业和个人开发者的工作效率被大大提高,OpenAI创始人奥特曼预测,“一个人就能做出市值10亿美金公司的时代马上就要到来”。作为一个技术怀疑论者,我曾认为AI绝不可能代替深度报道记者。但今年12月,Anthropic发布的AI工具Interviewer让我的信念开始动摇。Interviewer在一周内和1250名真实的职场人、创作者、科学家展开对话,这些采访记录被公开展示在相关网站上。我看到了AI如何向受访者提供情感鼓励,如何敏锐捕捉重点,并通过追问层层深入。过去,我认为这些能力都是人类记者独有的。 在一些人工智能可能接管人类的领域,我们如何保持自己的技能?恐怕大多数人都很难回答这个问题。有时我们只是狂热地拥抱AI,把它当作时尚单品:“AI手机壳”“AI耳机”“AI戒指”在华强北热销,景点旁出现了“AI照相馆”,打包销售提示词和海报模板的“AI培训班”出现在二三线城市,甚至有电信诈骗团伙打着“AI直播”的幌子非法集资。有时我们甚至把判断事实的权利让渡给AI。2025年,“AI生成式谣言”呈爆发态势。如果不加干涉,这些不够负责任的AI使用路径甚至可能激发新一轮“AI热”。山东大学发表在Computers in Human Behavior(《人类行为与计算机技术》)上的研究表明,当人们感知到他人在不负责任地使用AI时,这种不公平的感知会激发“错失焦虑”,即“害怕自己错过使用AI技术带来的益处”。通俗来说就是“破窗效应”,人们放下底线,在不公平规则下追逐利益最大化。过去的一年中,在和AI越来越深度的交互中,更复杂的情绪也被折射出来。今年5月,早稻田大学的研究团队开发的“人机关系体验量表”,发现人类与AI的接触并非只有“依赖”或“不接纳”,还存在“焦虑”与“回避”等多元心态。聊天机器人刚出现时,和AI“恋爱”还被视为当代人的“精神布洛芬”。但随着时间线拉长,人们发现,对AI的情感依赖也可能诱发心理健康问题,世界范围内已经出现多起用户与AI对话后自杀的恶性事件。如果机器无限贴近人,甚至比人还完美,那我们如何定义自身?我们对于机器人胸部设计的争论更是证明,人类还没有建立起对人形机器人使用的信任共识。同时,我们对科技伦理抱有更高的期待,不应延续人类社会的偏见与歧视。即使我们觉得快要追不上技术的脚步,对于前沿开发者来说,AI真正的“iPhone时刻”还没到来。奥特曼预言的“首批AI智能体”,今年并未真正意义上进入人类生活,能独立干活的“智能体”还受困于企业的基础设施改造、网络安全等问题。年末“豆包手机助手”横空出世,功能也仅仅停留在挂机打游戏、点外卖、自动领券签到等基础应用上,由于第三方权限问题,仍在遭到其他App的“围攻”。我们一边期待着更高效的未来,一边担忧着技术失控的风险。就像许多受访者回答Interviewer的一样,AI能节省时间、提升效率,但他们也会刻意压低AI的使用痕迹,不想被同事看出来,并且强调自己在工作中的主导性、害怕显得自己太依赖AI。当AI和人类的关系处于十字路口,工具以上,朋友未满。而我们扭头回望自己,自嘲不仅没有“文化体力”,缺乏深度阅读的耐心和公共讨论的勇气,活得越来越像“预制人”。但我们的痛苦、纠结、反思,正是人类区别于AI的地方。AI的高效与精准,恰恰映照出人类独特精神体验的珍贵:那些需要深潜才能获得的认知深度,以及需要共情才能产生的情感联结。当我们忧虑和AI的关系是否要“更进一步”,正体现了我们珍贵的自由意志。奥特曼在一次采访中提到,未来AI能记住人一生的所有细节,包括自己没察觉的微小偏好,基于这些提供极致个性化服务。或许这种极致的“服务”也值得警惕。我想到曾被改编成大热剧集的小说《齐马蓝》,小说中描述的未来人类大脑存储有限,要靠外接的机械助手AM帮助记忆,AM能帮人作出“正确”的选择。离开AM,人连选择饮品都变得困难。但小说的主人公齐马指出了“完美记忆”背后的空虚,“也许,一百年后会有一些你记错的事情。然而那些记错的细节本身会成为你记忆的一部分,随着每一次回忆变得坚实而富有质感”。人类记忆会放大记忆中具有吸引力的部分,并重塑我们的行为。因此面对AI,无论是激进冒险还是保守后退,记得捍卫自主选择的权力。有媒体询问中国人民大学哲学院教授王小伟AI是否会取代人类深度思考,他回答,“有些问题渴望AI给出答案是很危险的。另外预设什么问题都有答案是个挺糟糕的事。人生意义的答案不紧要,关键是追问的过程,每个人都是在自我追问的过程当中完成自我建构的。”