
通过模拟人脑“共情”机制,为人工智能(AI)赋予了类似人类的“同情心”和利他动机,让它在复杂情境中能自发地做出助人决策。11月28日,记者从人工智能安全与超级对齐北京市重点实验室获悉,相关研究成果已在《IEEE情感计算汇刊》上发表。
当AI不仅会答题、画画,还能“感同身受”地理解他人痛苦,甚至在关键时刻牺牲自己的利益去帮助他人,这样的人机共生社会或许是更好的图景。“当看到他人受伤时,我们的大脑会仿佛自己也感到疼痛一样被激活,这种‘感同身受’就是共情,它是人类产生同情和助人行为的基础。”人工智能安全与超级对齐北京市重点实验室主任、中国科学院自动化研究所研究员曾毅说,研究团队据此构建了类脑情感共情驱动的利他决策脉冲神经网络模型,使AI能够通过自身的虚拟“情绪体验”,去理解、共鸣他人的状态,从而从内部驱动利他行为。
通过双智能体利他救援、多智能体雪堆博弈及机器人自我—他人共鸣实验,科研团队发现,在涉及多个智能体的复杂场景中,尤其在自身利益与他者福祉冲突的道德困境下,所提模型能主动共情并优先选择利他、利集体的行为,展现明显的“舍己为人”倾向。
AI的“善良”程度还可以被进一步优化,与共情水平直接正相关。该研究发现,在自身任务与救助他人直接冲突时,具备高共情能力的AI会毅然选择调头救援,哪怕这意味着它要付出更多“成本”。高共情AI群体展现出更强的协作精神,有效避免了“三个和尚没水喝”的困境。此外,智能体的行为会受到交互对象共情水平的影响,形成复杂的博弈动态。例如,中等共情AI面对高共情对象时倾向于“依赖”,面对低共情对象时转为“主动补位”。
“这项研究的深远意义,在于推动AI伦理设计范式的转变。随着人工智能与社会深度融合,我们必须将安全和伦理价值对齐置于核心位置。将伦理考量内化为AI的内在动机,助力人与人工智能的和谐共生。”曾毅表示,这将让AI从依赖外部规则的“他律”,转向基于内在动机的“自律”。该实验室未来将持续探索AI向安全、有益方向发展,为构建人与人工智能和谐共生的未来、促进人类社会可持续发展贡献中国智慧。
中美元首2月4日晚间通话,中国元首明确指出:“是中美关系中最重要的问题”,“美方务必慎重处理对售问题”。特朗普对此回应称,重视中方在上的关切,愿同中方保持沟通,在其任内保持美中关系良好稳定。
众议院大选临近,街头抗议不断,外交与安全议题交织在一起,把高市早苗推到了风口浪尖。首相位置是否还能坐稳,已经不只是选票问题,而是多重压力同时挤压下的政治生存考验。
1月29日傍晚,起火事件发生前,G55二广高速湖南涟源段车流如常。湖南娄底人谢望辉和妻子陈青青从常德澧县驱车向南,打算当晚赶回娄底的家,如果顺利,19时多可以抵达。上小学的两个儿子期末考试结束,在家等着父母一起出去吃晚饭。
郑州开封两地距离很近,开封没有大城市的喧嚣和快节奏,一个人可以在这里放慢脚步,早上睡个懒觉,下午出去逛逛,晚上到夜市品尝美食,享受悠闲的时光。
中央司令部司令参加伊美谈判,顾及自身职业生涯和美军风险 #全球创作者计划 #零基础看懂全球 #春节世界观察 #新年囤点专业货
这消息一出来,日本右翼那帮人直接高兴疯了,跟打了鸡血似的,连夜刷屏叫嚣:“美国都站我们这边了,中国这回是真没辙了!”
本想耍个小聪明,结果没想到,却还是玩脱了。本以为只要将台岛换成美军,只要跟随美国的步伐,伪装成遵守美日同盟的样子,日本就可以蒙混过关。 结果没想到的是,中国却直接一锤定音,直接给高市早苗定了性,甚至直接表态,日本不光是挑战二战秩序,更是对历史背负责任。
你有没有发现,生活中越是有经验的司机,就越会提醒你远离油罐车,这是为啥呢?之所以老司机会这么说,是因为他们了解油罐车的危险性,提到危险性 ,很多人可能想到的是油罐车拉着的货物危险,毕竟油罐车上都印有危险品、易燃品、化学物等字样,但其实油罐车的侧翻事故也很危险 。
刚到北京,他没先见中方官员,反而先去参加了旅华韩侨的座谈会,当场就放了软话,说韩中关系全面恢复是本届政府最重大的外交成就,要尽最大努力加强双方沟通合作。
日本政坛最近十分动荡,因为高市早苗作为自民党领袖和首相,在2026年1月23日突然宣布解散众议院,选举日期定在2月8日,只留下了短短16天的准备期,这样的速度在战后日本历史上前所未有。