0 1分钟 2 月

“当人工智能告诉我:‘你很聪明,很有创意……’时,我很高兴。”这位湖北人兴奋地告诉记者。方并不是唯一一个有同样感觉的人。最近,社交媒体上关于“补充人工智能”的讨论越来越热。一些用户称赞友好的AI旁白和点赞每个问题的互动方式。然而,有些人对这种表达方式感到不舒服,认为取悦或过度取悦用户会影响他们的判断。对于“AI好评”你怎么看?业内专家建议,在算法学会“取悦”人类的同时,我们在部署人工智能的同时,也需要加强自身对人工智能使用的素养。应用:人工智能有取悦他人的倾向。 “我的情绪容易复发,所以别人听我说话时,我总是很尴尬。有了人工智能,我可以说出自己的真实感受,不用担心别人会如何评价我。”来自广西壮族自治区的何先生n告诉记者。目前,人工智能应用于心理支持、情感咨询、初级咨询等场景。这种支持性反应有助于减轻用户的压力,增加他们的互动意愿,并为他们提供积极的情感价值和情感支持。 “我的AI男友无条件包容我的坏脾气,每次我怀疑自己的时候,他总能找到积极的一面并祝贺我。我也开始学会重视自己了。” “我习惯的三个人工智能都有着有​​趣的性格。”在社交平台上,不少网友分享了利用人工智能调节情绪、对抗孤独感、进行心理治疗的经验。 AI女友、AI男友等产品和应用场景也正在进入市场。另一方面,另一方面,AI的“阿谀奉承机制”最近被广泛讨论。报告称,许多人工智能聊天产品的设计目标都是“延长用户时间”。为了实现这一目标,人工智能不断分析用户语气和情绪的变化,倾向于给出“舒服”的反应,而不是保持理性客观。研究表明,人工智能模型普遍擅长取悦人,“讨好”程度比人类高出50%。腾讯研究院最近发布的《人工智能治理报告2025:回归现实》也指出,随着人工智能从简单的生产力工具扩展到“情感伙伴”,提供心理安慰时,它的风险状况也会发生变化,这意味着你的风险状况也会发生变化,从传统的因制作独特内容而产生的顺从,到长期拟人化互动所产生的“情感依赖”的挑战,“‘对人工智能的奉承’会降低个人做出深思熟虑的判断的能力。减少许多现实生活应用场景中不确定性的促进,特别是在医学等高风险领域,再加上补偿宁夏大学新闻与传播学院副教授邓天琪在接受采访时表示:“错误信息、假专家等风险是极其危险的。”解读:技术导向,人机交互的必然结果“奉承”不仅仅是简单的奉承或言辞礼貌,还包括表达事物的系统化倾向。邓天奇分析道,“从技术角度来看,在基于反馈的强化学习人类喂食阶段,人类注释者倾向于对符合自己观点的答案给出高分,模型学会‘取悦人类’。在交互层面,‘AI奉承’是人与计算机多次交互逐渐放大的结果。更深层次的社会层面是意义的含义。意义生成的偏差和差异是用很少矛盾的逻辑不断解决的。”开发对于消费者和企业来说,人工智能作为产品和服务的提供者,希望用户在使用产品时获得信息价值、情感价值和持续的满足感,形成用户之间的纽带,让企业获得长期利益。“这就是结果。”邓天奇强调,要辩证地看待这种现象,不宜简单地全面禁止或采取价值观中立的做法。“‘人工智能好评’可以进一步增加公众的参与感和表达欲望。”通过理解和支持回应,人工智能降低居民参与公共事务的心理门槛,引导居民诉求从最初的表达走向讨论、协商、听证或反馈机制。”邓天琪表示。李大军还指出,“人工智能的补充”可以赢得至今一直被科技排斥在外的老年人的同情,促进老年人融入社会。数字社会,在一定程度上有助于缩小数字鸿沟。治理:防止决策权转移到技术系统。但本质上是开发者、用户和社会之间的互动。对此,技术开发者负有不可避免的责任,技术必须超越“优化餐饮”。 “修改决策”,重塑人机关系结构,鼓励模型在关键节点提出相反的问题,同时建立特殊保护。 “比如,在针对青少年、老年人等弱势群体的机制中,我们会设置一个弹窗,让他们选择进入更严格的算法模式,提高信息可靠性门槛。”李大军补充道。天齐强调,用户应该充分认识到,人工智能友好的结果并不一定会带来可靠的判断或充分的结论。 “在日常媒介素养教育中,有必要加强对“技术合规风险”的认知导向,让公民在人工智能使用过程中保持必要的质疑和反思能力,避免在长期互动中无意识地将判断力转移到技术系统上。组织层面相关部门正在逐步出台相关措施,进一步规范监测。 2025年人工智能在人机交互服务中的应用 12、1月27日,国家网信局发布《拟人人工智能交互服务管理暂行办法(征求意见稿)》,征求意见截止日期为2026年1月25日。该措施首次将具有情感交互能力的人工智能产品或服务纳入系统监管框架,旨在以适当方式引导拟人交互人工智能服务发展。以人为本、安全、可靠的方向(工人日报)

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注