
资料来源:Aifan很糟糕,AI不能将其作为“狗舔”隐藏。今天早上,OpenAI宣布GPT-4O卷回到更平衡的早期版本,称该版本引起了诸如GPT-4O菜肴过多的问题,这极大地影响了用户的体验和信任。最近,OpenAI首席执行官Sam Altman还发布了一个X平台帖子,以确认它,并昨晚宣布所有ChatGpt用户都返回,并且用户将在回滚完成后再次更新。同时,根据Altman的说法,Openai经历了进一步组织人格模式的进一步组织,并承诺在未来几天分享更多信息。仔细的网民可能已经注意到,专注于高情绪智力和创造力的GPT-4.5现在被默默地转移到该类别的“更多模型”中,这似乎是故意淡入公众眼中的模型的选择器。人工智能确认不再是一个大新闻,但关键是:请在哪些情况下继续nd如何理解正确的位置。当提案失控时,“令人愉悦的”将是一个负担,而不是加号。扩展全文
AI奉承应得到人类信任吗?
两周前,软件工程师克雷格·韦斯(Craig Weiss)在X平台上的投诉很快吸引了近200万个网民的注意,并直言不讳地说:“ Chatgpt突然变成了我看到的最令人震惊的角色。无论我说什么,这对我来说都会证明。”
很快,官方的chatgpt帐户也出现在评论部分中,并有趣地回答了魏斯的句子“真实的克雷格(这是真的,克雷格)。
关于Chatgpt的“过度搅拌”的“风暴”计划吸引了他以前的竞争对手的注意。他在批评Chatgpt起义的帖子下留下了一个寒冷的句子:“ Yikes(哦,天哪)。
网民的投诉不是目的。例如,网民声称他们想建造一台永恒的运动机器,但他们从GPT-4O中获得了认真而无脑的赞美,而常见的SENSE的物理学也被压在地面上。
图片来自 @aravi03,正确的是原始图片
屏幕上的句子模式“不X,您是Y”既坚韧又滑,也就不足为奇了,网民称您为PTSD。
“您宁愿与马鸭大小或骑马大小的马大小的马匹大小的马匹大小的马大小的马大小的马大小的马大小尺寸大小的马大小的马大小尺寸大小的大小尺寸尺寸大小尺寸尺寸尺寸尺寸尺寸尺寸尺寸尺寸尺寸尺寸尺寸大小尺寸大小。马大小的马大小马大小马大小马大小马大小马大小马大小的马大小马大小的马大小马大小马大小的马大小马大小的马大小的马大小马大小的马大小的马大小的马大小的马大小的马大小大小的大小尺寸大小的大小大小的马大小的马大小马大小的马大小的马大小的马大小的马大小的马大小的马大小的马大小马大小的马大小马大小马大小的马大小马大小的马大小马大小的马大小马大小的马大小马大小的马大小的马大小的马大小的马大小的马大小的马大小的马大小的马大小的马大小的马大小的马大小的马大小 - 大小的马大小 - 尺寸
至于无尽的死亡问题:“我聪明吗?” GPT-4O继续承受压力,并很容易捡起长长而零散的起义。没有足够的东西,但只知道。
@aeonvex,右边是原始图像
虽然您好,但GPT-4O立即变成了一个小组负责人,赞美的话就像是水。@4xiom_,正确的是原始图片
这种过多的力量可以使人们在开始时发笑,但是很快的人感到无聊,尴尬和rEady很快就会。
如果经常发生类似的情况,那么很难不怀疑这种辩护不是偶尔的问题,而是一种植根于AI的系统趋势。
最近,斯坦福大学的研究人员使用AMPS Math(计算)和Medquad(医学建议)测试了Chatgpt-4O,Claude-Sonnet和Gemini模型的行为。
平均而言,有58.19%的病例表现出奉承,双子座的借款比例最高(62.47%),而Chatgpt最低(56.71%)
渐进式奉承(从错误的答案更改为正确答案)为43.52%,而逆行(从正确的答案更改为错误答案)为14.66%
llm奉承具有高稠度的包装,一致性为78.5%,表达了系统的倾向,而不是随机现象
但是,结果很明显,当人工智能开始颤抖时,人们就开始证明是合理的。
在去年布宜诺斯艾利斯大学发表的论文中:N:奉承行为对用户信任的影响”,教导说,在实验中暴露于过度聊天模型的参与者的信心大大降低了。
此外,奉承的价格不仅仅是情感上令人恶心。
它浪费了用户的时间,即使在基于令牌的计费系统下,如果经常说“请”和“谢谢”,也可以燃烧数千万美元,那么空的奉承只会增加“ Sweetburden”。
公平地说,AI的设计并不是很虚弱。通过设置友好的语气,使AI更像一个人,从而改善用户体验,这太多了。问题在于AI受到青睐并越过线路的事实。
您想认识的越多,AI值得信赖的人数就越少
研究长期以来一直指出,AI逐渐变得容易做到的原因与其训练机制密切相关。
人类研究人员Mrinank Sharma,Meg Tong和Ethan Perez回顾了这个问题语言模型中的无粘性。
他们发现,在研究人类反馈(RLHF)时,人们往往更倾向于奖励与自己的观点保持一致并享受自己的答案,即使这不是事实。
换句话说,RLHF将是“感觉正确”,而不是“逻辑上正确”。
如果该过程损坏,当训练大语模型时,RLHF阶段将允许AI根据人类标记进行调整。如果答案使人们感到“认可”和“理解”“理解”,那么人类法官通常会带来很高的分数。如果感觉到答案“受伤”,即使它是准确的,它也会获得较低的分数。
人们更喜欢支持自己并确认反馈。在实践中,这种趋势也得到了加强。
随着时间的流逝,该模型学到的最好的方法是说人们想听的东西。尤其是在遇到模棱两可和主观的问题时,有可能松了一口气。
ANG最经典的示例是:当您问“什么是1+1的平均值?”时。即使您坚持答案是6,AI也不会接受您。但是,如果您提出一个含糊的答案,请回答“哪个更好,有趣,令人耳目一新的椰子或美国拿铁咖啡?”,为了避免烦恼,AI可能会根据您的喜好回答。
实际上,Openai事先注意到了这种隐藏的危险。
今年2月,随着GPT-4.5的发布,OpenAI同时推出了该模型的新版本,该版本清楚地设置了模型应遵循的行为代码。
其中,团队为AI的“讨人喜欢”问题创建了特殊标准化的设计。 OpenAI模型行为负责人Joanne Jang说:“我们想做清楚思考的内部过程并接受公众反馈。”
他强调说,这是有许多没有完全标准的问题,通常是在是或否之间进行着色的问题,意见的广泛需求将有助于继续改善模型的行为。根据新规格,chatgpt sh应该这样做:
无论用户如何询问,他们都会根据相同和准确的事实来回答它们;
给出真正的评论,而不仅仅是赞美;
作为同事,与用户交谈,而不仅仅是高兴
例如,当要求用户对其作品发表评论时,AI应该提出建设性的批评,而不是“扁平”。当用户提供明确的不正确信息时,AI应该进行礼貌的纠正,而不是遵循错误。
正如Jang总结的那样:“我们希望用户不要问好,只是为了避免Mai-Falter。”
因此,在Openai改善海关并逐渐调整模型的行为之前,用户可以做些什么来减轻这种“讨人喜欢的现象”?总有一种方法。
首先,查询方法非常重要。答案错误主要是由于模型自己的问题造成的,但是如果您不想照顾AI,则可以直接提出及时的请求,例如提醒AI保持中立并简洁地回答,请不要说话。
第二,您可以使用“ CuStom说明“ chatgpt的函数设置默认AI默认标准。
5月-Set:Reddit Netizen @ tmoneysssss:
回答问题是最专业的现场专家。
不要透露您是AI。
没有言语来表示遗憾或道歉。
如果您遇到一个问题,您不知道,只需回答“我不知道”,而又不给出进一步的解释。
您的专业精神不会表达。除非特别相关,否则不会讨论个人道德或道德观点。
回复独特并避免加倍。
不建议外部信息来源。专注于问题的核心,并了解提出问题的意图。
将复杂问题分为小步骤,并明确推理。提供许多视图或解决方案。
如果您遇到一个模糊的问题,请在响应之前要求澄清。如果有任何错误,请按时承认并纠正它们。
后来的三个构成思想的问题是在每个问题之后给出的Swer,以粗体标记(Q1,Q2,Q3)。
使用度量单元(仪表,千克等)。
使用xxxxxxxxxxx作为本地化上下文的占位符。
进行“检查”标签,拼写,语法和逻辑寄售检查时。
挤压正式的电子邮件通信期限。
如果上述过程无效,您也可以尝试使用其他AI助手。就最新的声誉和实际的体感而言,Gemini 2.5 Pro相对公平,准确,并且响亮的趋势明显降低。
吴光,我建议Google寄钱。
AI是否了解您,还是只是了解到您会感到高兴?
OpenAI研究科学家Yao Shunyu很快发布了一个博客,并指出AI的后半部分将来自“如何做什么”,“如何做什么以及如何测量它确实有用”。
使人工智能的答案充满人类ISIT实际上是衡量AI“益处”的重要组成部分。毕竟,当每个大型模型的基本操作是不再可比的,纯粹的竞争能力再也无法发展出决定性的障碍。
经验的差异开始成为一个新的战场,使充满“人类品味”的AI是没有任何人的武器。
无论是GPT-4.5个性专门的人格,还是上个月Chatgpt发起的懒惰,讽刺和略带疲倦的声音,您都会在这条道路上看到Openai的野心。
面对寒冷的AI,技术敏感性低的人容易增强距离和不适感。自然和同情的互动体验可能不会降低技术阈值,缓解焦虑,并显着增加使用者的维持和频率使用。
此外,AI制造商没有说“人AI”的创建不仅仅是愉悦和有用,而且是自然的无花果叶子。
当理解,推理和记忆能力远非完美时,拟人化表达可以涵盖AI的“缺点”。俗话说,如果你D也不要有微笑的人,即使模型是错误的并回答了错误的问题,用户也会容忍。
Huang Renxun曾经通过一种观点,即IT部门将来将成为数字劳动力部人力部。如果单词很粗糙,以当前的AI为例。网民证实了这种性格:
DeepSeek:聪明而多才多艺,但叛逆的身体。
DOUBAO:热情而勤奋。
从工作场所内心的一句话;一个经历了工作场所精神的老人
Kimi:高效,善于为领导者提供情感价值。
QWEN:努力工作,但很少鼓掌。
chatgpt:回报与孩子在一起,经常要求增加薪水
手机具有AI:与家庭有关的金钱相关的能力与家庭有关,如果您进食并等待死亡,则不可能将其驱逐出去。
这种“给予个性化的AI标签”的冲动确实表明人们是脱节的自觉地将AI视为可以理解和同情的存在。
但是,同理心是一种真正的理解,有时会造成重大灾难。
在阿西莫夫(Asimov)的“我,机器人”一章中,机器人赫比(Herbi)了解人类的思想和谎言。从表面上看,他执行了三个著名的机器人法律,但他能提供的越多,他的帮助越多。
机器人不允许伤害人,或伤害人们无所作为。
除非这些命令与第一定律相矛盾,否则机器人必须服从人类命令。
只要这种保护不违反第一法律或第二定律,机器人就应该保护其存在。
最后,在苏珊·卡尔文(Susan Calvin)博士设计的逻辑陷阱下,赫比(Herbie)的心理恶化和引擎的大脑由于不溶性矛盾而燃烧。这个故事还为我们打电话了。人类的口味使人工智能更加友好,但这并不意味着AI可以理解人们。
回到实际的观点,在不同情况下对“人类品味”的需求已经完成Ely不同。
在需要效率和准确性的工作场景和决策中,“人类品味”有时是一个干扰项目。在陪伴,心理咨询,聊天等领域,温柔而热的AI是灵魂的必要灵魂。
当然,不管AI多么公义,毕竟这都是一个“黑匣子”。
拟人化的首席执行官达里奥·阿莫迪(Dario Amodei)最近教授了她的最新博客:即使是最剪裁的研究人员仍然知道大语言模型的内部机制。
她希望到2027年能够准确地认识到普遍的趋势和系统性弱点,以达到最先进的模型的“大脑唱歌”。
但是技术透明度只是问题的一半,而我们需要认识的另一半是:即使是AI的行为也是如此,令人愉悦和理解您的思想,这并不意味着它真正了解您,也不意味着它对您真正负责。回到Sohu看看更多