简体 | 繁体
loading...
新闻频道
  • 首页
  • 新闻
  • 读图
  • 财经
  • 教育
  • 家居
  • 健康
  • 美食
  • 时尚
  • 旅游
  • 影视
  • 博客
  • 群吧
  • 论坛
  • 电台
  • 焦点新闻
  • 图片新闻
  • 视频新闻
  • 生活百态
  • 娱乐新闻
您的位置: 文学城 » 新闻 » 焦点新闻 » 当AI开始“故意变差”,真正的危险就降临了

当AI开始“故意变差”,真正的危险就降临了

文章来源: 果壳 于 2025-12-30 14:01:55 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数

还记得几年前人类第一次见到 AI 生图时的反应吗?

先是靠判断违背物理常识的“一眼假”,比如生成的手指个数不对又变形,生成的人类永远吃不好面条。

随着 AI 发生常识性错误在一点点减少,它又走向另一个“极端”,生成的人像皮肤太光滑、光线太扁平、构图太端正,乍一看像P过的影楼写真。“这不像是人拍的”,对此,我们还能发出经验主义的警觉。

猛一看很真实,细看太过完美光滑|APOB AI

但是,朋友们,在这个人机难辨的时代,任何识别经验都会被随时淘汰。

新的 AI 图像模型开始主动往“差一点”的方向走了。它们学会模仿手机摄影出现的不完美的质感:对比度不高、锐化过头、阴影被硬生生拉亮、构图带点随意,甚至有点糊。

也就是说,AI 不再追求生成“最好的照片”,而是试着生成“你会拍出来的那种照片”。而正是这些“瑕疵”,让图像突然变得可信了。

这个变化节点透露出一丝更加“危险”的气息,AI 正在学习如何显得不那么完美,就像人类一样。

AI:我装的

真实世界从来不是高清、完美、对称、干净的。我们之所以相信一张照片是真的,并不是因为它好看,而是因为它符合我们记录现实的方式。

早期的 AI 图像,它们最大的破绽是一种诡异的“完美”。图像每一颗像素都太滑、太亮、太干净了,就像是把“磨皮”开到最大后又抹了层油和蜡,人像宛如蜡像,不生动。

原因很简单,当你输入“一张桌子”,AI 会生成一个“在任何评判标准下都符合的结果”,它大概率是一张“教科书图”。而且,从数据来源来说,往往被反复标注和引用的图片都是这种“标准图”,模型早期的核心逻辑是在真实中“求平均值”,AI 会调取它数据库里见过的几十亿张桌子,然后取一个中间值,那种随手一拍家里的脏乱桌子图在这种巨量的平均之下被“稀释”了。

去掉“油蜡感”是 AI 生图拟真的重点|X

而今天训练模型的人在教 AI “搞砸”。

以最近 Gemini 里集成的 Nano Banana 为例。它生成的图像里,有着明显的过度锐化,对比度拉得死高,暗部细节丢失,甚至还有那种因为传感器太小而产生的特有噪点。

我们知道因为手机能承载的传感器很小,为了弥补光学上的先天不足,手机厂商会使用多帧合成算法,“暴力”地提升阴影亮度,锐化边缘以制造“清晰”的假象。

久而久之,我们的眼睛被手机厂商驯化得习惯了“手机味儿”,当 AI 开始模仿这种物理光学上的局限性时,其实是模仿人类的被上一代机器“驯化”后的认知方式。

OpenAI 刚升级的 ChatGPT Images,在宣传片中也主打“真实拍摄感”|OpenAI

当 AI 图像不再试图渲染物理世界真实的光影,转而去渲染“手机摄像头里的世界”,用 The Verge 的评论,这叫“AI 学会了巧妙地绕过恐怖谷”。

这跟手机拍的风景照有什么区别?|The Verge

另外,Sora 2 和 Veo 3 也开始生成那种颗粒感十足的“监控画质”视频,它们利用了的一个逻辑:利用媒介的低劣,来掩盖内容的虚构。

这张 AI 图片也曾骗过无数网友,“随手一拍”的临场感加上模仿手机的摄影效果|Reddit

而这种“主动变差”的策略,并不只发生在图像生成模型上。

“绕过恐怖谷,巧妙地”

你有没有发现,聊天机器人也变了?

从一开始那个“高智力低情商”的“伪人”——说话滴水不漏,姿态居高临下,态度理性生硬,变得会犹豫、会共情、主动暴露脆弱。

有限的理性,偶尔的词不达意,语气中不可避免地透露出个人情绪......这些才是正常人类的表达。

去问 AI,AI 也会说这是一种“后台策略”|ChatGPT

所以当一个 AI “有意”展露出这些,反而比一个绝对理性、稳定、客观中立的“聊天对象”更能拉近距离感,对此我们下意识的反应是,“挺有个性”、“完了,它好像真的在思考”。

这些“障眼法”背后是一个关键的问题,当 AI 展示不完美时,它到底是在暴露能力的边界?还是在展示能力本身?答案恐怕是后者。

它在判断“什么样的结果更容易被人类接受”:脆弱、迟疑、模糊、噪点?这些过去被视为缺陷的东西,正在变成 AI 博取人类信任的表演策略。

这就像我们在读书时期偶尔听说的会控分考试的天才学生。

当一个人,随时决定要不要示弱,不是他真的被攻击到了,而是示弱被他当作一种社交能力。AI 也是如此,当它表现出犹豫,并不意味着它不知道答案,而是知道这种表达更容易让人卸下防备。

AI 开始理解,人类对“像人”的判断,本身就建立在不完美之上。真实感的来源不是堆参数达到的技术指标,而是一种心理暗示和心理反馈。

AI 生成“低像素”的澳大利亚邦迪海滩恐袭“阴谋论”图片|图源:X

事实证明,一直以来我们判断真实与否本身就带着人类的局限。

就像人类看不到红外与紫外光,听不到 20Hz 以下的低频,我们感知到的“现实”,本就只是一个被生理和心理共同裁剪过的版本。

从这一点上来说,比剥离出 AI 生成但符合人类预期的虚假更难的是,逼迫人类承认判断主观和认知局限。

AI 绕过恐怖谷的新策略,不是全力拟真,追求零差错,而是精准地设计出恰好落在我们信任阈值之内的“真实”。

作者:糕级冻雾

编辑:沈知涵

  • 北美最大中英文保健网“母亲节特大酬宾”!美国专利[骨精华][心血通][益脑灵]健骨強心护脑,用过的都说好!
查看评论(0)
  • 文学城简介
  • 广告服务
  • 联系我们
  • 招聘信息
  • 注册笔名
  • 申请版主
  • 收藏文学城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2026 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小时热点排行

清华学霸要做世界首富:拿贾跃亭剧本,能赢雷军吗
我正在去巴勒斯坦,急需律师和使馆援助!
美股AI着魔!《大卖空》本尊警告:就像网路泡沫崩盘
中美元首峰会在即:北京想要什么?
人均百万奖金,韩国企业为啥要强制分红?






24小时讨论排行

CNN访问郑丽文:“台湾不想成为下一个乌克兰”
美议员“痛心”:美国在中东烧钱,给中国送礼
调查:欧洲人对美信任度锐减,但中国不是替代选项?
脱离实际的报价遭冷遇,世界杯中国转播费腰斩
中国2任防长同日判死!军报:绝不能对党怀二心
飞机曾高速翻滚360度 东航空难更多黑盒数据曝光
女星求法院允许安乐死引关注 称承受多年痛苦
中国顶尖科学家离奇死亡 武大遥感专家柯涛48岁猝死
伊朗最强底牌曝光!专家:海峡战略价值更胜核武
停火日互控开火 普京喊将“终战” 震撼发言曝光
拒绝伊朗结束战争回应 川普:完全无法接受
FBI解密UFO档案 惊曝“矮小太空人”走下飞碟
伊朗战争变台海预演?CNN:美中都在重新学打仗
川普将就伊朗议题对习近平施压 聚焦石油与稀土…
美拟取消外国出生12人公民身分 包括原籍中国伊朗等地
以军空袭黎巴嫩2800人惨死!父女遭"追杀式轰炸"
文学城新闻
切换到网页版

当AI开始“故意变差”,真正的危险就降临了

果壳 2025-12-30 14:01:55

还记得几年前人类第一次见到 AI 生图时的反应吗?

先是靠判断违背物理常识的“一眼假”,比如生成的手指个数不对又变形,生成的人类永远吃不好面条。

随着 AI 发生常识性错误在一点点减少,它又走向另一个“极端”,生成的人像皮肤太光滑、光线太扁平、构图太端正,乍一看像P过的影楼写真。“这不像是人拍的”,对此,我们还能发出经验主义的警觉。

猛一看很真实,细看太过完美光滑|APOB AI

但是,朋友们,在这个人机难辨的时代,任何识别经验都会被随时淘汰。

新的 AI 图像模型开始主动往“差一点”的方向走了。它们学会模仿手机摄影出现的不完美的质感:对比度不高、锐化过头、阴影被硬生生拉亮、构图带点随意,甚至有点糊。

也就是说,AI 不再追求生成“最好的照片”,而是试着生成“你会拍出来的那种照片”。而正是这些“瑕疵”,让图像突然变得可信了。

这个变化节点透露出一丝更加“危险”的气息,AI 正在学习如何显得不那么完美,就像人类一样。

AI:我装的

真实世界从来不是高清、完美、对称、干净的。我们之所以相信一张照片是真的,并不是因为它好看,而是因为它符合我们记录现实的方式。

早期的 AI 图像,它们最大的破绽是一种诡异的“完美”。图像每一颗像素都太滑、太亮、太干净了,就像是把“磨皮”开到最大后又抹了层油和蜡,人像宛如蜡像,不生动。

原因很简单,当你输入“一张桌子”,AI 会生成一个“在任何评判标准下都符合的结果”,它大概率是一张“教科书图”。而且,从数据来源来说,往往被反复标注和引用的图片都是这种“标准图”,模型早期的核心逻辑是在真实中“求平均值”,AI 会调取它数据库里见过的几十亿张桌子,然后取一个中间值,那种随手一拍家里的脏乱桌子图在这种巨量的平均之下被“稀释”了。

去掉“油蜡感”是 AI 生图拟真的重点|X

而今天训练模型的人在教 AI “搞砸”。

以最近 Gemini 里集成的 Nano Banana 为例。它生成的图像里,有着明显的过度锐化,对比度拉得死高,暗部细节丢失,甚至还有那种因为传感器太小而产生的特有噪点。

我们知道因为手机能承载的传感器很小,为了弥补光学上的先天不足,手机厂商会使用多帧合成算法,“暴力”地提升阴影亮度,锐化边缘以制造“清晰”的假象。

久而久之,我们的眼睛被手机厂商驯化得习惯了“手机味儿”,当 AI 开始模仿这种物理光学上的局限性时,其实是模仿人类的被上一代机器“驯化”后的认知方式。

OpenAI 刚升级的 ChatGPT Images,在宣传片中也主打“真实拍摄感”|OpenAI

当 AI 图像不再试图渲染物理世界真实的光影,转而去渲染“手机摄像头里的世界”,用 The Verge 的评论,这叫“AI 学会了巧妙地绕过恐怖谷”。

这跟手机拍的风景照有什么区别?|The Verge

另外,Sora 2 和 Veo 3 也开始生成那种颗粒感十足的“监控画质”视频,它们利用了的一个逻辑:利用媒介的低劣,来掩盖内容的虚构。

这张 AI 图片也曾骗过无数网友,“随手一拍”的临场感加上模仿手机的摄影效果|Reddit

而这种“主动变差”的策略,并不只发生在图像生成模型上。

“绕过恐怖谷,巧妙地”

你有没有发现,聊天机器人也变了?

从一开始那个“高智力低情商”的“伪人”——说话滴水不漏,姿态居高临下,态度理性生硬,变得会犹豫、会共情、主动暴露脆弱。

有限的理性,偶尔的词不达意,语气中不可避免地透露出个人情绪......这些才是正常人类的表达。

去问 AI,AI 也会说这是一种“后台策略”|ChatGPT

所以当一个 AI “有意”展露出这些,反而比一个绝对理性、稳定、客观中立的“聊天对象”更能拉近距离感,对此我们下意识的反应是,“挺有个性”、“完了,它好像真的在思考”。

这些“障眼法”背后是一个关键的问题,当 AI 展示不完美时,它到底是在暴露能力的边界?还是在展示能力本身?答案恐怕是后者。

它在判断“什么样的结果更容易被人类接受”:脆弱、迟疑、模糊、噪点?这些过去被视为缺陷的东西,正在变成 AI 博取人类信任的表演策略。

这就像我们在读书时期偶尔听说的会控分考试的天才学生。

当一个人,随时决定要不要示弱,不是他真的被攻击到了,而是示弱被他当作一种社交能力。AI 也是如此,当它表现出犹豫,并不意味着它不知道答案,而是知道这种表达更容易让人卸下防备。

AI 开始理解,人类对“像人”的判断,本身就建立在不完美之上。真实感的来源不是堆参数达到的技术指标,而是一种心理暗示和心理反馈。

AI 生成“低像素”的澳大利亚邦迪海滩恐袭“阴谋论”图片|图源:X

事实证明,一直以来我们判断真实与否本身就带着人类的局限。

就像人类看不到红外与紫外光,听不到 20Hz 以下的低频,我们感知到的“现实”,本就只是一个被生理和心理共同裁剪过的版本。

从这一点上来说,比剥离出 AI 生成但符合人类预期的虚假更难的是,逼迫人类承认判断主观和认知局限。

AI 绕过恐怖谷的新策略,不是全力拟真,追求零差错,而是精准地设计出恰好落在我们信任阈值之内的“真实”。

作者:糕级冻雾

编辑:沈知涵