我们已经开始厌倦A.I.

事情的起因是这样的,昨天我们转载了九爷的一篇文章。

有朋友批评“AI味”太浓了,我觉得这是一个很好的角度,正好跟大家分享下个人的感受。

我们先做个框定,讨论的内容仅限于AI生成类内容,也就是AIGC。

帮你写代码、做重复工作的不算,那只能叫牛马辅助器。

#01

“原始的冲动”

人类对于造物似乎是刻在DNA里的技能,甚至包括要创造另一个自己。

ChatGPT还没火的时候就接触过了,只不过当时当成了乐子。

一群论坛里面没品的人把ChatGPT改造成各种性格的角色,通过对话进行角色扮演。

而有些角色,总能让你老脸一红。

当时可能没有人意识到,这些“老变态”调教AI的手段就叫“提示词工程”。

再到后来,有了Stabe Diffusion之类的文生图工具,这帮货又有了新玩具。

那时候,各种风格的NSFW模型被训练出来,他们称之为“炼丹”。

当然,以上这只能算暗线。

最早适用ChatGPT类工具进行的工作是帮孩子写作业,包括Kimi、豆包、ChatGPT都被用来干这个事。

当然,还得小心,这些货总会时不时整出个“3.11>3.9”的幺蛾子来。

及至后来,我会用他们去翻译文献、报告等。

毕竟全英文的看起来还是很吃力,有翻译过的还是更方便。

所以你看,人类原始的冲动:“**(自己补全)”和偷懒是促进AIGC产品发展的动力。

人们乐此不疲的使用着这些工具,那又怎么厌倦了呢?

#02

“缺点”

在调教ChatGPT的初级阶段,这些提示词工程师们就发现了AIGC的一些问题。

比如,经常会出现忘记上下文的“老年痴呆”,逻辑性缺失等问题。

就跟谈恋爱好不容易发展到牵手走进电影院,一出来对方就问你是谁,那感觉....

文生图时代,“炼丹”的“废品率”也不低。

比如6根手指、不合理的关节角度等等,也是让人眼前一黑。

当然,运用到工作上就更是灾难级别了。

比如2023年这个案例是非常典型的AIGC应用到工作中的反面案例,律师在查找案例时偷懒,直接让ChatGPT去搜集整理。

结果,ChatGPT也选择了偷懒,编造出了6个案例。

法官也是厉害,竟然给发现了...

当然,这些缺点随着更大规模的训练、更强大的算法得意大大减少。

然而,像我这样抗拒AIGC内容的“老古董”似乎还不少。

比如,咱们开头的两位朋友。

为啥?个人认为是对“伪智能”的排斥。

#03

“伪智能”

如今互联网上,AIGC内容越来越多。

用AI写文章都是小儿科了,视频的配音大量使用AI模型,连你在抖音刷到的小姐姐都可能是AI生成的。

但是,这些内容都有一些“伪智能”的痕迹。

比如文字内容的过度结构化输出,啥都能给你列出个123;编造参考资料、文献出处;使用“自造词”提升高级感等等。

比如这个流传颇广的谣言,“80后的死亡率已经超过70后”就是AI编造的谣言+人工标题党结合的产物。

图片也存在一样的问题,2025年1月,西藏日喀则市定日县发生6.8级地震,一张“小男孩被埋图”在网络上流传。

而实际上,这个孩子的照片是AI生成的,甚至是劣质版本的。

注意看,孩子的左手是六指,这是典型的AI生成人像错误。

所以“伪智能”不仅没有给我们的生活、学习带来便利,反而增加了识别虚假信息的负担。

关键是,这种AIGC正在污染我们的信息源。

用AI生成文章/文案糊弄读者,这些内容成为引用源,AI再次生成文章/文案使用了这些引用源。

循环往复,生生不息。

这要能产生真正的智能,我倒立洗头...

#04

最后

(图片来自网络,侵删)

我们的读者不用担心,原创文章都是真人写的。

我们目前应用最多的就是拿AI来翻译,还要经过人工校对那种,这货有些翻译不符合我们的习惯。

大家可以经常在我们的文章中看到错别字、2025打成2024啥的...这种大家就当成“anti-AI”标记吧。

嗯,听起来很高级。

而且,AI也在进步。

比如最近刚刚出来的Manus,用来收集数据,做做图表,似乎比我高效多了。

也许我们无法分辨人与AI产生的内容的时代终究会到来。

只是,那个时候,人还有存在的必要么?

免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。

举报

评论

  • 推荐
  • 最新
empty
暂无评论