我们已经开始厌倦A.I.
事情的起因是这样的,昨天我们转载了九爷的一篇文章。
有朋友批评“AI味”太浓了,我觉得这是一个很好的角度,正好跟大家分享下个人的感受。
我们先做个框定,讨论的内容仅限于AI生成类内容,也就是AIGC。
帮你写代码、做重复工作的不算,那只能叫牛马辅助器。
#01
“原始的冲动”
人类对于造物似乎是刻在DNA里的技能,甚至包括要创造另一个自己。
ChatGPT还没火的时候就接触过了,只不过当时当成了乐子。
一群论坛里面没品的人把ChatGPT改造成各种性格的角色,通过对话进行角色扮演。
而有些角色,总能让你老脸一红。
当时可能没有人意识到,这些“老变态”调教AI的手段就叫“提示词工程”。
再到后来,有了Stabe Diffusion之类的文生图工具,这帮货又有了新玩具。
那时候,各种风格的NSFW模型被训练出来,他们称之为“炼丹”。
当然,以上这只能算暗线。
最早适用ChatGPT类工具进行的工作是帮孩子写作业,包括Kimi、豆包、ChatGPT都被用来干这个事。
当然,还得小心,这些货总会时不时整出个“3.11>3.9”的幺蛾子来。
及至后来,我会用他们去翻译文献、报告等。
毕竟全英文的看起来还是很吃力,有翻译过的还是更方便。
所以你看,人类原始的冲动:“**(自己补全)”和偷懒是促进AIGC产品发展的动力。
人们乐此不疲的使用着这些工具,那又怎么厌倦了呢?
#02
“缺点”
在调教ChatGPT的初级阶段,这些提示词工程师们就发现了AIGC的一些问题。
比如,经常会出现忘记上下文的“老年痴呆”,逻辑性缺失等问题。
就跟谈恋爱好不容易发展到牵手走进电影院,一出来对方就问你是谁,那感觉....
文生图时代,“炼丹”的“废品率”也不低。
比如6根手指、不合理的关节角度等等,也是让人眼前一黑。
当然,运用到工作上就更是灾难级别了。
比如2023年这个案例是非常典型的AIGC应用到工作中的反面案例,律师在查找案例时偷懒,直接让ChatGPT去搜集整理。
结果,ChatGPT也选择了偷懒,编造出了6个案例。
法官也是厉害,竟然给发现了...
当然,这些缺点随着更大规模的训练、更强大的算法得意大大减少。
然而,像我这样抗拒AIGC内容的“老古董”似乎还不少。
比如,咱们开头的两位朋友。
为啥?个人认为是对“伪智能”的排斥。
#03
“伪智能”
如今互联网上,AIGC内容越来越多。
用AI写文章都是小儿科了,视频的配音大量使用AI模型,连你在抖音刷到的小姐姐都可能是AI生成的。
但是,这些内容都有一些“伪智能”的痕迹。
比如文字内容的过度结构化输出,啥都能给你列出个123;编造参考资料、文献出处;使用“自造词”提升高级感等等。
比如这个流传颇广的谣言,“80后的死亡率已经超过70后”就是AI编造的谣言+人工标题党结合的产物。
图片也存在一样的问题,2025年1月,西藏日喀则市定日县发生6.8级地震,一张“小男孩被埋图”在网络上流传。
而实际上,这个孩子的照片是AI生成的,甚至是劣质版本的。
注意看,孩子的左手是六指,这是典型的AI生成人像错误。
所以“伪智能”不仅没有给我们的生活、学习带来便利,反而增加了识别虚假信息的负担。
关键是,这种AIGC正在污染我们的信息源。
用AI生成文章/文案糊弄读者,这些内容成为引用源,AI再次生成文章/文案使用了这些引用源。
循环往复,生生不息。
这要能产生真正的智能,我倒立洗头...
#04
最后
(图片来自网络,侵删)
我们的读者不用担心,原创文章都是真人写的。
我们目前应用最多的就是拿AI来翻译,还要经过人工校对那种,这货有些翻译不符合我们的习惯。
大家可以经常在我们的文章中看到错别字、2025打成2024啥的...这种大家就当成“anti-AI”标记吧。
嗯,听起来很高级。
而且,AI也在进步。
比如最近刚刚出来的Manus,用来收集数据,做做图表,似乎比我高效多了。
也许我们无法分辨人与AI产生的内容的时代终究会到来。
只是,那个时候,人还有存在的必要么?
免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。
