我认为这张图片展示了AI如何缩短了氛围到现实的循环 右侧的这个表情包并不是来自于一个“真实”的节目,但它看起来像是因为它融合了多种参考:80年代的OVA渲染,90年代风格的吉祥物企鹅(类似于《新世纪福音战士》的Pen-Pen),2010年代的软哥特轮廓,以及一个流行的2020年代笑话变成的标题。 这是一个由你在信息流中漂浮的风格碎片组成的时间线合成,通过生成AI使其变得具体。它与您在脑海中已经重新混合的内容相匹配,因此它瞬间落地。 在AI出现之前,将一种氛围捕捉到媒体中是更困难的。你必须感知到这种氛围,具备将其变得可读的技能,然后再发布。 现在,图像模型让你可以通过关键词进行迭代,并在几分钟内达到目标。我们可以假设我们在网上看到的大多数东西都在潜在空间的某个地方,因此你可以用正确的词提取出一个近似的结果。提示消除了技能障碍。 过程大致如下: 人们捕捉氛围 -> 压缩为关键词 -> 模型渲染 -> 发布 -> 共识(重复) 最后一步很重要。用AI输出淹没世界并不会将这些氛围转化为对象。它们需要网络共识,共同信念,才能跨越界限。你需要一定数量的人确认你的东西与他们的主观体验一致。一旦时间线说“是的,就是这个”,循环就会重新开始,氛围变得更加明确。 左侧的图片展示了最后一步,氛围在现实生活中被展现,进一步使其具体化。现在,“企鹅哥特女神-致命女性过道便利店场景”足够清晰,以至于它成为了一个存在的事物的简写。你明白它在说什么,甚至可能会认同它。难怪这是一条如此受欢迎的帖子,你在网上看到的幽灵现在变得有血有肉,其他人也看到了它。 创作的主体从创造转向选择和引导。你并不是在创造这些美学,而是将它们从流通中压缩成一种特定的形式。 AI改变了分布式美学的物化速度,降低了具体化的门槛。我们已经看到了这一点:Shein在微趋势完全结晶之前就开始生产,快时尚算法将社交媒体流通压缩成产品。