最近在X上的两个@grok趋势 1. 给人穿比基尼 2. 根据特定标准移除某人 我认为这两者都是有趣但又危险的发展。 对于趋势1,开始出现一些声音,讨论(1)与完全无关的人物的深度伪造图像,以及(2)在某些文化中不被允许的图像的创建。 对于趋势2,它允许人们直接或间接观察AI对某些(政治)观点的偏见。 虽然这两者在某种程度上都在被过滤,但变通方法只会随着时间的推移变得更加复杂。如果一些过滤较弱的模型通过这种方式获得市场份额怎么办?考虑到如今每个技术倡议都能决定公司的生存,竞争激烈的科技行业可能正走向灾难。 AI伦理可能会在今年成为一个至关重要的话题。也许我们正接近每个人所预期的风险阈值。或者这可能成为一个转折点,技术重塑社会认知,使“可接受”的深度伪造图像变得正常化。