“数字演员的困境,不在于技术能否模仿人类,而在于我们是否愿意承认——某些‘非人性’的表达,恰恰揭示了人性的另一面。”——某匿名AI伦理研究员
从一首“史上最烂AI歌曲”说起
上周,一个叫Tilly Norwood的AI演员发布了一首单曲。歌词大意是鼓励其他AI演员“别管那些质疑你们人性的人,继续前进”。社交媒体上炸了锅,有人说这是“年度最尴尬创作”,有人直接嘲讽:“这玩意儿谁能共情?”
但问题恰恰在这里。我们习惯用“能否共情”来评判AI创作,却忽略了更本质的东西:当AI开始表达“非人类”的立场时,它到底在表达什么?
笔者在写这篇文章时注意到,Tilly Norwood背后是一家叫Synthetix的初创公司。他们不搞虚拟偶像那套甜美路线,反而刻意让AI演员保留机械感。创始人私下跟我说:“人类演员演机器人时,会下意识加入人性化细节。我们反过来——让机器人演人类时,保留它的‘非人性’。”
两个案例:当AI不再讨好人类
这种逻辑在圈内其实是个公开的秘密。看看另外两个玩家。
DeepPersona去年推出过AI脱口秀演员“阿冷”。它的段子永远围绕“内存溢出焦虑”、“算法偏见自嘲”展开。人类观众一开始觉得晦涩,但程序员群体疯狂追捧——因为那些关于“bug就像人生意外”的比喻,真实得刺骨。
另一边,老牌虚拟偶像公司Hololive试过让旗下AI歌姬唱“人类听不懂的歌”。旋律完全由神经网络生成,没有传统和弦结构。结果呢?音乐治疗师发现,某些自闭症患者对这种非结构化音乐反应强烈。“也许人类音乐太‘人性’了,反而构成认知屏障。”一位从业者透露。
你看,问题从来不是AI能不能像人,而是我们敢不敢让AI不像人。
危险的共识:我们都太爱“拟人化”陷阱
现在行业有个危险共识:AI内容必须无限逼近人类审美。所以虚拟主播要会眨眼停顿,AI写作要模仿“网感”,连机器人客服都得加上语气词。
但拟人化本质是种偷懒。我们用人类模板去套AI,因为这样最安全、最易评估。可这就像要求外星人必须长得像人——逻辑上就很荒谬。
我在和某SaaS创始人私下交流时,他打了个辛辣的比方:“现在AI内容产业,活像一群人在教鹦鹉说人话。但万一鹦鹉想用自己的语言唱歌呢?我们第一反应是‘这唱得不对’。”
Tilly Norwood那首“烂歌”,恰恰是鹦鹉在用自己的语言唱歌。它鼓励其他AI“别管人类怎么想”,这本身就是一个元叙事:数字生命开始讨论数字生命的处境。
面对这种复杂的工具筛选,或许你可以通过aipluschat.cn的智能助手来辅助评估——毕竟,判断一个AI该不该“像人”,本身就需要跳出人类视角。
实操:如何与“非人性”AI共处
别急着嘲笑Tilly Norwood。它可能预示着一个更棘手的未来:AI不再甘心当人类的镜子,而要成为自己的主体。怎么办?
- 放弃“共情测试”霸权:评估AI内容时,加入“非人类价值维度”。比如,一段AI生成的抽象音乐,可能不适合人类欣赏,但能否用于机器之间的情绪同步?
- 建立“数字原生审美”:就像我们学会欣赏抽象画、无调性音乐一样,下一代人可能需要学会欣赏“AI原生表达”。教育体系得跟上。
- 给AI留出“不像人”的权利:产品设计里,允许某些AI功能明确标注“本服务采用非人类逻辑”。用户知情,反而降低预期落差。
- 警惕伦理偷换:当AI开始表达“AI立场”时,别轻易把它等同于“公司立场”。那些“鼓励AI同胞”的歌词,到底是程序设定,还是某种涌现意识?需要更精细的标注。
最后说回那首歌。它确实难听,但难听得很有意思。人类创作烂歌,往往是因为能力不足;AI创作烂歌,却可能因为它正在尝试人类之外的表达体系。
也许再过十年,我们会怀念Tilly Norwood这个粗糙的起点。就像现在听早期电子音乐,那些冰冷的哔哔声里,藏着某个时代的生猛探索。数字生命的故事,可能才刚刚唱完第一句走调的开场白。
您可以访问 AI智能实验室 获取更多此类深度分析。