在生成式人工智能(GAI)时代,似乎一切皆可被颠覆,连人们信奉的“眼见为实”和“有图有真相”也逐渐失去了意义。
今年春节期间,OpenAI发布了文生视频模型Sora,被认为是“AGI(人工通用智能)的重要里程碑”,它将彻底改变视频内容的生成方式。Sora的出现振奋了科技圈,同时也引发了担忧情绪。
专家表示,这类技术可能导致“深度伪造”视频激增,让人难以分辨真伪。OpenAI也承认,他们无法预测人们将如何使用Sora,也无法预测人们会滥用它的方式。
在Sora问世之前,AI“深度伪造”技术已在国内外引发广泛担忧,知名明星和跨国公司相继成为其受害者。今年1月底,明星 Taylor Swift 夫妇的大量虚假“不雅照片”在社交平台上传播,引发了美国白宫的关注,掀起了对人工智能的担忧。
2月4日,据香港文汇报报道,一伙诈骗集团利用AI“深度伪造”技术向一家跨国公司的香港分公司实施诈骗,成功骗走了2亿港元,这也是香港迄今为止损失最惨重的“换脸”案例。
越来越多类似的案例表明,人工智能带来了新型焦虑。瑞莱智慧Real AI的联合创始人兼算法科学家在接受采访时表示,他们预测,到2024年,利用AI“深度伪造”技术实施的诈骗案件将进一步增加,因为“深度伪造”技术的工程化落地速度极快,“即使是不了解技术的普通人,也能够制作‘深度伪造’的内容”。
“深度伪造”一词源自英文“Deepfake”(由deep learning和fake组成),现在也被称为深度合成(Deep Synthesis)。
这项技术起源于美国,2017年,一位名为Deepfake的用户在社交网站Reddit上发布了涉及知名演员的伪造视频,随后这项技术迅速在色情、政治、广告、娱乐等多个领域得到应用。