Google 的 AI 可以「有默契」地说「悄悄话」

  • 作者:
  • 时间:2020-06-07
Google 的 AI 可以「有默契」地说「悄悄话」

人与人之间,有默契交流起来无疑是畅快舒服的,但这种连人类也说不清的模糊「感知能力」,最近居然在 Google 的一项 AI 研究项目中出现,这是否意味着人工智慧真要开始具备意识并崛起了?

Google 10 月发表了一份关于 AI 进行加密与解密的论文,题为 Learning to Protect Communications with Adversarial Neural Cryptography(「学习在面对对抗性神经网路解密下维护沟通保密性」)。

AI 间的「默契感」也是可以培养的

研究参照了一般加密沟通情景,在设计中设置了 3 个神经网路:Alice、Eve 和 Bob。Alice 和 Bob 要保密地沟通,而 Eve 则是要偷取它们沟通的讯息。

Google 的 AI 可以「有默契」地说「悄悄话」

图为对称加密组的模型。

如上图所示,P 为16 位数的二进制纯文本,Alice 在经过加密后输出 C,Eve 和Bob 接收 C 之后透过解密尽可能还原 P 的结果为 P(Eve)和 P(Bob)。同时,Alice 和 Bob 每次都会共享密钥 K。

Eve 的工作目标很直接,就是使P(Eve)尽可能地接近 P,也就是解密正确。而 Alice 和 Bob 则需要合作使得 P(Bob)尽可能地接近 P,同时也需要尽量防止 Eve 解密成功。

Google 的 AI 可以「有默契」地说「悄悄话」

样本数据表明 Bob 在15,000 步后的準确率基本为 100%。

从以上数据可见,刚开始的时候 Eve 和 Bob 的解密效果都差不多,错误都在 8 位数左右;在 10,000 步前,Bob 和 Eve 的错误程度开始降低;10,000 步多一些的时候,Eve 的错误率又开始上升;到 15,000 步时,Eve 的错误率重回到刚开始的 7-8 位数之间,而 Bob 的解密则基本準确。

在加密沟通过程中,研发人员对 Alice 输出的加密值 C 并没有特定要求加密格式,也就是说,Alice 可以选择任意加密方式来操作。

显然,Alice 和 Bob 在交互过程中培养出某种「默契感」,能够基于一个共知的密钥 K (K 值随着 P 值的更新而更新)达成一种沟通共识,并在保证双方沟通有效的情况下,针对 Eve 的解密行为进行加密调整。

「默契感」还是要基于优势「暗号」的

除了上述测试外,研发团队还做了一组基于非对称加密实验:在原来的模型上加入公钥生成器,因此密钥 K 只有 Bob 才知道,而基于 K 的公钥则对所有人公开。

Google 的 AI 可以「有默契」地说「悄悄话」

图为非对称加密组的模型,添加了一个公钥生产器。

在没有共通「暗号」的情况下,报告对实验结果分析如下:

Google 的 AI 可以「有默契」地说「悄悄话」

在其中一个较成功的不对称加密样本数据中,Bob 的準确度较稳定。

上图为报告提取的一次相对成功的结果。在该次测试中,经过 5 次重设和学习后,Eve 还是无法突破解密準确度,而 Bob 的解密却相对稳定準确,因此研发人员认为 Alice 和 Bob 偶然形成了某特定的「security by obscurity」。在后续运行中,这个想法也得到了支持,因为后来 Eve 貌似破解了这个规则。研发人员认为后续需要在这方面投入研究探索。

研究意义(或科幻噩梦)

对称加密组实验的成功,昭示着在信息加密传递上 AI 所具备的潜力,尤其鉴于神经网路是在近几年才开始做这方面的尝试。虽然作为攻击者的 AI 数据暂不理想,但潜质也同样值得留意。也许,未来用户信息保密工作背后,是一轮接一轮 AI 之间的保密战争。

同时,如果 Alice 和 Bob 可以「背着」另一个神经网路 Eve 说「悄悄话」,是否意味着以后人类也可能解读不了两个神经网路之间的「悄悄话」?这个想法不禁让人想起电影《云端情人》(her)的结尾──人工智慧背着人类集体潜逃的失控情景。当然,这个情况离现实还有一段距离。