—— 为什么 AI 在与人类交互前必须亮明自己的身份
最近一个月听到许多 Podcast 都在聊今年 Google I/O 上发布的 Duplex。
这个产品之所以成为科技圈内,甚至圈外的热门话题,不单单是因为它是 Google 今年的代表作之一,更是因为该技术发展程度很可能会在不久的未来走进大众生活(至少看起来如此),并将给整个社会带来不小的影响。
而在所有公共讨论中,其中一个较核心的问题是:Google 是否应该让 AI 在与人交谈前先表明自己的身份——一个非人的智能服务?
这不是一个简单的问题,下文仅为个人之愚见:
首先, Duplex 并不是有自由意志的生命,而是仍在研发阶段的技术。既然这一技术尚在人类的掌握之下,那么我们就必须明确,有能力决断 Duplex 是否亮明身份的,只有它的所有者 —— Google 这家公司,而非 Duplex 自己。
其次,身份也意味着责任。换言之,因为技术本身是承担不了责任的,倘若由 Duplex 惹出了事端,用户是有权了解该去找谁的。这一点在 Google 最近公布的 AI 使用的七大原则中已被明确指出——该公司需要为开发出的技术承担责任。因此,是否要让 Duplex 表明身份,这个问题也就等同于 Duplex 是否要公开自己造物主的身份。
再者,Duplex 可能在很长一段时间里只会提供有限服务的技术。即便全知全能的技术能够快速被开发出来,我们的社会制度,文化环境也很难保持同样的节奏适应它。所以这样技术的大范围应用仍不大可能实现。
有限的服务意味着人们可抱有的预期也是有限的。正如我们不指望 PhotoShop 能一键美颜,也不会指望美图秀秀能做出高水准的商业海报。如果对话者有机会了解 Duplex 是谁,就有可能意识到它的能力范围,自然也就会明白面对它时该做些什么,没必要做些什么。 如果 Duplex 能够表明其真实身份,也是 Google 对用户的一种尊重。
最后,我相信未来掌握类似技术的未必只会是 Google 一家公司。如果该技术真的有市场前景,必然会吸引更多公司参与相关的研发中。 如果其他公司的 AI 在对话中出了纰漏,造成糟糕的体验,而用户却不清楚这是哪家的产品的话,势必会给行业里所有产品都带来负面的影响。所以,Duplex 要是能首先在对话中公开自己的身份,也是 Google 品牌自信的表现。
另外,需要补充的一点是,在任何人类的对话中,对话双方都会默认给对方判定一个身份。也可以说,没有明确身份的对话是不存在的。即便有时,对方的身份含糊不清,对话的另一方也会通过脑补,塑造一个假想的身份。
这个假想的身份,有时候对于想要隐瞒身份的人是利好的。但不会总是如此。如果这时仅仅通过权衡自身利弊得失的概率,来决定是否公开身份,则显然称不上一个「善举」。