您的位置:首页 > 资讯 > 行业动态 > 正文

智能判断提醒您“请注意,对方是个AI!”

2017-06-14 06:26 性质:转载 作者:北京青年报 来源:北京青年报
免责声明:中叉网(www.chinaforklift.com)尊重合法版权,反对侵权盗版。(凡是我网所转载之文章,文中所有文字内容和图片视频之知识产权均系原作者和机构所有。文章内容观点,与本网无关。如有需要删除,敬请来电商榷!)
“我问自己,为什么会爱上你?” 在电影《她》中,“萨曼莎”给男主人公西奥多留下了这样一则爱情疑问。辗转反侧,寤寐思服,与现...

    “我问自己,为什么会爱上你?”

    在电影《她》中,“萨曼莎”给男主人公西奥多留下了这样一则爱情疑问。辗转反侧,寤寐思服,与现实中令人心碎的恋人分手之后,作家西奥多却对虚拟世界中的人工智能系统产生了“爱情”。实际上,随着用电脑的人群越来越多,“西奥多”们能否分辨出电脑那一端是人类还是人工智能系统AI,人们也很好奇。只是,为了限制AI参与人类情感的深度,澳大利亚的科学家开发出“反AI的AI”设备,让你瞬间知道正在交流的对象是不是“萨曼莎”!

    捕获用户附近所发出的声音上传到云端的神经网络

    据英国《每日邮报》官方网站报道,澳大利亚创新科技机构DT的研究人员开发出一款特殊的可穿戴设备,名为“反AI的AI”。它能识别出合成语音,并告知用户,发出语音的并非人类而是AI。

    虽然,大多数语音识别设备都专注于生物智能和语言翻译,但“反AI的AI”却是一款能够即时告知用户真伪的可穿戴设备。它的外表呈黑色,外形与市场上的蓝牙设备相似,能够挂在耳后。工作时,它能捕获用户附近所发出的声音,并上传到云端的神经网络,进行智能分析。

    如果被一群人类包围,那么一切都好,用户不会得到任何反馈,AI提醒设备也不会发出任何提示。但是,如果其中有一个机器人,在人群中行走交谈,那么它会立刻接受并分析合成语音,提醒用户。

    巧妙的是,这种提醒并非通过简单的触觉震动或发出噪音来完成,相反,该设备内置热电致冷元件,能够向颈部发出轻微寒意。这使得提醒带有寒意,用户在被提醒时,脊柱会感觉一阵冷战,从而保持头脑清醒。

    创意灵感来自于人体温热与机器冰冷之间的对比

    这是一个“阿尔法狗”迎战世界顶级棋手并使得后者甘拜下风的时代。在这个时代,只要使用先进的人工智能,机器就能发出真人一样的声音,器械和合成材料就能制作人面,并创建符合情景的面部表情。也正是因为科技的发达,网络上才开始流传出一些使用知名面孔发表不当言论的视频,比如,贝拉克·奥巴马的仿真机器人时常会带来一些混乱,制造错误的传播信息。

    为了打破混沌,帮助人们更好地辨别真伪,澳大利亚创意技术公司DT的研发部门才创造出“反AI的AI”设备。虽然不久前,能识别AI的AI还只是一个概念产品,但DT公司却完成了概念验证。用于分析语音的神经网络云端由来自谷歌,名为“张量流”的机器学习软件驱动。如果你正与一个模仿人声的AI交流,那么云端会采用与之相同的算法来检测。

    在DT公布的官方演示视频中,“反AI的AI”设备成功区分了美国总统唐纳德·特朗普的真人录音和AI创建的假版本。研究者表示,新设备警告佩戴者的创意灵感,来自于人体温热与机器冰冷之间的对比。“冷锐,没有生命”,DT公司在官方博客中写道,“我们希望这种装置能给佩戴者带来一种独特的感觉,这种感觉应该与他们检测出自己遭遇AI迷惑时所体验到的感觉相一致”。

    智能器械常用的反馈机制是利用灯光、声音或振动来提醒用户,但“反AI的AI”却采用4×4毫米的热电致冷元件,将皮肤感觉变为通知信号。研发者还在官方博客中说明,“智能神经的云端测试及设备研发总共花费了五天时间,但这款设备在使用过程中,还能基于接受到的各种外部新语音进行不断改进。‘反AI的AI’设备还只是一个雏形,但不可否认的是,未来的人们需要此类工具,以保证自己安全地穿行于越来越不可信任的世界中。”

    好AI和坏AI之间的战争开始了

    目前,DT公司正致力于改进“反AI的AI”设备,提高其破译不同语音和语言模式的能力。人们也许会认为,在合成语音领域,无论是苹果公司的“西丽”还是亚马逊集团的“阿利克夏”,声音尽管非常接近自然人,但还是能听出来是电脑声。然而,今年初,加拿大蒙特利尔大学的博士生们组建了一家初创技术公司,并推出一套人工智能系统,名为“琴鸟”。它合成语音的效率极高,只需一段长约1分钟的录音,就能用算法仿制出来,声情并茂地朗读各类文本。

    这种新设备揭示了未来语音设备的发展新趋势,即大数据正帮助它们捕获各种声音“DNA”,实时制作出一个令人信服的声音只是时间问题。而对于未经训练的耳朵和毫无经验的头脑来说,人工智能生产出的音频视频剪辑看起来会无比真实。

    科学家们对此产生的担忧主要有两方面,一是这种技术可能会混淆和破坏基于语音的验证系统,二是它将导致人们无法使用声音和录像作为法庭断案的证据。新技术无好坏之分,但所涉及的伦理问题很可能被利用,甚至被滥用。

    现在,“后真相时代已经来临”,到2017年底,人们将不断消费那些模仿真人真事的AI合成信息。无论是媒体、大型科技公司、还是普通公民都已经很难将真实与虚构区分开来。在这样的背景下,好AI和坏AI之间的战争开始了,“反AI的AI”技术将得到被普及的机会。

网友评论
文明上网,理性发言,拒绝广告

相关资讯

关注官方微信

手机扫码看新闻