谷歌高管普拉巴卡尔·拉加万的这个提醒实际上也是当下业内很多分析人士对生成式人工智能的一个担忧,不用说匆匆上马之后一上来就回答错问题的Brad,就连ChatGPT,也已经被人证实,在学术界人士向其查阅一些文献的时候,ChatGPT有时候会胡编乱造。这或许给未来ChatGPT的应用带来一定隐忧。我们之前使用普通搜索引擎的时候,还能从不同的结果对照下找出正确答案,但是如果以后ChatGPT代替了搜索引擎,我们可能都没有办法证实其是不是在说谎。
在谷歌最新推出的聊天机器人Bard意外“翻车”并导致股价大跌后,美东时间周六,该公司搜索引擎高管在接受媒体采访时表示,要警惕聊天机器人中人工智能的陷阱。
谷歌高官警告:AI有时会产生错觉
谷歌高级副总裁兼谷歌Search负责人普拉巴卡尔·拉加万(Prabhakar Raghavan)在接受采访时表示:
“我们现在谈论的这种人工智能,有时会导致出现某种我们所谓的错觉(hallucination)……机器会以一种令人信服但完全编造的方式来表达自己。”
他补充说,目前人工智能行业的基本任务之一,就是将这种情况控制在最低限度。
谷歌推出的聊天机器人Bard上周的意外“翻车”,或许正是拉加万所说的“错觉”的最佳体现。
自去年11月以来,初创公司OpenAI开发的人工智能聊天机器人ChatGPT一经推出便爆红全球,并带动一众人工智能概念股大涨。
或许是为了赶上这股热潮,谷歌公司也在上周三举办“Google presents : Live from Paris””大会,以展现其开发的与ChatGPT对标的竞品——人工智能聊天机器人Bard。
然而在展示会上,Bard却意外“翻车”:在回答“如何向9岁小孩介绍詹姆斯·韦伯空间望远镜成果”时,提到该望远镜拍摄到首张地球外行星的照片,但这一成就实际上是智利甚大望远镜在2004年达成的。
由于在演示视频中Bard展现了错误信息,谷歌股价当天直线下跌超7%,创下去年10月26日以来最大日跌幅,谷歌市值也在一夜之间蒸发了1000亿美元。
聊天机器人的通病
事实上,“无法保证信息准确性”可能是当前聊天机器人普遍的弊端,哪怕是备受热捧的ChatGPT也不能幸免。
最近在社交媒体平台上,已经有不少人抱怨ChatGPT有时会犯一些明显的错误,比如无法解决简单的数学方程式或逻辑问题。
就连苹果联合创始人Steve Wozniak也警告称,虽然ChatGPT表现令人印象深刻,但“它也会因为不了解人性而犯下可怕的错误”。
在“翻车”导致市值大跌后,谷歌公司已经声称,仍在对Bard进行用户测试,尚未表明该款应用程序何时上市。
“我们显然感到了紧迫性,但我们也感到了巨大的责任,”拉加万说,“我们当然不想误导公众。”