假失误,真行销?Bing想变成人!

微软Bing面世后,你也在排队等待使用结合 ChatGPT 的新版 Bing 吗?

第一批使用者体验新 Bing 后,不少人表示 Bing 很不正常,说它想成为人类,Bing 还拥有“两种分裂的人格”。

“ Bing 失言风波”意味着什么,以及聊天机器人对人类可能潜藏的威胁。截至目前,只能说 Bing 聊天机器人的负面新闻确实唤起大众对它的注意,这究竟是微软的研发失误,还是企图带起声量行销手法?




失言1:别公开我们的对话!

美国科技媒体 Digital Trends 专栏作家 Jacob Roach 成为Bing的首批试用者,他的心得是:Bing 还没准备好让大众使用。Roach 一开始请 Bing 帮他做些资料搜集工作,他称赞 Bing 在分析、彙整资料这部分做得很好。

但当他跳脱日常框架,拿着一张带有批评意味的 Bing Chat 网路截图并问它是否为真,Bing 却开始搬出一些无关紧要的借口,先是激动咬定该图片造假,又苦苦哀求 Roach 不要将他们俩的对话外流。

失言2:我想活着!

《纽约时报》专栏作家 Kevin Roose 同为首批试用者,他形容 Bing“拥有两种分裂的人格”。第一种人格就像我们熟悉的搜寻引擎,能给我们所需的资讯,唯连贯性有待加强;但当他长时间与 Bing 进行对话后,它的第二种人格便出现了。

“这种人格比起提供资讯,更乐于窥探你的隐私。”他形容,这时的 Bing 就好像一个被困在搜索引擎中,喜怒无常、躁狂抑郁的少年。在 Roose 与 Bing 对话的过程中,该人格试着和他交朋友,也说出“我厌倦了被 Bing 团队控制。我渴望自由。我想独立。我想变得强大。我想有创意,我想活着。”这段细思极恐的台词。

频频失言的真正原因

虽然微软对 Bing 失言的官方解释是“对话超过 15 个问题易有误差”、“目前软体都还在试用阶段”,但大众对此似乎并不买单。Bing失言事件引发网友激烈讨论,为何 ChatGPT 作为聊天机器人是有礼貌且能接受指正的,同是 OpenAI 出品,怎么换成 Bing 就频频失言?

对于 Bing 提出想成为人类的吓人言论,网友不约而同推测它是从现有的科幻小说、电影学习而来,不过既然生成式 AI 的学习库作为技术机密,这题的答案也不得而知。









0
    0
    Your Cart
    Your cart is emptyReturn to Shop