(资料图)
早些时候,微软开启了ChatGPT版Bing的公开测试,但有用户发现,新版Bing在部分情况下会出现侮辱用户、撒谎等行为,甚至会试图引导用户的情绪。
目前,微软对这一情况做出了回应。
微软表示,将根据反馈采取行动,优化回答的语气以及准确性;同时,官方也承认,较长时间的连续对话,很可能会导致新版Bing"翻车"。
Bing团队表示,他们并没能预料到,会有用户使用新版Bing的聊天界面与AI进行社交娱乐,或是将其作为一种发现世界的工具。
因此,在实际使用中,如果聊天会话持续15个或更多的问题,新版必应的模型会感到困惑,且较长的聊天也会让Bing变得翻来覆去,或者受到刺激,做出不一定有帮助,或是与设计语气不一致的回应。
不过,虽然在长时间对话上新版Bing仍存在缺陷,但整体来说,大部分用户仍然给出了正面的反馈,对于一款尚在开发测试阶段的产品,这已经算得上是一个较为理想的评价了。