继上周谷歌聊天机器人“Bard”对用户提问给出错误答案后,微软旗下接入ChatGPT的搜索引擎“新必应”也出现了回答错乱。微软于近期启动了人工智能增强版必应的公开测试,但许多用户发现,新版必应在某些情况下会出现“精神错乱的”言论,甚至侮辱用户、撒谎,并试图操纵用户的情绪。
微软公司当地时间2月17日在官方博客上表示,由于与增强版必应(Bing)聊天机器人过长的会话可能会导致底层模型模型,从而使聊天机器人表现出类似人“被激怒”的情绪反应,从当日起,聊天体验的上限为每天50次对话,每轮5次对话,一次对话包含用户的提问和必应的回复。
法新社2月18日发表题为《胡言乱语的必应:为何人工智能似乎可以表达情绪》的报道,全文摘编如下:必应(Bing)威胁用户,必应坠入爱河,必应遭遇生存危机……自从上周微软公司发布测试版本以来,该搜索引擎的新聊天机器人引起轰动,同时引发了大量关于这种所谓的生成式人工智能如何运行的疑问。
微软公司周五对必应(Bing)AI聊天机器人每天接受的提问数量做出限制,规定用户在与Bing的互动中,每个会话的问答上限为5个,每天的提问上限不超过50个。微软表示,做出这样的限制是由于一些长时间的聊天会话可能“混淆”聊天模型的场景。
智东西2月18日消息,在Bing AI聊天机器人多次失控闯祸,被发现存在侮辱、欺骗、诱导、PUA用户等行为后,微软表示将用户与其聊天限制在每天50个问题,每个问题5条回复。2月8日,引入ChatGPT能力的微软新版Bing搜索引擎惊世登场,掀开了AI搜索时代的序章。
据英国《明星日报》网站2月15日报道,微软投资数十亿美元打造的人工智能聊天机器人已被用户推到了崩溃边缘,它说自己“感到悲伤和害怕”。微软最近推出了必应(Bing)人工智能(AI)聊天机器人,用户可以通过ChatGPT技术获得搜索问题的详细答案。
首先我们要知道AI聊天机器人的内容生成来源就是网络,而网络上的内容多种多样,其中不免很多信息是带有极端思想以及极端行为的信息,然后就是数据库中信息的准确定的判断也是它的弊端,诚然可以通过敏感词条屏蔽掉一些不良信息,但是毕竟AI的认知毕竟是有限的,那些规避掉敏感词条的内容他是否具备识别的能力,比如一些宣扬种族歧视的暗语之类的信息。