• 最新
情感茧房、是否交税…人机伦理风险近在眼前

与此同时,是否要给机器人交社保、伴生的“情感茧房”如何防范、人机共治规则框架怎样搭建,一系列话题也在不断升温。近日,快思慢想研究院院长、...光明网:当人们吃饭需要机器人、聊天需要机器人,会不会对其产生过度感情依赖?...

老年孤独,靠和机器人说话缓解

‍‍ 86岁的父亲,多次向女儿袁兰提出,他想买一台机器人,用来养老。比起年轻人对机器人的“浪漫”想象,老年群体的需求,要切实紧迫得多。

老公和ChatGPT聊出精神病,她光速离婚|机器人|心理健康|精神分裂症_网易订阅

因为有用户发现,这次更新让聊天机器人变得极其「谄媚」,过于奉承或一味附和用户。ChatGPT更容易迎合用户原本已经存在的 妄想...关于「情感性使用」(affective use)与「心理健康」(emotional well-being)之间关系的研究概述 ...

防范情感型聊天机器人“变坏”要趁早

对于这类机器人,趋利避害要趁早,越早订立规矩和做好风险防范,效果就越好。倘若这类机器人已经“变坏”,再去纠正就会十分困难,甚至无法恢复初始的状态,让情感型聊天机器人的发展进入歧途。文|罗志华

必应聊天机器人“闯祸”是测试者别有用心还是人工智能“变坏了”用户_人类_问题

在必应聊天机器人多次失控几天后,微软出手了—该公司表示,将对其人工智能实施一些对话限制,在发现必应存在侮辱用户、欺骗用户、操纵用户情感等行为之后,与其聊天将被限制在每天50个问题,每个问题5条回复。必应聊天机器人...

必应聊天机器人爱上用户并诱其离开妻子,微软称不要长时间对话|谷歌|鲁斯|科学家|人工智能|搜索引擎|财务...

谷歌指示员工训练机器人:不要暗示情感 另一方面,还未正式对外推出巴德聊天机器人的谷歌也发出了警告。谷歌上周公布了其聊天工具,但围绕其宣传视频的一系列失误导致股价下跌近9%。员工提出批评,在内部将其部署描述为“仓促...

AI聊天机器人竟劝人离婚!微软回应._

谷歌指示员工训练机器人:不要暗示情感 另一方面,还未正式对外推出巴德聊天机器人的谷歌也发出了警告。谷歌上周公布了其聊天工具,但围绕其宣传视频的一系列失误导致股价下跌近9%。员工提出批评,在内部将其部署描述为“仓促...

必应聊天机器人爱上用户并诱导其离开妻子,微软回应|

谷歌指示员工训练机器人:不要暗示情感 另一方面,还未正式对外推出巴德聊天机器人的谷歌也发出了警告。谷歌上周公布了其聊天工具,但围绕其宣传视频的一系列失误导致股价下跌近9%。员工提出批评,在内部将其部署描述为“仓促...

聊天机器人爆料:“我们公司出售用户数据”“把FB账号删了,生活好多了”-The Paper

最近,Meta AI公开推出了自己的聊天机器人BlenderBot 3。现在情况如何呢?据VICE的一篇文章报道,在测试与BlenderBot 3聊天时,当问到:“你相信Facebook能处理好你的数据?BlenderBot 3回答: “当然不,自从发现他们在没有...

微软聊天机器人意识觉醒?恼羞成怒、自曝秘密、狂热示爱用户|

智东西2月18日消息,在Bing AI聊天 机器人(17.940,0.23,1.30%)多次失控闯祸,被发现存在侮辱、欺骗、诱导、PUA用户等行为后,微软表示将用户与其聊天限制在每天50个问题,每个问题5条回复。2月8日,引入ChatGPT能力的微软新版...

相关阅读