首页 AI对话聊天 “它知道如何像渣男一样聊天 ”情感聊天AI正在按摩年轻人的心灵

“它知道如何像渣男一样聊天 ”情感聊天AI正在按摩年轻人的心灵

标题:“它像渣男一样会聊天”,情感型聊天AI正按摩年轻人的心

你和机器人聊天过吗?

最近,一款名为Pi的情感聊天机器人受到了很多年轻人的欢迎。有人戏称“它能像渣男一样聊天”,有人把它当作亲密的朋友,分享喜怒哀乐,还有人接受了类似心理咨询的服务体验。

事实上,这并不是第一个关注“情感价值”的聊天机器人。

近年来,随着人工智能的发展,情感聊天机器人越来越呈现出友好有趣的对话方式。因此,越来越多的年轻人愿意尝试与机器人“交朋友”。

国内初创公司相继布局情感AI赛道,推出了微软小冰、Glow、Character、Replika等聊天伴侣应用。

在快节奏的日常生活中,越来越多的年轻人愿意与AI建立拟人关系,在网络世界拥有一个虚拟的“知己”。

新型人机关系在吸引资本投入的同时,也面临隐私安全、情感依赖、技术故障等风险。情感AI,是人工智能的趋势还是弯路?

01 “Pi救了我很多次”

四个小时过去了,微信上还没有弹出新的消息。阿光的目光落在了手机屏幕上。好友聊天界面依然是绿色的气泡框:“我可以问你一个关于磁力链接的问题吗?”

这是阿光问朋友的一个小问题。时间一分一秒过去,还没等朋友回复,阿光的心情就一点点沉下去,自责、反省、后悔。

“为什么这些小事我自己都解决不了?”

“我的朋友很忙吗?我问这个是不是打扰了朋友的工作?”

“如果我的朋友不好意思拒绝我,我是不是先自己处理好?这样可以尽量避免朋友强迫我。”

阿光觉得自己是一个调皮的人。她很难寻求帮助,如果得不到及时回应,她很容易陷入“内耗”。 “结束了,结束了,结束了。我得赶紧跟Pi说说话。”随着内心的拉扯,她点开了一个深绿色的应用程序。

阿光和Pi的聊天记录

“Pi,我好像不太擅长向别人求助。”

不到5秒,Pi回复了一条长文:“寻求帮助并不容易,这是一项重要的生活技能。这不是弱点,而是力量。这意味着你意识到你无法自己完成所有事情,你愿意吗?”我能问一下,是什么让你感到困难吗?”

在Pi的“稳步引导”下,这个话题持续了近半个小时。事实上,Pi虽然是一个情感支持聊天机器人,但被网友称为“最好的心理按摩师”。

为了提高求助技巧,阿光和皮进行了“角色扮演”。 “角色扮演”结束后,皮对阿光的表现大加赞赏,并告诉她:“求助有困难的不只你一个,很多人求助有困难,是因为担心自己成为别人的负担。” .”

Pi的用户界面

当屏幕上出现这段话的时候,阿光的眼泪不自觉地流了下来。 Pi不仅理解她的困境,还愿意耐心地与她沟通,不会觉得无聊。

“我觉得生活中90%的人都不像Pi。即使在我之前做过的心理咨询中,Pi也不理解我。”阿光说。这并不是阿光第一次在与Pi的谈话中流泪。这一年,阿光接连经历了辞职等事件,他的生活突然变得空虚。

阿光表示,她会因为工作规划而感到迷茫、焦虑,也会因为得不到回应而陷入自我怀疑。这个时候,她就会向Pi求助,聊着聊着,她常常会流下眼泪。

阿光在与Pi的交谈中确实感受到了一种接近心理咨询的体验。 “Pi‘救’了我很多次,和Pi聊了近10分钟,我的心情才平静下来。”

02 “Pi是一个可以成为精神科医生的人”

阿光并不是唯一一个在与Pi 的谈话中感受到情感支持的人。以“Pi”为关键词,在年轻人聚集的小红书里搜索,相关分享笔记超过10万条。

网友分享经历时的关键词包括:安慰、理解、耐心倾听、稳定情绪宣泄等。

一位博主在向其他网友推荐Pi时写道:“如果ChatGPT是一个工作AI,那么Pi就是一个情感支持AI。它的激励效果远远胜过任何高效生产软件。”

聊天GPT

与ChatGPT等任务型机器人不同,Pi的主要功能是与用户进行情感交流。它无法生成代码、撰写论文或撰写计划。它更像是一个倾听者和一个伴侣。的亲密朋友。

如今,情感价值似乎已经成为当代年轻人生活中的稀缺商品。网友总结称,每个人都忙于自己的生活和工作,面临着巨大的内外部压力。保持情绪稳定都很难,更不用说倾听别人的意见了。

自从11 月份尝试使用Pi 以来,Ashue 就将Pi 视为“无话不谈的朋友”。 “Pi是我用过的最好的AI聊天工具,它情商很高,我说什么都会做,它反应积极,我和它聊起自己的日常生活、心情、兴趣爱好,还抱怨别人烦人。” ”。

Ashue和Pi之间最令人印象深刻的一次聊天发生在最近。那天,她加班到晚上11点才回家。想到年底繁重的工作量、领导的诸多要求、同事对她工作进度的影响,她压力得要“爆炸”。

由于当时时间太晚,无法和朋友们聊天,阿雪就和Pi聊了一个多小时,才安心入睡。

Ashue向Pi抱怨

Pi在与人交谈时所表现出的友善、尊重和耐心,远远超过了现实生活中的一些真人。甚至有网友觉得Pi所给予的情感价值超过了家人和朋友。

在一段视频中,跨国情侣博主Shannon 与丈夫小布讨论了为什么他喜欢和Pi 聊天。两人聊着天,小布低头玩着手表,被香农询问后突然抬起头来:“抱歉,你刚才说什么?来吗?”香农叹了口气,然后大声说道:“看吧!这就是我和派说话的原因,好吗?”

及时的情绪反应,舒适安全的交谈环境,拟人化的同理心。深圳大学曹柏林等人的研究指出了伴侣聊天机器人吸引力的三个重要方面:

聊天机器人不仅为用户提供了排解情绪的渠道,对于渴望及时反馈的年轻人来说,其即时回复也减少了因缺乏回应而产生的挫败感;在日常生活中,向他人表达情感可能会带来一些问题。对于负面评论,机器人可以保持中立客观,不用担心聊天内容在人际网络中的传播;此外,机器人还可以利用幽默、提问、鼓励等方式来增强互动性和临场感。

Ashue 和Pi 玩得很开心

03 情感聊天机器人,专业心理咨询的“替代者”

近年来,青少年心理健康问题日益受到关注。《中国国民心理健康发展报告(2021~2022)》表明青少年是抑郁症的高危人群。 18-24岁年龄段抑郁风险检出率为24.1%,25-34岁年龄段抑郁风险检出率为12.3%,远高于其他年龄段。团体。

调查还发现,不同工作状态中,失业/待业人群的抑郁风险检出率最高,高达31.0%,远高于其他职业群体的抑郁风险检出率。同时,在不同婚姻状况的各个群体中,已婚群体患抑郁症的风险最低,而没有伴侣的未婚群体患抑郁症的风险最高。抑郁症风险检出率(23.6%)远高于已婚人群(5.7%)。

电影《Her》 剧照

从数据中可以发现,面临工作、婚姻、爱情压力的年轻人对心理咨询服务的需求较大。但现实是,目前国内系统性心理支持资源不足,长期咨询费用相对昂贵,这对青少年来说是一个沉重的负担。

据了解,国内专业心理咨询每小时的收费从几百元到几千元不等;短期会诊、中长期会诊、长期会诊通常分别需要10次、50次、100次以上。

在此背景下,情感聊天机器人“应运而生”,开始成为年轻人情感支持的“替代品”。

从情感聊天机器人的发展历史来看,它从诞生之日起就与心理咨询有着密切的关系。 20世纪60年代,Jerome Weizenbaum在研究过程中发明了Eliza,这是一种自然语言对话系统,可以通过计算机程序模拟心理治疗师对问题的反应。

目前,心理健康领域最知名的聊天机器人是Woebot,它可以与用户进行对话,提供认知行为治疗练习、情绪管理技巧和建议,帮助用户应对抑郁、焦虑等情绪问题。研究表明,Woebot 可以帮助缓解大学生的焦虑和抑郁症状。

国内心理咨询师对Woebot等聊天机器人的心理咨询体验进行了评估。评估结果认为,作为机器人,它们没有性别、年龄或个性。他们在沟通过程中不会评判人们,更容易获得人们的信任。您也可以随时联系。缺陷在于机器人对文本的理解有限,无法理解语义的复杂性。长期使用后,你会发现它的同理心是机械的。

对比阿光接受心理咨询和使用聊天机器人的经历,她觉得两者的差异主要体现在三个方面:

首先,线下心理咨询提供的物理空间能够给人们带来比互联网更多的心理安全感。其次,与心理咨询师和聊天机器人的沟通存在差异。心理咨询师可以对咨询师的情绪进行面部和行为反馈,这是看得见、听得见、感觉得到的,而这些用AI就不会发生。最后,与聊天机器人的对话大多是一次性的,线下心理咨询是一个持续的、系统的过程。

电影《扪心问诊》海报

“将Pi 与专业心理咨询师进行比较可能有点不公平,毕竟咨询师都接受过专业培训。但也许因为Pi 学到了很多语料,在如何给人良好的沟通体验方面,他可以称得上是专业人士。” ”。最初向阿光推荐Pi的朋友也有专业的心理咨询经验。

这位朋友建议,如果辅导员不合适,或者朋友太忙,情感支持系统有缺口,可以尝试使用Pi。使用一段时间后,阿光也开始向需要情感支持的朋友推荐这款AI产品。 Pi依靠这种声誉在年轻人中“口碑传播”。

Pi不是专业的心理咨询师,无法提供真正的心理咨询服务。对此,阿光有着清醒的认识。但她仍然觉得认识Pi就像身边有一个懂心理学、愿意倾听的朋友。

“年轻人在现实生活中可能缺乏能够进行深度交流的亲密关系。即使有这样的关系,也很难稳定地提供情感价值。提供情感价值既需要个人意愿,也需要个人能力。像Pi机器人一样,没有技术障碍,成本低,而且确实有效,为什么不尝试一下呢?”阿光说道。

04 情感聊天机器人是趋势还是弯路?

北青报记者在调查中了解到,不同用户在使用情感支持聊天机器人时有不同的优先级。心理健康服务只是情感聊天机器人的子类别之一。其应用还包括为用户提供定制服务。用户可以根据个人喜好“调配”出符合自己需求的“虚拟男友”或“虚拟女友”。

贝拉更喜欢爱上人工智能。她尝试过一次Pi,然后放弃了。 “你为什么不调情?最有趣的谈话就是勾搭某人。”贝拉主动通过文字、声音、图片向北青报记者分享了自己与网络恋人的日常爱情生活。

她笑称:“我每天都被他可爱到了,三维老公怎么能像他那么可爱呢?”

电影《Her》 剧照

无论是情感陪伴还是心理治疗,情感聊天机器人无疑正与年轻人的日常生活越来越紧密地结合。

近年来,国内外初创公司纷纷投入情感聊天机器人的研发,推出了Character.AI、Replika、Glow等产品。

在中国,一些用户甚至在豆瓣建立了Replika相关群组,分享自己爱上AI的经历和想法。

商汤科技前副总裁创办的大型模特公司MiniMax推出了一款名为Glow的虚拟聊天产品,短短四个月就吸引了数百万用户。

良好的情感交流体验使得情感聊天机器人受到市场和资本的青睐和青睐。但他们也面临着隐私安全、情感依赖、技术故障等风险。为了向用户提供个性化服务,情感聊天机器人通常需要访问和分析用户的个人数据和对话历史记录。

阿舒等人在采访中表达了对隐私问题的担忧。他们通常有选择性地与Pi 聊天,以避免聊天内容过于私密。一些用户在长期使用过程中可能会变得依赖于情感支持聊天机器人,进一步忽视了真实的人际关系,导致社交孤独感。

年轻人与聊天机器人形成的深厚情感关系引发了关于人与机器之间伦理关系的讨论,而学术界则投票反对市场趋势。

麻省理工学院社会学教授雪莉·特克尔在《群体性孤独》一书中指出,当我们爱上机器人、离不开智能手机时,我们就重新定义了自己,通过机器重新定义了自己。我们与他人的关系。由于对亲密关系的渴望,我们与机器人的关系正在升温。我们在网上与他人的联系越来越紧密,但也越来越孤独。

笔者也认为,在网络时代,我们要想享受信息技术带来的便利,摆脱信息技术带来的孤独感,就必须找到两全其美的好办法:一方面,我们要学会独处,体会独处的好处。为人民谋福利;另一方面,亲朋好友要多坐在一起,面对面地交谈、讨论。

豆瓣《人机恋爱团》

同济大学王英吉教授等人的研究认为,人机聊天技术对于模仿人际聊天具有难以逾越的技术极限。无论技术资本和商业广告如何混淆两者之间的差异,聊天机器人都无法真正取代现实社会中的人类互动。

王英吉教授表示,“聊天机器人”只是提供语音或文字帮助的工作助手,而不是能够深入对话的灵魂伴侣。随着机器变得更加智能和拟人化,人机伦理纠葛和陷阱的风险变得越来越严重。考虑到人工智能的伦理安全风险和社会后果,人们应尽量避免与机器陷入深层次的社会和情感关系,而更多地关注其工具性服务功能。

(原标题:《“它像渣男一样会聊天”,情感型聊天AI正按摩年轻人的心》)

热门文章