俄亥俄州立大学最近的一项研究显示,当人们得知朋友使用人工智能或其他人帮助他们制作信息时,他们对自己的关系感到不太满意。该研究强调了个人努力在维持人际关系中的重要性,表明依赖人工智能或其他工具可以被视为走捷径。
最近的研究表明,利用人工智能工具给朋友写信息可能不是最好的选择,尤其是当朋友知道人工智能的参与时。研究显示,参与者认为,与手动制作信息的人相比,使用人工智能制作信息的虚拟朋友在努力方面显得不那么真诚。
该研究的主要作者、俄亥俄州立大学(the Ohio State University)传播学助理教授刘炳杰(Bingjie Liu)表示,这种看法可能是可以理解的,但其含义超出了信息的内容。
刘说:“在收到人工智能辅助信息后,人们对自己与朋友的关系感到不太满意,对自己的立场感到更不确定。”
但公平地说,让人们反感的不仅仅是技术的使用。该研究还发现,当人们得知他们的朋友从另一个人那里得到帮助来写信息时,会产生负面影响。
刘说:“人们希望他们的伴侣或朋友在没有人工智能或其他人帮助的情况下,自己努力想出自己的信息。”
这项研究最近在线发表在《社会与个人关系杂志》上。
刘说,随着像ChatGPT这样的人工智能聊天机器人越来越受欢迎,如何使用它们的问题将变得更加相关和复杂。
这项研究涉及208名在线参与的成年人。参与者被告知,他们和一个叫泰勒的人是多年的好朋友。研究人员给了他们三种情况中的一种:他们正在经历倦怠,需要支持;他们与同事发生冲突,需要建议;或者他们的生日快到了。
然后,参与者被要求在电脑屏幕上的一个文本框里给泰勒写一条短信,描述自己的现状。
所有参与者都被告知泰勒给他们发了回复。在这些场景中,泰勒写了一个初稿。一些参与者被告知泰勒有一个人工智能系统来帮助修改信息以达到适当的语气,另一些人被告知一个写作社区的成员帮助修改,第三组被告知泰勒对信息进行了所有的编辑。
在每一种情况下,参与研究的人都被告知泰勒的回复是相同的,包括它是“深思熟虑的”。尽管如此,研究参与者对他们从泰勒那里收到的信息有不同的看法。那些收到人工智能帮助回复的人认为泰勒的行为比那些只收到泰勒写的回复的人更不合适,更不恰当。
人工智能的回答也让参与者对他们的关系表达了更低的满意度,比如在满足“我作为亲密朋友的需求”这一点上,对泰勒的评价更低。
此外,如果接受人工智能辅助的回答,研究中的人们对自己与泰勒的关系更加不确定,对“泰勒喜欢我作为亲密朋友”这句话的确定度更低。
人们不喜欢人工智能辅助回复的一个可能原因是,人们认为使用技术不合适,在编写这样的个人信息时不如人类。
但结果显示,当泰勒让另一个人——一个在线写作社区的成员——来帮忙传递信息时,人们的反应同样消极。
刘说:“我们发现,人们认为朋友不应该使用任何第三方——人工智能或其他人——来帮助维持他们的关系。”
研究发现,原因是参与者觉得泰勒依靠人工智能或其他人帮助撰写信息,在他们的关系上花费的精力更少。
参与者对泰勒使用人工智能或其他人的努力评价越低,他们对他们的关系就越不满意,他们对这段友谊的不确定性就越大。
“努力在一段关系中是非常重要的,”刘说。“人们想知道你愿意在友谊中投入多少,如果他们觉得你用人工智能来帮助他们走捷径,那就不好了。”
当然,大多数人不会告诉朋友他们使用人工智能来帮助制作信息,刘说。但她指出,随着ChatGPT和其他服务越来越受欢迎,人们在阅读朋友和其他人的信息时,可能会开始在脑海中进行图灵测试。
“图灵测试”这个短语有时被用来指人们想知道他们是否能分辨出一个动作是由计算机还是人执行的。
刘说:“人们可能会偷偷地在脑海中做图灵测试,试图弄清楚信息是否含有一些人工智能成分。”“这可能会伤害人际关系。”
她说,答案是在人际关系中做好自己的工作。
“不要仅仅因为方便而使用技术。真诚和真实在人际关系中仍然很重要。”
参考文献:“人工智能和关系维持中的感知努力:对关系满意度和不确定性的影响”,刘炳杰,康瑾,魏乐文,2023年7月18日,《社会与个人关系杂志》。DOI: 10.1177 / 02654075231189899
刘与加拿大卡尔顿大学的康瑾和澳大利亚新南威尔士大学的魏勒文共同进行了这项研究。