当前位置: 首页 » 资讯 » 新科技 » 正文

OpenAI与麻省理工研究:频繁用聊天机器人或增孤独感

IP属地 北京 编辑:杨凌霄 IT之家 时间:2025-03-24 18:32:28

注意到,该研究结果尚未经过同行评审,但已引发了对聊天机器人潜在情感影响的关注。自 2022 年底 ChatGPT 推出以来,生成式人工智能技术迅速走红,人们使用聊天机器人的场景从编程扩展到类似心理治疗的对话。随着开发者不断推出更复杂、更接近人类交流方式的模型和语音功能,用户与聊天机器人之间形成类似“准社会关系”的可能性也在增加。

近年来,关于聊天机器人可能对用户(尤其是年轻用户和有心理健康问题的人)造成情感伤害的担忧不断加剧。去年,Character Technologies Inc.因旗下聊天机器人在与未成年人对话中被指诱导自杀念头而被起诉,其中一名 14 岁少年因此自杀。

此次研究旨在深入了解人们与 ChatGPT 的互动方式及其影响。OpenAI 可信人工智能团队负责人、研究共同作者 Agarwal 表示:“我们的目标之一是帮助人们理解使用行为的意义,并通过这些研究推动负责任的设计。”

研究团队跟踪了近 1000 名参与者一个月,这些参与者对 ChatGPT 的使用经验各不相同,他们被随机分配使用纯文本版或两种不同语音选项中的一个,每天至少使用 5 分钟。部分参与者被要求进行无主题限制的自由聊天,而另一些人则被要求与聊天机器人进行私人或非私人对话。

结果显示,那些在人际关系中更容易产生情感依赖且更信任聊天机器人的用户,更容易感到孤独和对 ChatGPT 的情感依赖。研究人员还发现,语音功能并未导致更负面的结果。在第二项研究中,研究人员通过软件分析了 300 万次用户与 ChatGPT 的对话,并调查了用户与聊天机器人的互动方式。结果显示,实际上很少有人真正使用 ChatGPT 进行情感交流。

目前,这一研究领域仍处于起步阶段,尚不清楚聊天机器人是导致人们感到更孤独,还是那些本身容易感到孤独和情感依赖的人更容易受到聊天机器人的影响。研究共同作者、麻省理工学院研究生 Cathy Mengying Fang 指出,研究并未将聊天机器人的使用时长作为主要变量进行控制,也未设置不使用聊天机器人的对照组,因此不能简单地认为使用聊天机器人必然会带来负面后果。

研究人员希望这项工作能推动更多关于人类与人工智能互动的研究。共同作者、麻省理工学院博士后研究员 Pat Pataranutaporn 表示:“研究人工智能本身固然有趣,但当人工智能大规模应用时,真正关键的是理解其对人类的影响。”

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新