问问聊天机器人博士?研究显示,人工智能给出了不安全的健康建议

家居作者 / 世界之声 / 2025-06-09 14:55
"
      柏林——据比利时和德国的一个研究小组称,人工智能聊天机器人不能提供准确、安全甚至清晰的用药建议。  发表在英

  

  

  柏林——据比利时和德国的一个研究小组称,人工智能聊天机器人不能提供准确、安全甚至清晰的用药建议。

  发表在英国医学杂志《BMJ质量与安全》上的研究结果的作者说:“聊天机器人的回答在很大程度上难以阅读,而且答案反复缺乏信息或显示不准确,可能会威胁到患者和药物安全。”

  研究小组警告说,如果潜在病人接受了机器人的用药建议,大约三分之一的回复可能会对他或她造成伤害。

  研究人员警告说,尽管机器人接受了来自互联网的数据的“训练”,但它们仍然容易产生“虚假信息和荒谬或有害的内容”,这显然是指所谓的人工智能“幻觉”——行业术语,用于描述聊天机器人产生胡言乱语的情况。

  来自埃尔兰根-纽伦堡大学和制药巨头葛兰素史克的研究小组让微软的Copilot机器人回答了大约50种美国最常用的处方药的10个问题,评估了机器人的答案的可读性、完整性和准确性。

  该团队发现,要理解聊天机器人的答案,需要大学研究生水平的教育。研究人员指出,之前的研究表明,OpenAI的ChatGPT(主要的人工智能聊天机器人服务,也是微软Copilot的最大竞争对手)也存在类似程度的错误和有害答案。

  研究人员表示:“在出现更精确、更可靠的替代方案之前,医疗保健专业人员在推荐人工智能搜索引擎时应谨慎。”——BERNAMA-dpa

  在Instagram和Twitter上关注我们的最新消息。订阅我们的YouTube频道观看更多视频。

分享到
声明:本文为用户投稿或编译自英文资料,不代表本站观点和立场,转载时请务必注明文章作者和来源,不尊重原创的行为将受到本站的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至本站。

热文导读