忽略关键变量引发风险:google紧急删除误导性的肝功能ai信息
人工智能已成为许多人日常快速获取信息的重要工具。google一再强调,其搜索结果通常“有帮助”“可靠”。然而,一项调查显示,这些ai生成的健康信息在某些情况下可能严重危及用户健康。近期,google就不得不删除一条涉及肝功能检测的错误ai结果。据英国媒体《the guardian》调查发现,google的一些基于人工智能生成的健康摘要(ai overviews)包含关于肝病的错误或误导性信息。用户在搜索“肝脏血液检测的正常范围是多少”时,ai给出的所谓“正常值”可能会让患有严重肝病的人误以为自己健康无恙,从而延误治疗,存在明显风险。
在报道发布后,google已将相关搜索结果下线,但并未就具体个案发表评论。公司发言人表示,google会持续改进ai系统,并在必要时对流程进行干预;同时强调,在许多主题和问题上,ai生成的摘要对用户而言仍然是“有帮助且可靠的”。
多家健康组织将这一事件形容为“危险且令人警惕”,并对google及时介入表示肯定。不过,它们同时指出,ai健康摘要往往只给出脱离语境的数字,忽视了年龄、性别或族裔等重要因素,导致结果与真实的健康或疾病评估可能出现显著偏差。
即便个别错误结果已被删除,类似的误导性健康信息在其他搜索中仍然存在。英国最大肝脏健康慈善机构——british liver trust的负责人凡妮莎·赫布迪奇指出,肝功能检测本身高度复杂,具有明显的个体差异;而ai摘要往往将某些数值以加粗形式呈现,反而会分散用户对自身检测结果的正确理解。
google则回应称,所有相关内容都会由内部的临床专家进行审核,并基于高质量信息来源。对于赫布迪奇提出的“在健康问题上全面关闭ai摘要功能、以防止错误信息传播”的呼吁,google明确表示不会采纳这一建议。
在现代社会,人工智能(AI)已经成为了人们获取信息的重要工具,尤其是在医疗健康领域。然而,正如近期的事件所示,依赖于AI生成的信息可能会带来严重后果。根据《卫报》的调查,Google的AI健康摘要在提供肝脏相关信息时出现了严重错误,可能导致用户误解自己的健康状况,从而延误治疗。
这起事件凸显了关键变量被忽略所带来的风险。在肝功能检测的例子中,AI所提供的“正常值”并未考虑到患者的年龄、性别或种族等重要因素。这些信息对于理解个体健康至关重要,因此,单纯依赖AI生成的摘要可能会误导用户,进而影响他们的健康决定。
Google在得知这一问题后迅速采取行动,删除了相关误导性信息,并且公司发言人表示将持续改进AI系统。然而,问题并没有就此解决。即使删除了个别错误结果,类似的误导性信息仍然存在于其他搜索中,这说明AI在健康信息评估中的应用仍需谨慎。
一些健康组织对Google的干预表示肯定,但他们也强调,仅仅依靠AI生成的摘要是不够的。正如英国最大的肝脏健康慈善机构负责人凡妮莎·赫布迪奇所指出的,肝功能检测的复杂性使得AI摘要的局限性更加明显。特别是在用户面临健康决策时,他们需要准确和全面的信息,而不仅仅是孤立的数字。
因此,Google必须在安全性与信息可靠性之间找到一个平衡点。尽管公司内部有临床专家对内容进行审查,但依然无法完全避免错误信息的传播。在未来,可能需要对AI的使用进行更严格的监管和标准化,确保其在医疗健康领域的应用不会对用户的生命健康造成威胁。
总之,AI作为一种信息获取工具,其潜力巨大,但同时也伴随着风险。我们呼吁科技公司在推广AI技术时,必须充分考虑到各类关键变量,以保护用户的健康与安全。
【本帖内容由人工智能提供,仅供参考,DOLC GmbH 不负任何责任。】
页:
[1]