人工智能在医学上的应用为治疗进步带来了巨大的兴奋和希望。
通常人工智能是指计算机模仿人类智能和学习的能力。例如,通过机器学习,科学家们正在努力发展算法这将帮助他们做出关于癌症治疗的决定。他们希望计算机能够分析放射图像,辨别出哪些癌症肿瘤会对化疗有良好的反应,哪些会不会.
但人工智能在医学领域也提出了重大的法律和伦理挑战。其中一些是关于隐私、歧视、心理伤害和医患关系的担忧。在一个即将到来的文章中,我认为政策制定者应该围绕人工智能建立一些保障措施,就像他们在基因检测变得普遍时所做的那样。
潜在的歧视
人工智能涉及分析用大量的数据来辨别模式,然后用这些模式来预测未来发生的可能性。在医学领域,数据集可以来自电子健康记录和健康保险索赔,但也有一些令人惊讶的来源。人工智能可以利用采购记录,收入数据,犯罪记录,甚至2022卡塔尔世界杯预选赛排名社交媒体有关个人健康状况的资料。
研究人员已经在使用人工智能来预测多种疾病。2022年卡塔尔世界杯积分榜这些包括心脏病、中风、糖尿病、认知能力下降,未来的阿片类药物滥用,甚至自杀.举个例子,Facebook采用了一种算法使自杀的预测比如“你还好吗?”,再配上“再见”和“请不要这样做”。
人工智能的这种预测能力在医疗保健领域引发了重大的伦理问题。如果人工智能能够预测你的健康状况,我相信有一天你的电子健康记录中就会包含这些信息。
任何可以查看你健康记录的人都可以看到关于认知能力下降或阿片类药物滥用的预测。病人的医疗记录由几十个甚至几百个医生和管理人员在医疗过程中此外,患者自己也经常授权他人访问他们的记录:例如,当他们申请就业或人寿保险时。
数据代理行业巨头如律商联讯和处理也在挖掘个人数据和进行人工智能活动。然后,他们可以向任何感兴趣的第三方出售医学预测,包括营销人员、雇主、贷款机构、人寿保险公司等。因为这些企业不是医疗保健提供者或保险公司HIPAA隐私规则并不适用于他们。因此,他们不需要获得患者的许可,就可以自由地披露他们的信息。
这种披露可能会导致歧视。例如,雇主对健康、高效、缺勤少、医疗费用低的员工感兴趣。如果他们认为某些申请者将来会患上疾病,他们很可能会拒绝他们。贷款机构、房东、人寿保险公司和其他机构也可能基于人工智能的预测对个人做出不利的决定。
缺乏保护
的美国残疾人法案不禁止基于未来的医疗问题的歧视。它只适用于现在和过去的疾病。作为对基因检测的回应,国会颁布了遗传信息非歧视法案.该法禁止雇主和健康保险公司考虑遗传信息,并根据对人们未来健康状况的相关假设作出决定。2022年卡塔尔世界杯积分榜没有法律对非遗传预测数据实施类似的禁止。
人工智能健康预测也会导致心理伤害。例如,如果许多人知道他们在以后的生活中可能会遭受认知能力下降,他们可能会受到创伤。个人甚至有可能直接从购买他们数据的商业实体获得健康预测。想象一下,通过敦促你购买增强记忆力产品的电子广告,你获得了你有患痴呆症风险的消息。
如果要进行基因检测,就应该进行遗传咨询,以便仔细考虑是否进行检测,并了解检测结果。相比之下,我们没有为患者提供类似服务的人工智能咨询师。
还有一个问题与医患关系有关。人工智能会削弱医生的作用吗?计算机是否能够做出预测、诊断和治疗建议,以便医生简单地执行计算机的指令?如果电脑在做医疗决定时有更大的发言权,病人对医生会有什么感觉?
人工智能的预测远非万无一失,这一事实加剧了这些担忧。许多因素都会导致错误。世界杯欧洲预选赛积分榜如果用于开发算法的数据有缺陷——例如,如果他们使用包含错误的医疗记录——算法的输出将是不正确的。因此,患者可能会遭受歧视或心理伤害,而实际上,他们并没有患病的风险。
警示警示
我们能做些什么来保护美国公众?我过去也争论过工作扩展HIPAA隐私规则,使其涵盖任何出于商业目的处理健康信息的人。隐私保护不仅应适用于医疗保健提供者和保险公司,也应适用于商业企业。我也认为国会应该修改《美国残疾人法》,禁止基于对未来疾病的预测而进行歧视。
为患者提供人工智能预测的医生应该确保他们充分了解这种预测的利弊。专家应该像训练有素的专业人士对基因检测那样,就人工智能向患者提供建议。
人工智能的前景可能会让人望而生畏。然而,为了确保人工智能真正促进患者的福利,医生、研究人员和政策制定者必须认识到它的风险,并谨慎行事。
莎罗娜·霍夫曼是俄亥俄州克利夫兰凯斯西储大学卫生法和生物伦理学教授。本文转载自谈话根据知识共享许可协议。读了原文.
图片来源:Shutterstock.com