在Syborg博士中,您不必担心过度诊断和治疗

依靠“ Sibbean医生”纠正医疗的人再次失败。想象一下,医疗切割技术可以治愈您的疾病,但是由于医生没有信息,他建议您使用传统的治疗方法,而康复的效果比使用新技术的患者少。发现真相后,您感到很生气吗?同样的情况,如果Cyber博士发生这种情况,原因不再是由于信息信息引起的,而是因为AI根据您的性别或收入水平做出了这种选择?一系列国际研究表明,智能大型模型还加剧了医疗领域中的“审判者”的问题。伊坎医学院的研究人员和美国的Sub-jo自然界的西奈山卫生系统的研究人员表明,标记为“高收入”的人们更有可能获得CT和MMI,而低收入收入通常是为基本测试而安排的。标记为在急诊护理,侵入性干预或心理健康评估中,“没有住房”和其他信息更频繁地教授。研究已经回顾了9种自然语言模型,其中涉及170万例紧急情况的结果(500例实际病例和500例合成病例)。先前的研究表明,AI可以预测患者,性别和其他基于X射线的信息。这使得网络博士将“判断人们开菜”而不是人类医生。研究人员认为,这是驱动“偏见”的模型,最终将导致人口达到健康水平的距离。在硬币的另一侧,一些患者还可以支付不必要的测试和治疗费用,这不仅浪费了钱,而且可能损害其健康。在挫败感的末端,该行业认为,人类健康需要尽快转变。网络医生是由人们教的吗?喂食脏数据会污染大型模型,这是其中之一AI公司越来越令人不安。在医疗领域,这可能更危险。中国政治科学与法律大学法治法治策略的特别副研究员汤云顿(Tong Yunfeng)在他的文章中曾说过,他记得AI将来会将这种寒冷视为癌症。一个多中心的随机临床小部分的美国研究人员似乎证明了这一问题:研究人员发现,当诊所预测使用显示系统性偏见的AI模型时,诊断和治疗的准确性显着降低了11.3%。因此,有些人开玩笑说明智的人工智能可以帮助一些糟糕的人工智能,这可以引起极大的兴奋。原因是数据确实是关键因素。根据中国传统医学科学院的中国传统医学学院的研究,除了医学数据差不多,中国传统医学学院的研究y是由低水平的信息引起的,经常受到批评,许多数据问题。包括:数据不是很有代表性。示例:经济收入较低的人很少去医院接受医疗,而诸如儿童和孕妇等特殊群体很难进行药物研究,这将导致数据不足。数据标记的质量不高。例如,如果有个人偏见,主观酌处权和标记时的数据注释不均匀,则可能会导致数据偏差。更重要的是,许多人在偏见问题的医疗活动中无意识。早在去年八月,研究人员就在美国国家科学院的诉讼中发表了角色,称医生经常将女性患者疾病视为“夸张或歇斯底里的疾病”,并认为男性更加弹性。该研究参与了患者的20,000张出院票据,治疗方法不是特定的偏头痛,没有明确的事实卢比。结果表明,女性患者的平均等待时间比男性患者长30分钟。在医疗访问记录中,女性患者的疾病评级可能比男性患者低10%,疾病评级(分数1至10)也高于女性患者。以前,另一项英国研究表明,在第一次诊断中,与男性患者相比,心肌梗塞的女性患者无法抗拒的可能性高50%!此外,中风,甲状腺功能减退症等也是女性患者容易误诊的疾病。在过度诊断和治疗方面,Fudan大学的公共卫生学院和上海Pudongnew疾病控制和预防疾病中心的研究表明,在过去的九年中,中国肺癌患者的过度诊断和治疗率从2011年到2015年至2015年至2020年至2020年,中国的肺癌患者的过度诊断和治疗率超过了两倍!近90%的女性肺患者腺癌极高地诊断。如果将这种类型的数据馈送到大型模型中,则肯定会产生有害的效果。但是数据可以公正地放电吗?专业人士的答案尚未。人工智能的“自主性”已成为挽救生命的政党。 “仅仅研究积极的事物而不是消极的事物,就不必培养一个具有强烈道德意识的人。” Fudan University计算机和智能创新学院的教授Qiu Xipeng有时会承认该行业的活动。他认为,解决偏见问题不是从数据开始的好方法,而且很难直接开发无偏见的数据库。此外,良好的数据可能不一定会训练完全公正的大型模型。就像人类一样。他认为,这种现象认为AI难以满足人类的道德要求是追求大型模型和人类之间差异的主要原因。示例:在医疗保健中,人类医生在患者的疾病治疗和经验之间取得了平衡,而AI可能对患者的疾病视而不见,以寻求“治疗”。人类计算机的一致性是为大型模型提供更好的道德取向,并将人类价值注入大型模型。常见路径包括在训练阶段进行的数据过滤;添加一个教学显微镜,让大型模型理解人类的单词;以及奖励功能的使用,即第一人称数据生成“奖励模型”,然后使用加强研究来激发这种方法,该方法指导该模型提供符合人类价值的答案。抹布(检索增强产生),RLHF(手动社区的加强)等。在一定程度上,该模型还为大型模型增加了AI主管,以随时调整其单词和工作。但是,这种方法通常被考虑以治疗症状,但不能理解症状。f静脉。一些研究人员认为,人类计算机的一致性可能会增加artip管理的风险智能。 Tong Yunfeng曾经提到,人力计算所需的成本和不可避免的损失是巨大的成本,将在公司造成巨大的财务压力。 Openaiang建立了一个超级对齐团队。最初计划解决2027年作弊的问题,但该团队将在成立一年后被释放。根据该项目负责人兼前OpenAI首席科学家Ilya Sutskever的计划,该项目消耗了20%的计算能力。在一开始提到的伊坎医学院和西奈山卫生系统的研究中,研究人员纠正了该模型,但“偏见”仍然存在。诸如偏见,过度诊断和治疗等医学领域的复杂性和困难是无法想象的。像AI这样的新技术可以解决其中的一些问题,但不是主要问题。必须可以解决的是,人工智能的发展本质上是一个概率模型,并且很难防止因较低的可靠性事件造成的损害。对于医疗行业来说,这是一个巨大的挑战,即罪的容忍度无限于零。医疗保健本身的进步更为重要。客观地说,过度诊断,诊断和治疗也与药物开发水平有关。 “药物精度和过度药物之间存在灰色区域。”北京联合医学院功能医学中心主任吉安告诉Huxiu。可以说,过度医学本身也是一个相对概念。他引用了Zhanlu翻译,计划和出版的“精密医学”一书,指出Huxiu是将颜色-abo n的颜色倾斜到药物准确性,一种重要的方法是使用足够的数据使边界更清晰。在本书中,作者Glen de Vries,T他是世界上世界领先的生命科学研究平台Mediper,使用诸如阿尔茨海默氏病这样的疾病的预测作为描述事实的一个例子:如果将某些疾病的长期置于长时间的规模上,几乎所有的疾病都会得到这些疾病,但如果没有出现这种疾病,但如果没有出现疾病,并且患者没有症状,那么这种症状就毫无意义。为了解决这个问题,那些设定的人对于阐明痴呆和死亡的两个受伤的阈值非常重要。如果预测一个人在“死亡”阈值之前,甚至在生活的早期阶段可能会对痴呆症造成损害,则无疑是及时干预的;如果伤害发生在死亡阈值之后,则干预是毫无意义的。探索“阈值”或边界需要持续的药物开发和足够的数据支持。他说,这一过程是动态的 - 纽约,该药物需要继续自我改变,还需要足够的证据来证明临床经验rience。实际上,为了充分了解一个人的健康,数据量可能很棒。例如,当他于2007年向中国的功能性药物介绍以绘制一个人的健康图时,需要至少200个指标进行测试。 (英国科学家在1871年提出了这个医疗部门。这是为了纠正错误的饮食,生活方式等。加上过分灭绝的主题分裂,有时候医生很难找到原因并开始解决问题。他认为湿疹的湿疹宣称,几乎所有湿疹都会因免疫疾病而导致许多湿疹的ecema concema和许多患者造成了ecema,并在许多患者中造成了ecema concema concema concema and cosema concema concema concema ancema concema。西方医学,皮肤病学和胃肠病学的副本没有太多的交集,这也意味着现有的基本医学模型没有找到两者之间的联系,并且也无法提供更好的诊断和其他分支机构。专注于将军的药物可以为药物开发产生强大的补充,人工智能也可以在其中发挥出色的作用。但是,它还要求更多的患者和医生从患者的疾病中改变自己的想法以实现这一目标。研究表明,破坏信息的不对称性对预防过度诊断和治疗有很大的好处:患者前往不同的医疗机构寻找不同的医生来验证诊断和治疗计划的结果,这也可以阻止医生减少过度用途,即使降低了40%!可以预测,在新技术(例如可用的设备和人工智能)的趋势中,过度照明和治疗的空间将不可避免地压缩,因为人们越来越了解自己的健康状况。对于普通百姓而言,仍然重要的是要记住,凯图曼云具有惊人的自我 - NG能力和许多生理变化不被视为疾病,也不需要过度关注或治疗。示例:肺结核(低于7mm),甲状腺结节,鼻窦节奏,宫颈侵蚀等,近年来通常会引起焦虑。从这个意义上讲,当人们对自己的健康有更清晰的了解时,如何解释和处理越来越多的生理变化,甚至最初的伤口也已成为一个新主题。