凌晨三点的“方舟”医疗数据中心,冷白的灯光将林砚秋的影子拉得很长。她盯着屏幕上跳动的数据流,指尖在触控板上悬了半秒,终究还是没有落下。屏幕里,是编号为“L-739”的肺癌患者完整病历——从十年前的感冒发烧记录,到上周的基因测序结果,甚至连患者半年前在药店购买降压药的消费轨迹,都被红色数据链串联成网。
“林博士,算法模型第三次迭代完成,早期肺癌筛查准确率提升至92.3%。”助理陈阳的声音从对讲机里传来,带着熬夜后的沙哑,“就差最后一批脱敏病历导入训练池,下周就能提交药监局审核了。”
林砚秋揉了揉发胀的太阳穴,目光扫过数据池右下角的进度条。还差1200份有效病历,而系统后台显示,符合“晚期转化风险分析”标签的未脱敏数据,恰好躺着1500份。她是“方舟”的首席数据伦理师,也是这个国家级医疗AI项目的核心成员。三年来,她和团队像在钢丝上行走——一边要追逐算法精度的突破,一边要守着患者**的红线。
“不能用未脱敏数据。”林砚秋对着对讲机沉声说,“联系合作医院,重新申请脱敏授权。”
“可是博士,”陈阳的声音透着焦急,“重新申请至少要两周,项目会错过审核窗口期!那些数据只是少了最后一道‘去标识化’处理,我们加密技术是顶尖的,不会泄露。”
林砚秋没有回话,起身走向数据中心的玻璃幕墙。外面是凌晨的都市剪影,零星的灯火里,藏着无数个“L-739”。她想起三个月前收到的匿名举报信,某私立医院将患者产检数据卖给母婴公司,导致刚确诊流产的孕妇每天接到十几通奶粉推销电话。那封信的末尾写着:“你们守护的是数据,我们守护的是人生。”
第二天一早,“方舟”项目负责人周明远把一份文件拍在林砚秋桌上。文件首页印着某三甲医院的公章,附件里是1500份患者的“知情同意书”扫描件,签名栏的字迹工整得有些刻意。
“合作医院连夜搞定的,”周明远点燃一支烟,烟雾缭绕中,他的语气带着不容置疑的强硬,“你看,患者都同意将数据用于AI训练。别再揪着‘脱敏’不放了,项目黄了,谁都担不起责任。”
林砚秋指尖划过那些签名,忽然停在其中一页。签名人是张桂芬,72岁,晚期肺癌患者。上周她去医院随访时,还握着林砚秋的手说:“姑娘,你们的机器能早点查出病,就不会有那么多人像我一样遭罪了。”可张桂芬连智能手机都不会用,怎么可能签署电子知情同意书?
“这些同意书有问题。”林砚秋把文件推回去,“很多患者根本不清楚‘数据复用’的含义,这不是真正的知情。”
“林砚秋,你别太理想化了!”周明远把烟摁灭在烟灰缸里,“现在哪个医疗AI不是这么做的?我们是为了救更多人,不是为了害谁。再说,《医疗数据安全指南》里只要求‘去标识化’,没说必须逐人确认用途。”
争执间,陈阳慌张地跑进来:“周总,林博士,出事了!有患者在网上发帖,说我们用他的病历数据开发AI,还泄露了他的抑郁症病史,现在公司官微被骂爆了。”
林砚秋立刻打开电脑,帖子的作者是一位28岁的程序员,半年前因胸痛在合作医院做过全面检查,病历被纳入“方舟”数据库。帖子里附了一张聊天截图,某互联网公司的HR在面试时问他:“你三年前确诊过重度抑郁,现在还需要服药吗?”
“数据泄露了?”周明远的脸色瞬间惨白。
林砚秋调出数据流转日志,手指在键盘上飞快敲击。半小时后,她找到了症结——三个月前,团队为了测试跨平台数据兼容性,临时开放了一个数据接口,而这个接口被黑客利用,窃取了237份未完全脱敏的病历。更要命的是,这些病历里包含患者的身份证号后六位和家庭住址关键字,很容易被反向识别。
“是我的责任。”林砚秋的声音有些发颤,“当时只想着测试效率,没做二次加密。”
“现在说责任有什么用!”周明远焦躁地踱步,“赶紧公关,就说数据是匿名的,是患者造谣。再联系那个程序员,给他点补偿,让他删帖。”
“不行。”林砚秋断然拒绝,“我们必须公开道歉,告知所有受影响的患者,并承担法律责任。隐瞒只会让信任彻底崩塌。”
当天下午,“方舟”官方发布致歉声明,详细说明了数据泄露的原因和受影响的范围,并承诺为每位受害者提供免费的身份信息安全监测服务。声明发出后,舆论没有平息,反而引发了更激烈的讨论。有网友质疑:“既然能泄露,说明平时的**保护就是摆设”;也有医生留言:“没有数据训练,AI根本无法进步,难道要让技术停步不前?”
林砚秋坐在会议室里,听着各方的指责和建议,指尖反复摩挲着一份泛黄的文件——那是世界医学大会发布的《日内瓦宣言》,其中“尊重患者**”的条款被她用红笔圈了三次。这时,会议室的门被推开,张桂芬的儿子走了进来,手里拿着一张纸。
本小章还未完,请点击下一页继续阅读后面精彩内容!