本指南针对药物和生物制品,探讨了在监管决策中运用人工智能(AI)的考量,旨在为申办者和其他相关方提供指导,以确保AI模型的可靠性和适用性。
你能获得:
采用七个步骤的流程,从定义问题、确定使用环境、评估模型风险到制定和执行可信度评估计划,最终确定AI模型对于特定用途的适用性。
详细解释:
强调对AI模型输出结果可信度的生命周期维护,特别是在模型性能可能随时间或环境变化的情况下,通过持续监控和调整确保模型始终适用于其预期用途。
详细解释:
鼓励申办者和其他相关方尽早与FDA沟通,以便就AI模型的风险评估和可信度评估活动达成共识,并识别潜在的挑战和解决方案。
详细解释:
A: 模型风险评估是评估AI模型可能导致错误决策的风险,包括模型影响(AI模型证据的贡献程度)和决策后果(错误决策可能导致的严重后果)。模型风险评估有助于确定适当的可信度评估活动。
A: 因为AI模型的性能可能随时间或部署环境的变化而变化,特别是当引入与模型训练数据不同的新数据时。生命周期维护通过持续监控和调整,确保模型在整个药物产品生命周期中保持其适用性和可信度。
A: 申办者可以通过多种方式与FDA进行早期沟通,具体取决于AI模型的预期用途。例如,可以请求与FDA举行正式会议,讨论在特定开发计划中使用AI的问题。此外,FDA还提供了其他沟通渠道,如C3TI、CID、DDTs、DHTs等项目。
本指南的目标读者包括药品生产商、生物制品公司、医疗器械公司、负责监管事务的专业人员、数据科学家、人工智能研究人员,以及所有对人工智能在药品和生物制品开发和监管中的应用感兴趣的个人和组织。特别是,本指南对于那些希望了解如何使用人工智能来支持其产品的安全性、有效性和质量监管决策的申办者和相关方非常有价值。此外,对于那些希望与 FDA 就人工智能模型的使用进行早期沟通的各方,本指南也提供了有用的信息。
近年来,人工智能在药品生命周期中的应用日益广泛。人工智能的不断进步有可能加速安全有效药物的开发并改善患者护理。伴随这些技术进步,在向 FDA 提交的监管文件中,人工智能的使用也有所增加。然而,人工智能的使用也带来了一些独特的挑战,例如数据集的质量、规模和代表性的可变性可能引入偏差,以及理解人工智能模型如何开发和得出结论可能比较困难。