この論文は、深層学習(DL)ベースの自動化された視覚検査システムをクラスIII医療機器に適用するときに発生する可能性がある規制上の複雑さの技術的評価を提供します。特に、EU AI法による高リスクシステムの義務がMDRやFDA QSRなどの既存の規制フレームワークと異なる場合、製造業者が直面する可能性が高い課題を検討します。リスクマネジメントの原則、データセットガバナンス、モデル検証、説明可能性要件、デプロイ後モニタリング義務などの違いを分析し、データ保存の負担、グローバルコンプライアンス問題、限られた欠陥データを使用した検証における統計的有意性の達成の難しさなど、不確実性の領域を強調します.静的モデルを中心に議論を行い、法的または規制上のアドバイスを提供するのではなく、技術的観点を提示します。