WHOは、健康における人工知能(AI)と、その設計と使用に関する6つの指針に関する最初のグローバルレポートを発行します。
人工知能(AI)は、世界中の医療と医療の提供を改善するための大きな期待を抱いていますが、本日発表された新しいWHOガイダンスによると、倫理と人権がその設計、展開、使用の中心に置かれている場合に限ります。
レポート、 健康のための人工知能の倫理とガバナンス、 WHOによって任命された国際的な専門家のパネルによって開催された2年間の協議の結果です。
「すべての新しいテクノロジーと同様に、人工知能は世界中の何百万もの人々の健康を改善する大きな可能性を秘めていますが、すべてのテクノロジーと同様に、悪用されて害を及ぼす可能性もあります」とWHOのディレクターであるTedros AdhanomGhebreyesus博士は述べています。「この重要な新しいレポートは、リスクを最小限に抑え、落とし穴を回避しながら、AIのメリットを最大化する方法に関する貴重なガイドを各国に提供します。」
人工知能は可能性があり、一部の裕福な国では、病気の診断とスクリーニングの速度と精度を向上させるためにすでに使用されています。臨床ケアを支援するため。健康研究と医薬品開発を強化し、疾病監視、発生対応、医療システム管理などの多様な公衆衛生介入をサポートします。
AIはまた、患者が自分のヘルスケアをより細かく制御し、進化するニーズをよりよく理解できるようにする可能性があります。また、患者が医療従事者や医療専門家へのアクセスを制限されることが多い資源の乏しい国や農村コミュニティが、医療サービスへのアクセスのギャップを埋めることができるようになる可能性もあります。
ただし、WHOの新しいレポートでは、AIの健康へのメリットを過大評価しないように警告しています。特に、これが国民皆保険を達成するために必要なコア投資と戦略を犠牲にして発生した場合はそうです。
また、機会は、非倫理的な収集や健康データの使用など、課題やリスクに関連していることも指摘しています。アルゴリズムにエンコードされたバイアス、および患者の安全、サイバーセキュリティ、環境に対するAIのリスク。
たとえば、AIの開発と展開への民間および公共部門の投資は重要ですが、AIの規制されていない使用は、患者とコミュニティの権利と利益を、テクノロジー企業の強力な商業的利益または監視と政府の利益に従属させる可能性があります。社会統制。
レポートはまた、主に高所得国の個人から収集されたデータでトレーニングされたシステムは、低中所得国の個人にとってはうまく機能しない可能性があることを強調しています。
したがって、AIシステムは、社会経済および医療環境の多様性を反映するように注意深く設計する必要があります。特に、デジタルリテラシーや、役割と機能が自動化されている場合は再トレーニングが必要で、意思決定に異議を唱える可能性のあるマシンと戦わなければならない何百万人もの医療従事者にとって、デジタルスキル、コミュニティエンゲージメント、意識向上のトレーニングを伴う必要があります。医療提供者と患者の意思決定と自律性。
最終的には、既存の法律と人権義務、および倫理原則を祀る新しい法律とポリシーに導かれ、政府、プロバイダー、および設計者は、AIテクノロジーの設計、開発、および展開のすべての段階で倫理と人権の懸念に対処するために協力する必要があります。
AIがすべての国の公益のために機能することを保証するための6つの原則
リスクを制限し、健康のためのAIの使用に固有の機会を最大化するために、WHOはAIの規制とガバナンスの基礎として次の原則を提供します。
人間の自律性を守る:ヘルスケアの文脈では、これは人間がヘルスケアシステムと医学的決定を管理し続けるべきであることを意味します。プライバシーと機密性を保護する必要があり、患者はデータ保護のための適切な法的枠組みを通じて有効なインフォームドコンセントを提供する必要があります。
人間の幸福と安全および公共の利益を促進する。 AIテクノロジーの設計者は、明確に定義されたユースケースまたは適応症の安全性、精度、および有効性に関する規制要件を満たす必要があります。実際の品質管理とAIの使用における品質改善の手段が利用可能でなければなりません。
透明性、説明性、了解度を確保します。 透明性を確保するには、AIテクノロジーを設計または展開する前に、十分な情報を公開または文書化する必要があります。そのような情報は簡単にアクセスでき、テクノロジーがどのように設計され、どのように使用されるべきか、または使用されるべきでないかについての有意義なパブリックコンサルテーションと議論を促進する必要があります。
責任と説明責任の育成。 AIテクノロジーは特定のタスクを実行しますが、適切な条件下で適切な訓練を受けた人々がAIテクノロジーを使用できるようにするのは利害関係者の責任です。アルゴリズムに基づく決定によって悪影響を受ける個人およびグループの質問および救済のために、効果的なメカニズムが利用可能である必要があります。
包括性と公平性の確保。 包括性には、年齢、性別、性別、収入、人種、民族、性的指向、能力、または人権法で保護されているその他の特性に関係なく、可能な限り幅広い公平な使用とアクセスを促進するようにAI forhealthを設計する必要があります。
応答性が高く持続可能なAIの推進。 設計者、開発者、ユーザーは、実際の使用中にAIアプリケーションを継続的かつ透過的に評価して、AIが期待と要件に適切かつ適切に対応するかどうかを判断する必要があります。AIシステムは、環境への影響を最小限に抑え、エネルギー効率を高めるようにも設計する必要があります。政府や企業は、AIシステムの使用に適応するための医療従事者のトレーニングや、自動システムの使用による潜在的な失業など、職場で予想される混乱に対処する必要があります。
これらの原則は、ヘルスケアと公衆衛生のためのAIの可能性を最大限に活用し、すべての人の利益のために使用されることを保証する取り組みをサポートするための将来のWHOの取り組みを導きます。
https://www.who.int/news/item/28-06-2021-who-issues-first-global-report-on-ai-in-health-and-six-guiding-principles-for-itsから-設計と使用