- 米Google「兵器や監視活動にAIを使用しない」との文言を削除
- 世界の成長と国家安全保障を支援するAIを創造すべきだと主張
- この方針の変更は今後のAI開発の方向性や企業の社会的責任に関する議論に大きな影響を与える
米グーグルは、人工知能(AI)の使用に関する倫理規範を改定し、これまで掲げていた「兵器や監視活動にAIを使用しない」との文言を削除しました。
同社は2018年、米軍のドローン計画への関与が批判を受けたことを受け、AIの倫理原則を策定し、兵器や監視システムの開発を行わないと明言していました。
しかし、今回の改定では、これらの具体的な禁止事項が削除され、新たに「適切な人間の監督、デューデリジェンス、フィードバックメカニズムを実施し、ユーザーの目標、社会的責任、国際法および人権の広く受け入れられた原則と整合させる」との方針が示されています。
この変更に対し、社内からは懸念の声が上がっており、一部の従業員は、社員の意見が反映されていないことや、倫理的な妥協を危惧する声を上げています。
グーグルは、民主主義国家がAI開発を主導し、自由、平等、人権の尊重といった核心的価値観に導かれるべきだと述べ、これらの価値観を共有する企業、政府、組織が協力して、人々を守り、世界の成長と国家安全保障を支援するAIを創造すべきだと主張しています。
今回の倫理規範の改定は、AI技術の急速な進展や国際的な基準の変化、地政学的な課題を背景に行われたとされています。
グーグルのAI倫理に関する方針の変更は、今後のAI開発の方向性や、企業の社会的責任に関する議論に大きな影響を与えると考えられます。