
「プロジェクト・メイブン」と呼ばれるAIプロジェクトをめぐるグーグルと国防総省との協力は従業員からの大きな批判を呼び、技術が破壊的な目的に使用される可能性があるため、サンダー・ピチャイCEOに国防総省との関係を断つよう強く求めた。 Google のプロジェクトへの関与を理由に一部の従業員が辞任したことを受け、同社は最終的に米国国防総省との契約を更新しないことを決定した。
この経験から学び、Google の CEO サンダー・ピチャイはブログ投稿を書き、Google は有害な目的や有害な目的に使用される可能性のある AI テクノロジーを開発または導入しないと明確に述べ、同社が守るべき 7 つの原則を概説しました。 AIの開発と応用に関しても同様です。
AI がどのように開発および使用されるかは、今後長年にわたり社会に大きな影響を与えるでしょう。 AI のリーダーとして、私たちはこれを正しく行うことに深い責任を感じています。
ピチャイ氏は投稿の中で、これらの原則は単なる理論上の概念ではなく、GoogleのAI研究の方向性を決定する具体的な基準であると述べている。ピチャイが概説した7つの原則は次のとおりです。

1. 社会的有益性
Google は、AI が与える可能性のある社会経済的および文化的影響を徹底的に評価し、特定の製品やテクノロジーの利点が欠点を上回ることを確認した上でのみ、さまざまな分野で AI 開発を推進します。
2. 差別と偏見を避ける
Google は、AI アルゴリズムとデータセットが透明性と公正なアプローチを反映していることを確認し、人種、民族、性別、国籍、収入、性的指向、能力、政治的または宗教的信念に基づいた偏見や差別の感情を生じさせないようにします。
3. 安全チェック
Google は、AI システムを注意深く監視し、開発段階で厳格な安全プロトコルを遵守することにより、AI システムが潜在的なリスクを引き起こさないようにするための強力な保護措置を実装します。
4. 説明責任
ピチャイ氏のブログ投稿によると、GoogleのAI研究とシステムは 「人間による適切な指示と制御の対象となる」とし 、同社チームは関連するフィードバック、説明や異議申し立てを求める質問を受け付けるとしている。
5. プライバシー設計原則の組み込み
これらには、通知と同意の機会を与えること、プライバシー保護ツールの導入を奨励すること、透明性、ユーザーデータの安全な取り扱いに重点を置くことが含まれます。
6. 科学的卓越性の高い基準
Google は、AI 分野の開発に関して学際的なアプローチを採用し、知識を共有し、研究を実施することで、医学、環境科学、化学などの分野がその進歩から等しく恩恵を受けられるようにします。
7. 不正なアプリケーションのチェック
Googleは、テクノロジーの目的、独自性とアクセシビリティ、影響の規模、プロジェクトへの企業の関与の性質を慎重に評価することで、AIの悪用をチェックする予定だ。
ピチャイ氏はまた、GoogleがAIテクノロジーの設計や導入を控える4つの応用分野、つまり兵器、直接的または間接的に害を及ぼす技術、国際的に認められた規範に違反して大規模な監視を促進する技術、および国際的に認められた法の原則に矛盾する技術を明らかにした。人権。
これらの原則は、最終的に AI が世界を征服するのではないかという懸念を静めることはできないかもしれないが、Google がその仕事においてユーザーや専門家の感情を管理しようと努めていることを明らかにしている。
