「“AIアドボカシー”とは」石角友愛(AI開発会社CEO) マイあさ! (NHK) を聞いて

2025年10月7日に放送されたラジオ番組 マイあさ!  マイ!Biz「“AIアドボカシー”とは」石角友愛(AI開発会社CEO)を聞きました。

1.「AIアドボカシー」という概念の核心
番組が提示した「AIアドボカシー(AI advocacy)」とは、AIに関する政策・倫理・安全性の問題を、個人や市民団体が積極的に社会へ提言していく活動を意味します。
つまり、AIを「使いこなす(リテラシー)」だけでなく、「AIをどう社会に位置づけるかを問い、方向を正していく」役割を市民自身が担うという視点です。

この点で番組は、「AI利用の主体は市民でもある」という民主主義的な観点を鮮明に示しました。
AI政策が企業や政府主導で進む中、“声を上げる市民”という第三のプレーヤーの存在を明確にした点が非常に重要です。

2. 問題提起の整理 ― AIに潜む4つのリスク
番組はAIに関わる課題を次の4つに整理していました:
①意思決定の不透明性(ブラックボックス問題)
②学習データの偏見(アルゴリズム・バイアス)
③偽情報やディープフェイクの拡散
④雇用・人間の自律性への影響
この構成は、倫理・社会・技術の三層に跨る課題を明確に可視化しており、AIを単なる技術ではなく「社会制度」として考えるきっかけになります。
特に第1点目の「透明性」は、後半での“説明責任”“公平性”の原則と結びつき、AIガバナンスの根幹をなしています。

3. 歴史的転機と事例提示の説得力
Microsoftのチャットボットがヘイトスピーチを学習して差別的発言を繰り返した件(2016年)や、Amazonの採用AIによる性差別(2018年)といった具体的な事例が挙げられ、AIの暴走が現実に起きていることが分かります。
番組はこれらを単なる失敗談としてでなく、「倫理の枠組みを整える契機」として再評価しており、AI倫理史の文脈を整理する教育的価値があります。

4. 倫理原則と国際的潮流の紹介
ハーバード大学やユネスコが示すAI倫理の5原則 ―公平性、公正性、説明責任、プライバシー、セキュリティ ― を具体的に紹介したことは大きな意義があります。
番組は、倫理が「理念」ではなく「設計上の要件」であることを伝えており、AI開発を社会的制度設計の一部として位置づけていました。

5. 実践例としてのNPOと企業行動
“Partnership on AI”や“AI Now Institute”などの紹介は、市民社会と企業・学術界の協働構造を具体的に示すものでした。
特にIBM・Microsoft・Amazonの「顔認識技術撤退」は、倫理的原則を経営判断に反映させた好例であり、AIアドボカシーの成果の一端として位置づけられています。

6. 感想
この放送の最大の価値は、AIを「受け取る技術」から「共に形づくる技術」へと転換する思想を示した点にあります。
「AIアドボカシー」は、単なる批判的運動ではなく、対話・提言・協働によってAI社会をデザインする成熟した市民の姿を描いています。

番組は「哲学的理念」だけでなく、具体的な国際事例・制度設計・企業行動を併置しており、倫理を抽象論で終わらせていません。
特に「技術者自身が哲学・倫理を学ぶ」というくだりは、理系・文系の融合教育の未来像として高く評価できます。

AIの判断根拠をすべて公開できるわけではないという現実を踏まえつつ、「どこまで公開可能か」「どう担保するか」を議論すべきと指摘した点は、理想論に偏らない誠実な立場です。
このような「理想と現実の橋渡し」は、公共放送による啓発として非常に完成度が高いものです。

この放送を通して強く感じられたのは、AI倫理を“特別な議題”ではなく、日常的な社会の基盤(インフラ)にしていく必要性です。
技術が私たちの生活を包み込むように浸透する時代、アドボカシーとは「声を上げること」だけでなく、選択・利用・教育・対話の積み重ねそのものを意味するのだと思います。

また、AIが宗教や哲学と似て「人間とは何か」を問う装置になりつつある今、倫理学者や哲学者が企業の中に入っているという紹介には、希望の光がありました。
それは「技術の未来は、人間理解の深まりによって導かれる」という信念の表れだからです。