ITAI活用で企業の信用はどう変わるのか〜アメリカ広報協会(PRSA)の最新AI倫理ガイドから読み解く、広報の新たな責任〜
2026.03.13
ーーー未発表の決算資料をAIにアップロードし、外部に漏洩させてしまう。
ーーーAIで作ったロゴが、知らないうちに他社の商標に似てしまっていた。
ーーー採用候補者の履歴書をAIに読み込ませたことで、名前や住所、職歴などの個人情報を危険にさらしてしまう。
いまやAIという言葉を聞かない日はありません。業務の効率は上がり、限られた人員で多くの仕事を進めるために、AIは強力な道具になります。しかし同時に冒頭に紹介したような、これまで企業が経験したことのない新しいリスクも生まれています。
こうした背景のもと、アメリカ広報協会(PRSA)は2026年に向けて提示した、パブリック・リレーションズ(PR)における倫理的指針とAI活用に関する包括的なガイド(以下「PRSAガイド」)を公表しました。
そのタイトルは
「Promise & Pitfalls(可能性と落とし穴)」
AIの利点と危険性の両方を分析し、企業のコミュニケーションに携わる人がどのようにAIを扱うべきかをまとめたものです。
AI導入に際してのベンダー評価や社内教育の具体的な方法に加え、DEI(多様性・公平性・包摂性)の推進やメンタルヘルス維持の重要性についても言及されています。
本稿では、このPRSAガイドをリスクコミュニケーションの視点から読み解きながら、企業がAIとどう向き合うべきかを考えていきます。
AIは「道具」、責任は「人間」にある
PRSAガイドで最も印象的なのは、次の考え方です。
AIは倫理的な責任を負う存在ではない。責任は人間にある。
AIは大量のデータからパターンを学習し、もっともらしい文章や画像を生成します。しかし、それは「理解している」わけではありません。
AIは次に来る可能性が高い言葉を予測しているだけです。事実を理解しているわけでも、倫理判断ができるわけでもありません。
そのため、AIが作った文章には誤りが混じることがあります。
存在しない情報を作り出してしまうこともあります。
さらに問題なのは、そうした誤りが非常にもっともらしく見えることです。
企業がAIをそのまま使えば、
・誤情報の拡散
・偏見を含む内容の発信
・著作権侵害
・機密情報の流出
といった問題が起きる可能性があります。
AIは便利な道具ですが、判断は人間が行わなければなりません。
PRSAガイドが強調しているのは、この原則です。
AIが企業のコミュニケーションを変える
AIはすでに広報やコミュニケーション戦略に関わる担当者の業務を大きく変えています。文章作成、市場調査、画像や動画の制作、メディアリスト作成、レポート作成などの作業はAIが得意とする分野です。
PRSAガイドでも、AIはコミュニケーション業務の多くを支援できると述べられています。
ただし、ここで重要なのはAIは戦略や倫理判断を行う存在ではないということです。
特に次の領域は、人間が中心にならなければならないとされています。
・危機対応
・ブランドの価値判断
・倫理判断
・社会的な影響の評価
つまりAIは「考える存在」ではなく、「考える人を助ける存在」として使う必要があります。
AI活用で最も重要なのは「透明性」
今回のPRSAガイドの改訂で、特に強調されたテーマがあります。
それが透明性(Transparency)です。
企業がAIを使うとき、
「どのようにAIが関わっているのか」を説明することが信頼を守るうえで重要だとされています。
おそらく多くの企業はすでに「本稿はAIを活用しています」と一行書いておくというリスクヘッジをしていると思いますが、それでは不十分とされています。
PRSAガイドが提示している開示の文例を一つ紹介します。
| 「本ドキュメントの一部は、調査、アイデア出し、編集を支援するために生成AIを使用して作成されました。倫理的な整合性と専門的な正確性を確保するため、すべての内容は人間の編集者によってレビューされ、最終決定されています」 |
PRSAガイドも、GPT-5を使って変更点の要約を作成し、その後に人間が確認・修正したと明記しています。透明性を説くガイドが、自らその実践を見せているわけです。
また、クライアントやベンダーとの契約書にも、AIの使用条件と開示に関する条項を盛り込むことが推奨されています。特に外部委託で制作物を作る場合は、著作権をめぐる法的リスクが格段に高まります。
AIが引き起こす新しいリスク:知っておくべき「4つの落とし穴」
PRSAガイドが整理したリスクは、大きく4つの領域に分かれます。
①情報の正確性と誠実さの問題
AIを使って、まるで多数の人から送られたように見える手紙を大量生成し、世論を動かそうとする「偽の草の根キャンペーン(アストロターフィング)」があります。あるいは、AIが生成した業績分析をそのまま公開したり、反対に不都合なデータをAIの出力を理由に隠したりするケースも報告されています。いずれも、情報の正確さと誠実さという根本的な責任に反します。
②機密情報とプライバシーの侵害
冒頭に挙げた事例がまさにこれです。未発表の財務データ、クライアントの企業秘密、採用候補者の個人情報。これらを公開のAIツールに入力することは、鍵のかかっていない場所に機密書類を置いておくようなものです。従業員に知らせることなく、AIで社内チャットの感情分析を行うことも深刻なプライバシー侵害になります。
③著作権と知的財産の侵害
AIが生成したロゴや文章が、既存の著作物と酷似してしまうリスクは小さくありません。AIは他者のコンテンツを学習データとして使っているため、その出力が意図せず誰かの権利を侵害することがあります。競合他社のキャンペーン資料をAIに読み込ませて「改良版」を作るような行為は、明確な倫理違反です。
④偏りの増幅と不公平の再生産
採用でAIを使う場合は、特に注意が必要です。スクリーニングシステムが、出身地や言語、社会経済的背景への偏見をそのまま反映してしまうことがあります。人間が気づかないまま、優秀な候補者を自動的に排除し続けているケースも実際に報告されています。
AI導入で企業が問われる新しい役割
PRSAガイドは、AIを単なるツールとして扱っていません。
むしろ、コミュニケーションに関わる専門家は、AI活用を監督する立場になると述べています。これはとても重要な視点だと考えます。
AIの導入はIT部門だけの問題ではありません。AIが作った情報が社会にどのような影響を与えるのか、企業の信用にどのような影響を与えるのか、こうした問題を考えるのは、コミュニケーション戦略に関わる全ての部門の役割だからです。
つまり、企業のコミュニケーション戦略に関わる者は
・AIの使い方を社内で整理する
・AI利用のルールを作る
・倫理的な判断を行う
・社会との信頼関係を守る
といった役割の一旦を担うことになります。
AIの普及によって、
コミュニケーション担当者の役割は大きくなっていると言えるでしょう。
では、具体的に何をすればいいのか
リスクを知ったうえで、経営者やマネジメント層として何をすべきか。PRSAガイドが示すベストプラクティスを整理します。
「使っていい場面」と「使ってはいけない場面」を決める
AIは草案作成、データ集計、情報の整理、アイデアの発散には非常に有効です。一方、最終的な戦略の判断、危機への対応、取引先との関係構築、経営判断——こうした領域では、人間の洞察と責任が欠かせません。
この線引きを社内ポリシーとして明文化し、全社員に共有することが第一歩です。「AIに何を任せて、何は任せないか」。この問いに明確に答えられない組織は、リスクにさらされ続けます。
ベンダーを選ぶときに必ず聞くこと
外部のAIツールやサービスを導入するとき、機能と価格だけで判断するのは危険です。以下の問いを必ずぶつけてみてください。
入力したデータはモデルの学習に使われるか、第三者と共有されるか。バイアスの検査やセキュリティ監査はどのように行われているか。人間によるレビュープロセスはあるか。GDPRやCCPA、国内の個人情報保護法への対応はどうなっているか。
これらに対して明確に答えられないベンダーとは、距離を置くのが賢明だとPRSAガイドは言い切っています。
「横断的なAI監視チーム」を作る
AIの倫理的リスクは、広報、法務、人事、IT、リスク管理——これらを一緒に考えなければ防げません。PRSAガイドは、こうした多様な専門家からなる「横断的なAIアドバイザリーグループ」の設立を強く推奨しています。外部の顧客や利用者の声を取り入れることも有効だと言います。
AIを「IT部門の話」として切り離してしまうと、組織全体のリスクを見逃します。
疲弊した人間がAIを監視することの危うさ
これはあまり語られませんが、非常に重要な点です。
AIの出力を最終的にチェックするのは人間です。しかし疲労した状態の人間は、「それっぽい嘘」を見抜く力が著しく落ちます。ハルシネーションを見逃し、偏ったコンテンツを世に出してしまうリスクが高まります。
PRSAガイドは燃え尽き症候群を「倫理的リスク」として位置づけています。AIが生成したものを最後に確認する人間が健全な状態にあることは、組織の信頼を守るための必須条件としています。
今後急速に普及しようとしているのは「生成AI」ではなく「AIエージェント」になりつつあります。人間の指示を待たず、自律的に判断し、行動するAIです。他のシステムと連携し、リアルタイムで対外メッセージを調整し、問い合わせに自動対応します。
PRSAガイドは「エージェントAIは目標の達成を主眼に置くため、効率性を優先し、時に倫理を後回しにしてしまう危険がある」と警告しています。
そのため「AIのアウトプットを確認する」だけでは、足りない可能性があります。
AIがどのような価値観の下で動くように設計されているか、その設計段階から組織の倫理観を組み込んでいくことが求められているとされています。
これは経営層、マネジメント層、すべてのリーダーへ向けられた問いかけだと考えます。
参考:PROMISE & PITFALLS:The Ethical Use of AI For Public Relations Practitioners
本稿は、アメリカPR協会(PRSA)が2025年10月に発表した「Promise & Pitfalls: The Ethical Use of AI for Public Relations Practitioners」改訂版をもとに、日本リスクコミュニケーション協会(RCIJ)が独自の視点で解説・編集したものです。本稿の一部の整理にはAIツールを活用しましたが、すべての内容は人間の編集者が確認・修正しています。
「本記事のまとめ:FAQ」
PRSA(アメリカ広報協会)のAI倫理ガイドとは何ですか?
PRSA(Public Relations Society of America)が公表したAI倫理ガイドは、広報・コミュニケーション業務における生成AIの適切な利用方法と倫理的責任を示した指針です。
AIの利便性だけでなく、誤情報、偏見、著作権侵害、機密情報漏洩といったリスクも整理し、企業の広報担当者やコミュニケーション専門家がどのようにAIを活用すべきかを示しています。
AI活用は企業の信用やブランドにどのような影響を与えますか?
AIは業務効率を高める一方で、誤情報の発信や倫理問題が起きた場合、企業の信用やブランド価値を大きく損なう可能性があります。
AIが生成した情報を確認せずに公開すると、事実誤認、著作権侵害、偏見を含む内容の発信などにつながり、企業のレピュテーションリスクを高めるため、人間による最終確認が不可欠です。
企業がAIを利用する際、最も重要なポイントは何ですか?
PRSAガイドが最も強調しているのは透明性(Transparency)です。
企業がAIを利用する場合、
-
AIがどの工程で使用されたのか
-
最終判断を誰が行ったのか
を明確にすることが、社会からの信頼を守るうえで重要だとされています。
生成AIを使うことで起きる主なリスクにはどのようなものがありますか?
PRSAガイドでは、AI活用における主なリスクを次の4つに整理しています。
-
情報の正確性と誠実さの問題(誤情報やAIによる世論操作)
-
機密情報・個人情報の漏洩リスク
-
著作権・知的財産の侵害
-
AIによる偏見や不公平の増幅
これらは企業の信用に直接影響するため、AI利用のルール整備が必要です。
AI導入において広報やコミュニケーション担当者の役割はどう変わりますか?
AIの普及によって、広報担当者は単に情報を発信するだけでなく、AI活用を監督する役割を担うようになっています。
AIの使用ルールの策定、倫理的判断、情報の正確性の確認、社会的影響の評価などを行い、企業と社会の信頼関係を守ることが求められています。

