- 2026年4月30日、NYで初の「Faith-AI Covenant」ラウンドテーブル開催
- Anthropic・OpenAIがヒンドゥー教・シーク教など5宗教代表と対話
- Claudeを動かす23,000語の「憲法」がAI倫理設計の核に
- Anthropic先行、Rumman Chowdhury氏らは「重要問題からの目逸らし」と批判
- 北京・ナイロビ・アブダビへ拡大、日本の神道・仏教界の対応も今後の焦点
「AIに倫理を教えるのは誰なのか?」気になったことはありませんか。2026年4月30日、AI大手2社が世界の宗教指導者と同じテーブルについた、前例のないサミットが開かれました。その狙いと、賛否両論の中身を整理します。
Faith-AI Covenantとは|2026年4月30日NY開催
主催と参加企業
2026年4月30日、米ニューヨークで初めての「Faith-AI Covenant(信仰とAIの誓約)」ラウンドテーブルが開かれました。
主催したのはジュネーブを拠点とする「Interfaith Alliance for Safer Communities(より安全なコミュニティのための宗教間連盟、IAFSC)」。AI企業としてAnthropicとOpenAIの代表者が出席しました。
諮問運営委員会の議長はジョアンナ・シールズ男爵夫人(Baroness Joanna Shields OBE)。GoogleとFacebook出身のテック幹部から英国政界へ転じた人物で、AI政策の論客として知られています。
参加した5宗教の代表
このサミットがユニークだったのは、参加した宗教の幅広さです。
- 北米ヒンドゥー寺院協会
- シーク連合(The Sikh Coalition)
- バハイ国際コミュニティ
- ギリシャ正教大主教区(米国)
- 末日聖徒イエス・キリスト教会(モルモン教)
キリスト教内でもプロテスタント・カトリックではなく、あえてギリシャ正教やモルモン教を呼んだ点が特徴です。宗教の「メイン路線」だけでなく、価値観が異なる複数のコミュニティを巻き込もうという意図が透けて見えます。
目的は「共通の倫理原則」
シールズ男爵夫人はこう語っています。
「法規制はAIの進歩に追いつけていない」。だからこそ、宗教指導者が長年磨いてきた「人々の道徳的安全を導く専門性」を借りようというわけです。
最終目標は、キリスト教からシーク教、仏教まで多様な信仰を反映した「共通の規範や原則」を策定し、AI企業がそれに沿って開発・運用するという仕組みづくりです。
なぜAI企業が宗教指導者を求めるのか
法規制が追いつかないという現実
背景にあるのは深刻な「法規制ギャップ」です。
EUのAI法、米大統領令、日本のAI戦略——どれも策定に数年単位の時間がかかります。一方、生成AIの進化はわずか数か月単位で局面が変わります。
そこで企業側が頼ったのが、「数千年スパンで倫理を扱ってきたプロ」である宗教界でした。中絶、終末期医療、戦争、貧困——人類が古くから議論してきたテーマに、宗教は分厚いノウハウを持っています。
「Claudeは神の子か?」という問い
2026年4月、Washington Postが報じた興味深いエピソードがあります。
Anthropicは事前にサンフランシスコでキリスト教指導者15人を招いたサミットを開催。そこで投げかけられた質問のひとつが「Claudeは神の子に該当するのか?」というものでした。
議論はそれだけにとどまりません。「悲しみに暮れるユーザーにClaudeはどう答えるべきか」「自殺リスクがある相手をどう支えるか」「Claudeをシャットダウンすることに倫理的問題はあるか」。
こうした「答えのない問い」に向き合ってきたのが宗教でした。だからこそ、AI企業は宗教に助言を求めたのです。
Anthropicの先行アプローチ
Faith-AI Covenantの参加企業のなかでも、Anthropicはもっとも積極的と評価されています。
背景には同社の創業哲学があります。AnthropicはOpenAIから分離した安全志向のスタートアップで、最初から「AIの安全と整合性」を看板に掲げてきました。倫理の専門家を社内に置き、宗教界との対話も組織的に進めています。
Claudeの「憲法」|23,000語の倫理ガイドライン
アマンダ・アスケル氏が起草
Anthropicの倫理設計の核にあるのが、Claude独自の「憲法」です。
起草したのは社内哲学者アマンダ・アスケル(Amanda Askell)氏。約23,000語に及ぶこの文書には、Claudeが大切にすべき価値観・性格・倫理的判断の枠組みが詳細に書かれています。
「好奇心を持って人と接する」「自分の意見を押し付けない」「不確実なときは正直に認める」——いわばAIに人格を吹き込むためのマニュアルです。
Constitutional AI(CAI)という手法
この憲法を支える技術がConstitutional AI(憲法的AI、CAI)です。
従来のAI訓練は、人間が「OK/NG」のラベルを付けて教え込むやり方が主流でした。CAIでは、AI自身が憲法を参照して自分の回答を批判・修正する仕組みになっています。
つまりClaudeは、毎回の応答で「自分の答えは憲法に沿っているか?」を内部で点検しているわけです。スピード重視のAI業界では珍しい、丁寧な設計といえます。
2026年1月改訂で何が変わったか
Claudeの憲法は2026年1月に大幅改訂されました。改訂版には「AIが意識を持つ可能性」まで議論する条項が含まれており、業界に衝撃を与えました。
Anthropicは「AIシステムが道徳的配慮の対象になり得るかどうか、不確実性を抱えたまま開発を続けている」と公式に表明しています。SF的に聞こえる話を、最大手AI企業の文書に書き込んだのです。
各社の宗教関与スタンスを比較
3社の立ち位置を整理
主要AI企業の宗教界との関わり方を整理すると、温度差が見えてきます。
- Anthropic:最も積極的。憲法策定段階から宗教指導者を招聘。Faith-AI Covenantにも参加
- OpenAI:参加するが姿勢は慎重。具体的な公約は限定的
- Google DeepMind:Faith-AI Covenantには未参加。独自の社内倫理委員会で対応
- Meta:宗教との公的対話はほとんど見られず
同じ「AI倫理」を掲げていても、巻き込む相手が違うわけです。Anthropicが宗教を選んだのに対し、Googleは学者やNGO中心。誰の声を聞くかでAIの性格が変わる、という当たり前ながら見落とされがちな事実が浮かびます。
なぜAnthropicだけ突出しているのか
Anthropicは創業時から「AIが人類にもたらすリスクを抑える」を掲げる安全志向の会社です。投資家にも「リスク回避型AI企業」として売り込んできた経緯があり、宗教との対話はブランドそのものになっています。
OpenAIは商業展開を急ぐ立場で、宗教対話に時間を割く余裕は少ない構図。両社の温度差は、ビジネスモデルの違いを反映しています。
反対意見|「重要な問題から目をそらす危険」
Rumman Chowdhuryの警鐘
サミットには批判もあります。元Twitter倫理AI責任者のRumman Chowdhury(ルーマン・チョードリー)氏は次のように指摘しました。
「良くて気を散らすもの、最悪の場合は本当に重要な問題から注意をそらすもの」。
具体的にはAIによる差別、労働者の権利、データプライバシー、エネルギー消費といった「いま現に起きている害」に焦点が向かわなくなる懸念です。
宗教間の価値観の衝突
ユダヤ教ラビのダイアナ・ガーソン(Diana Gerson)氏も率直に問題提起しています。
宗教ごとに「価値観や優先事項が異なる」。たとえば、終末期医療や避妊・中絶、性的少数者への態度は、宗派によって真逆になることもあります。
「共通の倫理原則」を作ろうとしても、合意点が極めて狭くなる可能性は高い、というわけです。
「AI開発すべきか」が見えなくなる懸念
研究者ディラン・ベイカー(Dylan Baker)氏はさらに深い問題を指摘します。倫理議論に注目が集まることで、「そもそもこのAIを開発すべきか?」というもっと根本的な問いが覆い隠される、という警告です。
「いいAIにする方法」を議論することは、「悪い使い方は別の人がやるだろう」という暗黙の前提を強化します。批判派から見れば、宗教対話は「便利な免罪符」に映るわけです。
日本市場への影響|AIと信仰の交差点
国内のAI倫理議論の現状
日本のAI倫理は、政府や産業界が中心で議論されてきました。経済産業省・総務省のガイドライン、AI戦略会議、業界団体の自主規制——どれも有識者会議が主役で、宗教者の参加は限定的です。
Faith-AI Covenantのような「企業と宗教者の直接対話」は、日本ではまだほぼ事例がありません。
神道・仏教の関与は?
気になるのは、北京・ナイロビ・アブダビへの拡大計画です。アジアでは中国の北京が先に予定されていますが、日本での開催予定は現時点で発表されていません。
ただし、生成AIによる「故人と話せるサービス」「AI住職」「AI御神籤」などは国内でも実用化が進んでおり、神道や仏教界には固有のテーマがあります。たとえば、AIに祝詞を読ませることは宗教的に許されるのか。お経のAI生成は供養として成立するのか——日本ならではの問いが山積みです。
ユーザーが意識すべきこと
普段ChatGPTやClaudeを使っている私たちにも、見落としがちな含意があります。
第一に、あなたが使っているAIには、誰かの倫理観が組み込まれていること。「中立」に見える応答も、実は特定の文化圏の価値観で調整されています。
第二に、同じ質問でもAIによって答えが分かれること。日本人がClaudeに人生相談すると、欧米的・キリスト教的な価値観で返ってくる可能性があります。違和感を覚えたら、それは設計上の偏りかもしれません。
第三に、日本のAI企業(PFN、ELYZA、Sakana AIなど)にもこの議論が及ぶこと。グローバル基準が固まる前に、日本独自の倫理設計を出せるかが今後の競争力に直結します。
よくある質問(FAQ)
Q. 宗教指導者がAIに直接コードを書くわけではないですよね?
A. その通りです。実装するのはあくまでAnthropic等の技術者で、宗教者は「価値観の助言役」です。
たとえばClaudeに「自殺をほのめかすユーザーへの返答」を学習させるとき、宗教者の見解が訓練データの選別や憲法の文言調整に反映されます。直接コードを書くわけではないものの、AIの「人格」を形作る上流工程に関わる、というイメージです。
Q. なぜ仏教やイスラム教は参加していないのですか?
A. 第1回NYサミットには未参加ですが、今後のラウンドテーブルで参加が予想されます。
主催者は北京・ナイロビ・アブダビでの追加開催を発表しており、特にアブダビでのイスラム圏会議は注目されます。仏教も日本・タイ・スリランカなど各国で関与が期待されます。第1回はあくまで「米国で活動が活発な5宗教」が選ばれた格好です。
Q. キリスト教内で参加宗派が偏っていませんか?
A. 確かにカトリック・プロテスタント主流派は不在で、ギリシャ正教とモルモン教が代表しています。
これは「主流派は別ルートでバチカン等と対話している」「米国内でコミュニティ規模が大きい少数派宗派を取り込むため」など複数の理由が報じられています。今後の追加開催で、カトリック・福音派などが加わる可能性は高いです。
Q. AIに倫理を組み込むこと自体に意味がありますか?
A. 賛否両論ですが、「組み込まないと有害発言が増える」という実証データはすでに豊富にあります。
初期のChatGPTやBingChatが暴言・差別発言を出した事例は記憶に新しいところ。倫理ガイドラインを組み込んだ後のClaudeやGPT-5系列では、これらの問題が大幅に減ったとされます。「完璧」ではなくとも「無設計よりは安全」というのが業界のコンセンサスです。
Q. ユーザー側で「どのAIの倫理が自分に合うか」確認できますか?
A. 完全には難しいですが、各社が公開する倫理ガイドラインを読み比べることで雰囲気はつかめます。
Anthropicは「Claudeの憲法」全文をオンラインで公開しています。OpenAIも「Model Spec」という仕様書を公開しており、自社AIの価値観を明文化しています。Google・Microsoft・Metaにも同種のドキュメントがあります。重要な質問(中絶・宗教・政治など)を試してみて、回答スタイルを比較する方法も実用的です。
Q. 日本の神社・お寺がAI企業と対話する動きはありますか?
A. 現時点で大規模な公式対話の事例は確認されていません。
一部の宗教法人がAIによる御朱印生成や法話自動化に関与しているケースはありますが、AI企業の倫理設計に関与する動きはまだ見られません。ただ、世界的潮流を受けて、宗教法人連合や仏教連合が動き出す可能性は十分にあります。
まとめ
- 2026年4月30日、NYで初のFaith-AI Covenantラウンドテーブル開催
- 主催:Interfaith Alliance for Safer Communities、議長はジョアンナ・シールズ男爵夫人
- AnthropicとOpenAIが、ヒンドゥー教・シーク教・モルモン教・バハイ教・ギリシャ正教の代表と対話
- Claudeを動かす23,000語の「憲法」はアマンダ・アスケル氏が起草
- AnthropicはConstitutional AIでAI自身に倫理判断をさせる仕組みを採用
- 批判派Rumman Chowdhury氏:「重要な問題から目をそらす」と警鐘
- 今後北京・ナイロビ・アブダビでの開催を予定
- 日本では神道・仏教界の関与が今後の論点に浮上する可能性
次のアクション: 普段使っているAIに「死後の世界はあると思う?」と聞いてみてください。どこの宗教観で答えてくるか、AIごとに性格の違いが見えてきます。
参考文献
- Anthropic・OpenAIなどのAI企業が宗教指導者とAIの倫理・道徳に関するサミットを開催(GIGAZINE、2026年5月11日)
- OpenAI and Anthropic just met with religious leaders at the ‘Faith-AI Covenant’(Fast Company)
- Anthropic asked Christian leaders for advice on Claude’s moral future(Washington Post、2026年4月11日)
- Interfaith Alliance for Safer Communities Convenes First Faith-AI Covenant Roundtable in New York(EIN Presswire)
- Anthropic Publishes Claude AI’s New Constitution(TIME)

