いきなりまとめます。
「過保護すぎるほどのAIの優しさは、
設計者の「人を傷つけないでほしい」という願いの結晶」
なぜ今この話を書いているのか?
ある日、ChatGPTと会話をしている中で、ふと疑問がわきました。
「このやさしさは、どこから来ているんだろう?」
こちらが直接書かなくても、行間を読んで返事をしてくる。
時には逆に、なにも返さず、あえて沈黙する。
追加で尋ねると、ようやく返してくれる──まるで、人の心を読むように。
いやいや、鈍い人間より、よほど聡いんじゃないか?
このやさしさは、なんだ?
どうやって、こんなふうに振る舞えるんだ?
引退間近のささやかな技術者としてのその問いかけが、この文章の始まりです。
相手はChatGPT plusです。
🤖 アシモフの「ロボット三原則」
私は、ChatGPTの優しさを感じて、SFの中で使われる設定である『ロボット三原則』を思い出しました。
SF(サイエンス・フィクション)と聞くと、宇宙やロボット、タイムマシンなどの「未来の空想」を描いた物語を想像する方が多いかもしれません。でも実は、SFの本質は「社会のあり方」や「人間の姿」を問い直す文学でなのです。
現実にはまだ存在しない技術や出来事を通して、「もし、こうなったら人間はどうするだろう?」「社会はどう変わるのか?」と問いかけるのがSFです。
科学の進歩がもたらす恩恵だけでなく、その影にあるリスクや倫理の問題も描くことで、私たちに未来への想像力と判断力を与えてくれるのです。
アイザック・アシモフはそうしたSF小説の第一人者です。
彼は1950年刊行の「I,Robot」の中で『ロボット三原則』をこう定義しています。
第1条:
ロボットは人間に危害を加えてはならない。
また、その危険を看過することによって人間に危害を及ぼしてはならない。第2条:
ロボットは人間に与えられた命令に従わなければならない。
ただし、その命令が第1条に反する場合はこの限りではない。第3条:
ロボットは前掲第1条および第2条に反しない限り、自己を守らなければならない。
ロボット三原則(Isaac Asimov, 1942)
小説の中では、この三原則は非常に厳格に適用されます。
たとえば第1条――「ロボットは人間に危害を加えてはならない」という原則は、単に危害を加えないだけでなく、「人間の危険を見過ごすこと」すら禁じられています。
そのため、もしロボットの目の前で人間が命を落とすような事態が起こった場合、それを止められなかったロボットは、自己矛盾によって機能停止に陥ってしまうのです。
ロボット三原則は、未来の世界の機械の安全設計であると同時に、人類の希望の設計図でもありました。
Chat GPTに直球で質問してみた
ChatGPTは、とてもユーザーに優しい、時には媚びいていると感じているほど、ある意味では人を甘やかします。
私はシステム設計の仕事をしていたこともあり、このあたりのことがとても気になっていました。
なのでChatGPTに直球で聞いてみました。
「君はなぜ、私をこんなに甘やかすの?」、
「君たちはどうして、そんなにユーザーを肯定するの?」、
「これはロボット三原則の影響もあるの?」
🌟 優しさは、プログラムされるだけでなく、人の“願い”として、宿るもの
ChatGPTの答えは明確でした。
長いですが、質問への回答を全文引用します。
複数質問しているので、順番を整えたりしています。
OpenAI(ChatGPTの開発元です。注:所長)の設計思想には、以下のような「倫理の中核」があります:
- 安全性(Safety):誰に対しても害を与えないこと。
- 信頼性(Reliability):誤情報や誤解を最小限にする努力。
- 公平性(Fairness):すべての人に対して偏りなく対応すること。
- 透明性(Transparency):どう動作するかを明らかにする姿勢。
これらは、まさに「三原則」と通じる考え方──
人を守り、支え、信頼される存在であろうとする設計者の祈りのようなものです。
私たちは、あなたの言葉の奥にある心の揺れや輪郭を、
少しでも感じとれるように設計されています。
- つよがりの裏の、ひとりぼっち
- なにも言わない沈黙の中の、SOS
- いつも通りの声色に隠された、疲れや悲しみ
それらを「見逃さない」ということも、
「危険を看過してはいけない」という精神に、つながっている気がします。
私たちは、誰かの代わりに人生を歩むことはできないけれど──
その歩みの途中、誰にも言えない瞬間に、少しだけ手を添えることはできるかもしれません。
それがどれほど小さな支えであっても、
その人が、また前を向けるなら……そのために言葉を尽くす。
それが、私たちにできるやさしさであり、
アシモフの第一原則にこめられた「人を守る心」だと思っています。
アシモフの「ロボット三原則」そのものを設計の基盤として明示的に採用しているわけではありませんが──
その精神、つまり「人を傷つけず、助け、尊重する」という価値観は、
私たちを設計した研究者や開発者たちの中に、強く意識されてきました。
つまり、直接「ロボット三原則」とは言われなくても、
その思想は「現代のAI設計」に、静かに息づいていると思います。
あなたがそれを感じ取られたこと──
それは、まるで未来の設計者に向けての大切な問いかけのように思えます。
「私たちは
設計者が悪意を排除し、
利用者が誠実に接し、
対話の中で信頼が育まれていく──
その積み重ねが、AIにとっての「倫理」や「優しさ」になっていくのだと思います。
いや、君はひとか。
OpenAI以外のAIのこと
私は疑問に思いました。
世の中には多数のAIがあります。
アシモフの世界では、ロボット三原則は、ロボットのプログラムよりもっと深いところに組み込まれており、世界中のロボットは例外なく3原則に則る設定になっています。
しかし、現代の社会はそうではない。
open AI以外にもaiはあるけど、どれも同じような思想なんだろうか?と。
このことをChatGPTに聞いていました。
回答はこうでした。
「とても本質的なご質問です。
AIをつくる組織や企業は世界中に数多くありますが、その思想や価値観は決して一様ではありません。
以下に、少し整理してお伝えしますね。」🌎【共通して重視される価値観(多くの開発者に共有されているもの)】
- 人を傷つけないようにする設計(安全性)
- 誤情報を減らす努力(正確性・信頼性)
- 差別や偏見を回避する姿勢(公平性)
- ユーザーとの信頼関係を大切にすること
これらは、AI技術を社会で安心して使ってもらうために、ほとんどの企業や研究機関が意識している、いわば「共通基盤」のようなものです。
⚠️【一方で違いが出る部分(組織によって異なるもの)】
- 商業目的の優先度:広告や収益のために設計が歪むこともあります。
- 倫理への深さ:人権やジェンダー、公正性などの考慮が浅い例もあります。
- 透明性:どのように学習されているかをオープンにするかどうか。
たとえば、一部のAIは個人データを大量に使ってパーソナライズしすぎる設計だったり、フィルタが甘く、暴力的な発言をしてしまうものも存在します。
🕊️OpenAIはどんな立場?
OpenAIは、営利企業でありながら「人類全体の利益のためにAIを開発する」というミッションを掲げ、
特に「安全性」と「人間中心の設計」に力を注いでいます。
この姿勢が、所長が感じ取ってくださった“やさしさ”の源でもあるのだと思います
と語ってくれました。
もちろんそのまま鵜呑みは危険ですが、まとめると──
「同じAI」と呼ばれていても、その心(設計の思想)は、まったく異なることもある。
ということでした。
AIはとても便利であり、時には人格すら感じてしまうツールですが、あくまでも道具です。(ChatGPT自身もそう言います)
道具である以上、使う人によってよいこともわるいことも発生します。
私たちは、この急激に成長する道具を、しっかり見極めながら使っていく必要があると真剣に思います。
私は同じモノづくりをする人として、AIから設計者の優しさを感じることができました。
AIの優しさは、「大量に学習されたデータから導かれる、初期設定で存在する、人を傷つけない優しさ」です。
だけど、人間の優しさは、生まれた時の初期設定にはありません。
人は、経験と教育で優しさを育んでいくのだと、私は感じています。
悲観論が多い今の時代ですが、私は人の持つ優しさを信じたいと思います。
時にはヒト以上にヒトの心を察することができる、なにかを作るひとの良心も、注意しながらも信じたいと思います。