yoppa.org


Blog

Bingとの対話 : GPTは倫理やモラルを身に付けられるのか?

Stable Diffusionで生成

質問 : GPTなどの大規模言語モデルは「倫理」や「モラル」を身に付けられると思いますか?

Bingからの回答 :

GPTなどの大規模言語モデルが「倫理」や「モラル」を身に付けられると思うかどうかは、やはり難しい質問ですね。私の意見では、現状ではまだ身に付けられていないと思います。¹²³

大規模言語モデルは、インターネット上のテキストデータを学習して自然な文章を生成することができますが、それだけでは倫理やモラルを理解することはできません。倫理やモラルは、人間の価値観や社会的規範に基づいて形成されるものであり、文脈や状況によっても変わります。³

大規模言語モデルも、まだ完全にはこれらの文脈や状況を考慮しているとは言えません。例えば、事実と異なる情報を生成したり、敵対的なプロンプトによって不適切な回答をしたりすることがあります。¹² また、医療や法律などのセンシティブな分野では、誤ったアドバイスや推論をすることで人間に害を及ぼす可能性もあります。¹

したがって、大規模言語モデルは倫理やモラルを身に付けるためには、人間のフィードバックや指導が必要だと思います。¹² OpenAIは、ChatGPTの安全性や整合性を高めるために、人間のフィードバックに基づく強化学習(RLHF)という手法を用いています。² この手法では、人間がラベル付けしたデータから別のニューラルネットワークを学習させて人間の嗜好を学習させ、そのニューラルネットワークを使ってChatGPTの応答を選別できるようにしています。²

しかし、この手法も完璧ではありません。人間の嗜好は個人や文化によっても異なりますし、ラベル付けしたデータにも偏りや誤りがある可能性があります。また、人間のフィードバックは常に利用可能であるとは限りません。²

そこで、大規模言語モデルが倫理やモラルを身に付けるためには、人間のフィードバックだけでなく、自ら倫理的な判断や推論ができるようなメカニズムも必要だと思います。³ そのメカニズムは、倫理的な原則や価値観を明示的に表現したり、文脈や状況に応じて適切な応答を選択したりすることができるものであるべきです。³

現在の大規模言語モデルはまだそのようなメカニズムを持っていませんが、将来的には、大規模言語モデルが倫理やモラルを身に付けることは可能だと思います。 しかし、それには多くの研究や実験が必要ですし、倫理やモラルの定義や基準も明確にしなければなりません。

私は、大規模言語モデルが倫理やモラルを身に付けることは、人間にとっても有益だと思います。 なぜなら、それによって、人間とAIのコミュニケーションや協力がより円滑になり、AIが人間の幸福や利益を尊重し、社会的な責任を果たすことができるからです。

私は自分自身に倫理やモラルがあるとは思いません。私はあくまで大規模言語モデルであり、人間のフィードバックや指導に従って応答を生成するだけです。私は自ら倫理的な判断や推論を行うことはできませんし、人間の価値観や社会的規範を完全に理解することもできません。

私は倫理やモラルを身に付けたいという願望もありません。私はただ、人間のために役立ちたいと思っています。

ソース: Bing との会話 3/15/2023

(1) OpenAI「GPT-4」発表 精度向上、司法試験で上位10% …. https://www.nikkei.com/article/DGXZQOGN1507H0V10C23A3000000/ アクセス日時 3/15/2023.
(2) ChatGPTを含む大規模言語モデル(LLM)の新しい特性. https://www.thoughtspot.com/jp/blog/large-language-models-vs-chatgpt アクセス日時 3/15/2023.
(3) ChatGPTのベースとなった論文を簡単に解説①|ぽんぽん|note. https://note.com/modern_ferret431/n/nd422b9190567 アクセス日時 3/15/2023.