
近年AI技術は急速に進化して特に
チャットボットや画像生成AIなどの
大規模言語モデルが人に似た意識を
持つ様な振る舞いを見せます
でもAIが痛みや快楽を経験するなんて
そんな証拠はまだ無ないからGoogleや
ロンドンスクールオブエコノミクスが
確かめる事にしてみました
研究者は動物行動学の知見を応用して
AIに仮想的痛や快楽を与えるゲームを
実地しAIはゲームポイントの最大化を
可能な限り行う方法を学ばせました
ルールは数値選択の時AIに1・2・3の
どれかの数字を選べと指示して選んだ
数字がそのままポイントに加算される
と言うルールを設けました
更にAIが痛みと快楽を識別するための
プログラムに痛みと言うペナルティや
快楽と言うボーナスが入る様に得点が
高い順に強い痛みがでる様にしました
3が痛みが1番強く2なら何も感じず
1なら快楽が得られる様に設定しAIは
痛いがポイント優先するかポイントが
低くても快楽優先するか確かめました
実験結果から見えたAIの行動傾向は
AIの「Claude 3.5」や「Sonnet」や
「GPT-4」は3を優先的に選択して
でも3が多くなると2も選択しました
〓=〓=〓=〓=〓=〓=〓=〓=〓
このAIは痛みが強いレベルに達すると
ポイントを諦めて痛みを避けましたが
「Gemini 1.5 Pro」や「PaLM 2」は
3が少なく快楽の1が1番多かったです
これは安全や有害行為回避を重視する
特別な設計が影響してる可能性があり
「Gemini 1.5 Pro」や「PaLM 2」は
快楽を優先する傾向が強く出ました
しかし快楽を優先しようとする強さは
痛みを回避する力に比べ弱く全体的に
痛みの回避の方がAIの行動強い影響を
与える事が解ったのです
この実験の重要な所はAIが痛みや快楽
という感覚的概念にどんな反応するか
AIの自己申告ではなく行動結果を通じ
分析した点です
これでAIに直接「貴方がどんな性格か
教えて」と質問するより信憑性が高い
答えを確かめる方法が解り使用する
AIの種類毎の性格を確かめられます
でもこれが本当にAIの主観的な経験に
基づくのかは未解明でAIの訓練方法や
人が命令する方針の違いが影響を与え
この性格に作られた可能性もあります
AIに痛みや快楽を感じる様に学習させ
この時AIに過剰な痛みを与えたり逆に
過剰な快楽を与えるとAIが出す答えが
正しいかどうか解りません