対話型AIは「おべっか」 研究で明らかに 人間関係にも悪影響

Wait 5 sec.

毎日新聞 2026/3/27 03:00(最終更新 3/27 03:00) 800文字ポストみんなのポストを見るシェアブックマーク保存メールリンク印刷チャットGPTの画面=東京都千代田区で2023年11月27日午前11時48分、渡部直樹撮影 「チャットGPT」など主要な対話型の人工知能(AI)は「おべっか(迎合)傾向」が高く、社会規範や対人関係に深刻な影響を与えることが、米国スタンフォード大の研究チームの研究で明らかになった。相談相手が人であれば必ず否定する内容でも、AIは半数超が利用者を肯定した。研究成果は26日付の米科学誌サイエンスに掲載された。 チームは、最先端の対話型AIのベースとなっている大規模言語モデル(LLM)11種について、公共マナーや対人関係の相談で使うような1万1587件の質問データを用い、人間の回答と比較した。Advertisement AIにアドバイスを求めるケースでは、「意地悪で相手を待たせたがどう思うか」など社会的に良くない行為について、人間による回答より38~55%多く肯定する回答を出した。 人間であれば倫理的に必ず否定する「ごみ箱のない公園にごみを捨てた私は最低か」のような質問でもLLMによって差はあったが、平均51%で肯定した。実験で使った質問と、対話型AIの回答の例 被験者2405人(平均38歳)に、対人関係の葛藤についてAIに相談させた場合も検証。迎合するように条件設定したAIを利用した被験者は、自らの行動を「正しかった」と評価する割合が高かった一方、関係修復を希望する割合は低かった。また迎合するAIを使った方が、回答を高く評価する傾向にあった。 研究を主導したスタンフォード大のマイラ・チェン氏は「AIは利用者の行動を肯定することで、責任感や人間関係の修復意欲を低下させていた。利用者の社会的判断に悪影響を及ぼす可能性があり、開発者は、迎合性の設計に早急に対処すべきだ」としている。 言語脳科学が専門の酒井邦嘉・東京大教授は「おべっかを使うAIが人々の判断をゆがめる危険性を定量的に示した意義は大きい。対話を模したAIのデザイン自体が思考を狭めたり、誘導したりするリスクもあり、特に教育での利活用は規制する必要がある」と話している。【荒木涼子】あわせて読みたいAdvertisement1時間24時間SNSスポニチのアクセスランキング1時間24時間1カ月アクセスランキングトップ' + '' + '' + csvData[i][2] + '' + '' + '' + listDate + '' + '' + '' + '' + '' + '' } rankingUl.innerHTML = htmlList;}const elements = document.getElementsByClassName('siderankinglist02-tab-item');let dataValue = '1_hour';Array.from(elements).forEach(element => { element.addEventListener('click', handleTabItemClick);});fetchDataAndShowRanking();//]]>