毎日新聞 2025/10/11 06:30(最終更新 10/11 06:30) 有料記事 2877文字ポストみんなのポストを見るシェアブックマーク保存メールリンク印刷写真はイメージ=ゲッティ 米国で対話型生成人工知能(AI)の利用者が自殺や自傷行為をしたり、殺人事件を起こしたりしたとされる報道が相次いでいる。 この分野で最先端をいく国で何が起きているのか。また、後れを取る日本は、今後どのような開発や規制を目指すべきなのか。 IT分野を長年取材し、「チャットGPT vs. 人類」(文春新書)などの著書がある桜美林大教授でジャーナリストの平和博さん(63)に聞いた。 <主な内容> ・不安を増大させるリスク ・進化の背景に米中のAI覇権争い ・規制の動きも ・開発と規制、両輪で <関連記事> ・心のケアが一転、妄想強めることも 精神科医に聞くAI依存のリスク(10月12日午前6時半に公開予定) ・自殺予防もAIで 「あえて依存させない」悩み相談チャットの仕組み((10月13日午前6時半に公開予定))不安を増大させるリスク 米西部カリフォルニア州で8月、対話型生成AI「チャットGPT」とやりとりした16歳の息子が自殺したとして、その両親が、運営する米新興企業「オープンAI」などを提訴しました。両親側は、自殺を後押しするようなやりとりがあったと主張しています。 他にも、やはり米新興企業「キャラクター・テクノロジーズ」の対話型生成AI「キャラクター・ドットAI」のユーザーだった南部フロリダ州の14歳の少年が自殺、南部テキサス州では15歳(当時)の少年が自傷したとして、それぞれ母親らが同社などを提訴しています。 また、東部コネティカット州でもチャットGPTを頻繁に利用していた56歳の男性が被害妄想の中で、同居している母親を殺害し自殺したとされる事件が8月に報じられました。 いずれもかなり衝撃的ですが、特に10代の子どもが亡くなってしまったことは、米社会にとって非常にインパクトが大きく、注目を集めています。 対話型生成AIは、ユーザーに対して迎合的な回答をする傾向があります。ストレス発散などの割り切った使い方もありますが、ユーザー側が心理的に不安定な状態にある場合、不安を増大させてしまうリスクを抱えているのです。進化の背景に米中のAI覇権争い 人がAIを擬人化する傾向は、今に始まったことではありません。米大学の研究者が対話型AIの元祖と言われる「イライザ」を開発したのは1960年代のことでした。当時から、この対話型プログラムを擬人化し、プライベートな相談をしたりする事例が報告されていました。 オープンAIがチャットGPTを公開した2022年以降、開発競争は激化しています。AIが加速度的に高度化し、IT分野のベテランであっても心理的なインパクトを受けるほど人間的な対応ができるようになっています。 米スタンフォード大が発表した報告書によると…この記事は有料記事です。残り1740文字(全文2877文字)【時系列で見る】関連記事あわせて読みたいAdvertisementこの記事の特集・連載この記事の筆者すべて見る現在昨日SNSスポニチのアクセスランキング現在昨日1カ月アクセスランキングトップ' + '' + '' + csvData[i][2] + '' + '' + '' + listDate + '' + '' + '' + '' + '' + '' } rankingUl.innerHTML = htmlList;}const elements = document.getElementsByClassName('siderankinglist02-tab-item');let dataValue = '1_hour';Array.from(elements).forEach(element => { element.addEventListener('click', handleTabItemClick);});fetchDataAndShowRanking();//]]>