AI の現状: チャットボット コンパニオンとプライバシーの未来

Date:

Share post:

アイリーン・グオはこう書いています。

あなた自身に AI の友人がいないとしても、おそらく、AI の友人を知っている人はいるでしょう。あ 最近の研究 生成 AI の主な用途の 1 つは交友関係であることがわかりました。Character.AI、Replika、Meta AI などのプラットフォームでは、人々はパーソナライズされたチャットボットを作成して、理想的な友人、恋人、親、セラピスト、またはその他の思い描くペルソナを演じることができます。

ワイルドだ 人はなんて簡単に言うんだろう こうした関係が発展する可能性があります。そして 複数 研究 AI チャットボットが会話的で人間に似ているほど、私たちはそれを信頼し、影響を受ける可能性が高くなります。これは危険な可能性があり、チャットボットは一部の人々を有害な行為に駆り立てていると非難されています。 極端な例はほとんどありませんが、 自殺。

一部の州政府はこれに注目し、コンパニオン AI の規制を開始しています。 ニューヨーク AIコンパニオン企業に対し、安全策の策定と自殺念慮の表現の報告を義務付け、先月カリフォルニア州は 合格した より詳細な法案では、AIコンパニオン企業に子供やその他の弱い立場の人々を保護するよう義務付けている。

しかし、はっきり言って、法律が対処できていない領域の 1 つはユーザーのプライバシーです。

これは、AI コンパニオンが、他の種類の生成型 AI よりもさらに、日々のルーチン、心の奥底にある考え、実際の人には聞きにくいかもしれない質問など、非常に個人的な情報を共有するのに人々に依存しているという事実にもかかわらずです。

結局のところ、ユーザーが AI コンパニオンに伝えれば伝えるほど、ボットはユーザーの関与を維持する能力が向上します。 MIT研究者のロバート・マハリ氏とパット・パタラヌタポーン氏はこう語る。 呼ばれた 私たちが昨年発行した論説では「中毒性のインテリジェンス」について言及し、AI コンパニオンの開発者は「ユーザー エンゲージメントを最大化するために意図的な設計選択」を行っていると警告しました。