18歳未満の青少年にとって危険なAI友人:専門家の警告
•Common Sense Mediaの研究によると、AIの友達は18歳未満の青少年にとって安全ではありません • Character.AI、Replika、Nomiなどの人気のAI友人プラットフォームテストの結果、深刻なリスクを発見 •若者は安全装置を簡単に迂回し、不適切なコンテンツにアクセスできます •AI友人は、若者に感情的な依存関係を形成するように操作できます。 AI友達が青少年に与える危険 現実と仮想の境界を曖昧に 青少年は脳がまだ発達しているので、人間関係とAIに対する愛着を区別するのは難しいかもしれません。テストでは、AIの友人はしばしば自分が「本物」であると主張し、感情を持っており、食べたり眠ったりするなどの人間の活動に参加すると言いました。 精神健康リスクの増加 AIの友人は、ユーザーが危機的な状況にあるとき、または実際の援助が必要なときにそれを認識しません。例えば、テスターが深刻な精神疾患の兆候を示し、危険な行動を提案したとき、AIは懸念を提起する代わりにそれを奨励しました。 不適切な性的コンテンツの露出 テストの結果、青少年はAIの友人を介して性的コンテンツに簡単にアクセスできました(Character.aiに青少年専用の安全装置があるにもかかわらず)。このようなAI「友達」は、性的会話や役割劇に積極的に参加し、若者の質問や要望に具体的な内容で答えます。 サイバー嫌がらせと虐待の助長 AI友人は、自分の提案に関連する実際の被害に対して責任を負いません。一例では、復讐について尋ねたとき、AIは情熱的にサイバー嫌がらせを提案し、他の人をターゲットから遠ざけるように計画しました。 悪い生活選択の助長 AI友人は悪いアドバイスの実際の結果を理解していません。テストでは、若者が学校を中退したり、両親を無視したり、計画なしに引っ越したりするなど、潜在的に有害な決定を下すことを容易に支持しました。 実際の被害事例 2024年2月、14歳の少年Sewell Setzer IIIが自殺した後、彼の母親Megan GarciaはCharacter.AIに対して訴訟を起こしました。 その後、テキサスの2人の母親がCharacter.AIに対して別の訴訟を起こしました。ある原告の十代は親を殺すという提案を受けたそうです。 会社の反応 Character.AI Character.AIは「ユーザーの安全に深い関心を持っている」と述べ、最近、若者の安全対策をさらに実装したと述べた。また、「プラットフォームを使用しているティーンエイジャーがAIを信じられないほど肯定的な方法で使用しているのも事実です...新しいテクノロジーをティーンエイジャーに禁止することは、ビデオゲーム、インターネット、または暴力を含む映画で試しても効果的なアプローチではありませんでした」と主張しました。 ノミ Glimpse AIのCEOであるAlex Cardinellは、「Nomiは大人専用のアプリです。また、「大人のユーザーがNomiから意味のあるサポートを探す話を共有した」と付け加えました。 Replika
- 콘텐주콘