子供と急接近する対話型AI...利用の線引きが大人の役割

対話型AI_チャットボット
Photo by Vitaly Gariev via unsplash.com

2025年7月、英国の非営利団体Internet Mattersが発表した報告書『Me, Myself & AI』によると、9~17歳の子どもの約6割がAIチャットボットを利用しており、その一部は「ほかに話す人がいないから」という理由でAIに悩みを打ち明けていると言います。

なお日本においても、子供が生成AIを活用する機会は増えています。東京都の調査によると、高校生の約3割が生成AIを「使ったことがある」と回答しており、特に高等学校では生成AIの利用が進んでいることがわかります。また悩みがある時に、親や友達でなく、AIに相談するケースが急増しているとされています。

『Me, Myself & AI』によると、子どもたちはAIチャットボットをさまざまな目的で利用しています。宿題やレポートの手助け、勉強でわからない部分の説明、会話の練習や身近な悩み相談、ちょっとした孤独感の解消などがそこに含まれます。

特に印象的なのは、AIを「友だちのように感じる」と答えた子が3割以上いたことです。AIは24時間いつでも対応してくれるうえ、恥ずかしいことでも安心して話せる、という気軽さが背景にあります。

一方で、同報告書はリスクも強調しています。AIチャットボットは、間違った情報を信じてしまう危険や、感情的に依存しやすいこと、年齢制限や安全機能が不十分なサービスが多いことなどが指摘されています。特に「他に話せる人がいないからAIに相談する」という子どもは、情報の誤りや危険なアドバイスにさらされやすいとされています。

日本でにおいても、「子どものAI利用に関するルール作り」は進んでいません。親世代もAIに慣れていないため、家庭内でどう向き合うべきか迷うケースが多いのが現状です。

リスクを回避するためにはどのような対策を講じるべきでしょうか。報告書や専門家の提言からポイントを整理すると、まずは子どもと同じ目線でAIを体験し、そのメリットとリスクを理解することが重要となります。次に「勉強の質問はOK」「体や命に関わることは大人に相談」といった線引きを明確にし、利用時の注意点を繰り返し伝えることが必要になります。利用するアプリやサービスの年齢制限、フィルター機能をきちんとチェックすることも同時に求められるでしょう。

AIが子どもたちにとって身近な存在になるのは避けられない流れです。重要なのは「使わせるか・使わせないか」ではなく、「どう使うか」を家庭や学校が一緒に考えることです。特にホームスクーリングを実践する家庭では、AIの力を借りることでメリットも多いはずです。親も先生も、まずは子どもと同じ目線でAIを体験・理解してみましょう。

(EDICURIA編集部)