だから子どもの話し相手として生成AIは危険すぎる…言語学者33人が「AIおしゃべりアプリ」にゼロ賛成のワケ
平気でウソをつくAIのハルシネーション
Profile
生成AIの「おしゃべり機能」はどこまで人間の代わりになるか。『言語学者、生成AIを危ぶむ 子どもにとって毒か薬か』(朝日新書)を出した川原繁人さんは「例えば幼児が生成AIと会話することは、健全な成長や言語獲得の観点からはたして“安全”なのか、疑問が多い」という――。
「賛成ゼロ」で浮かび上がる限界
2024年の夏、「『AIおしゃべりアプリ』に対してどう感じているか」についてのオンラインアンケート調査を、共同研究者の折田おりた奈甫なほ先生とともに実施しました。
「おしゃべりアプリ」とは、生成AIを使って人と会話するスマホやPC向けのアプリです。子ども向け教育用や娯楽用として提供され、質問に答えたり雑談したりできます。
このアンケートに回答してくれたのは33名の言語学者です。詳細は「子ども向け生成AI搭載おしゃべりアプリの危険性について」という論文としてまとまっていますが(*1)、本稿では、より重要だと感じた意見に焦点をしぼって議論していきたいと思います。
まず「生成AIおしゃべりアプリを子どもに与えることに言語学者として賛成しますか?」という問いを尋ねたところ、「賛成=0(0%)」「どちらかといえば賛成=6(18%)」「どちらでもない=10(30%)」「どちらかといえば反対=10(30%)」「反対=7(21%)」という結果が得られました(図表1)。
「積極的な賛成派はいなかった」という点がもっとも大事だと思います。そして、半数が反対寄りであったということも強調したいと思います。「どちらかといえば賛成」とした言語学者もいましたが、少数派です。

どの回答についても、たくさんの自由記述コメントがよせられましたので、本書『言語学者、生成AIを危ぶむ』で深く議論していきます。ただ、各コメントを紹介する前に、このアンケートで明確にしていなかった前提――生成AIの出力が、言語獲得として使われるデータの中で、どの程度の割合を占めるのか――があったことを明記しておくべきでしょう。生成AIの出力が、どれだけ子どもの学習データを占めるかによって、おしゃべりアプリに対する意見が変わる可能性もありましたが、今回のアンケートでは、あえてこの点について限定せずに意見を募りました。
言語獲得をAIに任せるのはリスク
ただ、多くの自由記述回答では、次のように、「生成AIは主要なインプット(=学習データ)になるとは思えない」という前提で意見が述べられていました。
・生成AI「のみ」を母語のインプットとして育つ子どもがいるとは現実的に考えられないため、周囲の大人からの言語インプットがあるという前提では、母語習得そのものは影響なくできるだろう。 ・おそらく使ったとしてもほぼ無害ではないかと思います。子どもはAIだけからインプットを得るわけでは決してないので。(もちろん、周りの大人が一切音声言語で話しかけず、AIのみのインプットで母語が獲得できるか、みたいな思考実験は興味深いですが、実際にそのような実験をすることは倫理的に許されないと思われます。) ・養育者が普通に話しかけているのなら、余剰的にいろんなメディアで言語インプットを与えるのは構わないと思いますが、養育者の言語姿勢へのマイナス影響についても考えるべき。 |
|---|
二つ目の意見において、「AIの出力のみを学習データとして母語を学ばせることは倫理的に許されない」という前提が明示的に語られている点も重要だと思います。やはり、言語学の視点からは、生成AIに言語獲得を一任することは「倫理的リスクが大きい」と言わざるをえません。

























