AIに解決させるよりも危険なのは・・・?

1月に行われた大学入学共通テストは、生成AIの分野でも話題になりました。
GPT-5.2 Thinkingが9科目で満点を獲得したからです。

https://resemom.jp/article/2026/01/20/84722.html

まあ、突拍子もない問題を出すわけにはいかない共通テストですから、いずれは全科目満点はどこのAIでも取るようになるでしょう。

また、生成AIであるClaudeを開発しているAnthropic社が、自社の入社試験を自社のAIに突破され続けているという記事もありました。

https://gigazine.net/news/20260126-anthropic-claude-code-test-design/

だったら紙とペンを使った試験を、試験管の目の前で解かせればええやん、と軽く考えてしまいますが、そもそも今どきのアメリカの巨大スタートアップIT企業ではウェブ経由でのテストが当たり前なんでしょう。第一、AI企業として、AIを使うべきではないと公言するわけにはいかないですよね。

どの分野、どの業界でもAIとは完全に切り離した試験は不可能になりつつあります。もうこれは社会の不可逆的な変化であって、逆戻りは出来ないでしょう。

現行の生成AI、LLMが無限に進化し続けるとは私は思っていませんし、

https://www.gizmodo.jp/2026/01/limits-of-ai-capabilities.html

天文学的な投資を増やし続けているOpenAIが経済的な成功を収められるとも思っていませんけれど、AIを使った問題解決(学問でも仕事でも)はいずれ人類の行動のスタンダードになるでしょう。

問題解決(ソリューション)を全てAIに任せて、出力結果をAI利用者がチェックしないのは問題だと誰もが知っています。その問題は今後も人類に付きまとっていくでしょう。

それ以上に重要なのは、問題解決の結果が人間によるものだろうとAIによるものだろうと、その結果(解答)の正否チェックをAIに丸投げする方が危険です。この部分がAIによるチェックだけになってしまうと、出力をAIに丸投げする以上に、結果を信用できなくなります。

もっと言うと、そもそもその前段階としての、問題そのものの発見や構築をAIに任せっきりにしてしまう方が恐ろしいかも知れません。実際には問題ではない事象を重大な問題としてしまうこととか、逆に重大な問題を見過ごして軽易な事象を問題として取り上げた場合、前者はリソースの無駄使い、後者は後にもっと重大な危機を招く恐れがあります。

学生がレポートや論文をAI任せにしていることで嘆いている大学の先生は多いでしょうけれど、そのうち、レポートや論文のチェックをAIにぶん投げる人も出てくるでしょうし、入試問題をAIに作らせる人も出てくるでしょう。もしかしたらすでにいるかも知れませんけれど。

企業でも、決算書や社内文書をAIに読み込ませて、
「我社の課題は何?」
と聞く役員とか、大事なプレゼン資料をAIに作らせたままでクライアントに乗り込んで悲惨なことになる営業マンとかも出てくるんですかね。こっちの方はすでにいそうな気もします。

まあ今のところ一番やばそうなのは、昨年時点でAIにコードの3割を書かせているMicrosoft社だと思うんですよね。

コメント

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA