AIの推論能力を測る「ARC Prize」とは?
近年、AIは画像認識や文章生成などで目覚ましい成果をあげています。
しかし、それらの多くは膨大なデータをもとにした「パターンの暗記」や「統計的予測」に頼るもので、人間のように“初めての状況”でも柔軟に推論できるわけではありません。
そんなAIの限界に挑戦し、「人間の知性にどこまで近づけるか」を測るための新基準が「ARC Prize」です。
ARCとは「Abstraction and Reasoning Corpus(抽象化と推論の課題集)」の略。
ここで出される課題は、3×3や5×5といったマス目(グリッド)の「入力」と「出力」のセットが数例示され、そのルールを見抜いて未知の問題に正しく答える、というものです。
たとえば「図形の色がどう変わるか」「どの部分がコピーされるか」など、一見シンプルですが、そこに隠れたルールを自分で発見する必要があります。
人間であれば「なんとなくわかる」「ひらめく」問題でも、AIにとっては非常に難しいものです。
実際、2025年時点のAIでも、多くのARC課題はまったく歯が立たない状況が続いています。
「初めて見るルール」や「複数のルールが組み合わさる問題」になると、とたんに正解率が下がり、人間の柔軟な思考との差が浮き彫りになります。
このギャップを埋めようと、世界の研究者やAIエンジニアが競い合っています。
最初に85%以上の正解率を記録したチームには賞金が用意されるなど、大きな注目が集まっています。
そしてこのARC Prizeの問題は公開されており、誰でも挑戦することができます。
次のページでその方法を解説します。