すごく長い投稿で、技術的(数学的)な部分と哲学的な部分が混ざってる。私が考えるに、反省すべき最も印象的なポイントはこれだと思う。 > 「博士課程の初めての学生に研究をさせるための訓練が、ますます難しくなっているように思う。なぜなら、誰かをスタートさせるための明らかな方法は、比較的優しい問題を与えることだからだ。もしLLMが『優しい問題』を解ける段階にあるなら、それはもはや選択肢ではない。」数学に貢献するための下限は、LLMが証明できない何かを証明することになるだろう。もちろん、訓練は基本から始めなきゃね。みんなの数学の訓練は、小さな整数を足すことから始まるけど、計算機はずっと前から間違いなくそれをやってる。さらに別のコメントがこの点を確認している。 > 「難しい問題を解くことで、少なくとも自分の専門分野において、問題解決プロセス自体についての洞察を得られる。もし他の人の解法を読むだけなら、そういう洞察は得られない。」これの一つの結果は、難しい問題を自分で解いた人は、AIの助けを借りて問題を解くのがかなり得意になる可能性が高いってことだ。優れたコーダーは、そうでないコーダーよりもコーディングのセンスがいいみたいに。人々はコーダーにお金を払って、彼らが使うものを作らせるし、私はAIを使って早く成果を出して、雇われ続けることができる。数学でも似たようなことがあるかは分からないけど。再度投稿からの引用 > 「もし数学者が、LLMとの長いやり取りを通じて大きな問題を解決したとしたら、数学者が有用な指導的役割を果たし、LLMがすべての技術的作業と主要なアイデアを持っていたとしたら、それを数学者の大きな業績と見なすだろうか?私はそうは思わない。」