ブログとしては、まだまだ、整理せずに、気になるトピック等を気がついたまま、書いていくことをまずは始めてみようかと、の、一つ目が、最近目にしたQ*(Qスター)のこと。
昨日、USのコンサルタントの方と、AIの言語処理とか、人間だとそんなにたくさんデータを読み込まなくても、子供は自然に言葉を覚えて、文法を覚えて発するようになるが、AIはまだまだ、そこに行けていない、ということを話しており、最近、読んだQ*の話にヒットしました。
Q*に関しては、12/16の週刊ダイヤモンドの記事や、Wired(https://wired.jp/article/fast-forward-clues-hint-openai-shadowy-q-project/)に出ています。
このQ*はWiredの記事では、以下のように書かれています。
「大規模言語モデル(LLM)による論理的な誤りを減らすことに焦点を当てたものだった。プロセス監視の手法では、問題解決に必要なステップを分析するためにAIモデルを訓練する。すると、アルゴリズムが正しい答えを得る可能性を高められるという。このプロジェクトでは、初歩的な計算問題で単純なエラーを犯すことの多いLLMをプロセス監視が助け、それらの問題へのより効果的な取り組みに役立つ可能性が示された。」
つまり、AIが普段行う膨大なデータ処理からで出てくるハレーションを、考え方を訓練することで、減らしていく、ということ目的としているということかと思います。
上記の昨日の会話(AIが言語を覚えること)について、このQ*の記事にあることも、同様に感じました。
小学生の算数ができるようになる、人間が算数を学ぶ、解く過程を学習することで、AIが人(の考え方、覚え方、想像の仕方)に近づくことになる、つまり、人間が処理できないようなデータ量を、人間の考え方や洞察で処理できるようになることを志向されている、ということかと思います。
技術的には、覚える力、考える力、を処理するための能力が益々求められますが、
人間的には、既に議論されているところですが、それを人間社会で使う倫理観が求められる、というところでしょうか。