1. HOME
  2. ブログ
  3. AI、そしてLLMの「創造性」について(「IISIA技術ブログ」Vol. 16)

AI、そしてLLMの「創造性」について(「IISIA技術ブログ」Vol. 16)

前回のこの「IISIA技術ブログ」においては”今をときめく”大規模言語モデル(LLM)に付き物である「幻覚(hallucination)」の、しかもその「効用」について論じたわけだが、いかがであっただろうか。あれから約2週間が経過したわけであるが、その間、筆者はというと国連大学マカオ研究所(UNU Macau Institute for Software Technologies)が初めて開催した「国連大学AI会議」に出席してきた。詳論は別の機会に譲ろうと思うが、その場でも研究者・参加者たちの口々から出ていたのは大規模言語モデル(LLM)に付き物である「幻覚(hallucination)」という表現であった。無論そこではその「効能」について述べる者はいなかったわけですが、他方で同会議では開催地であるマカオに隣接する大陸・中国がそもそも大規模言語モデル(LLM)では出遅れているということもあって、大規模言語モデル(LLM)についてハイライトした感じの会議ではなかったのが大変印象的であった。むしろ目を引いたのは中国第3位のレヴェルを誇る浙江大学から出席していた博士課程クラスの学生たちによる発表だったのであり、そこでメイン・テーマとなっていたのはmulti-agents modelと大規模言語モデル(LLM)のハイブリッド型を巡る議論であったことが大変気になった。元来、複雑なアルゴリズムがそれ自体必要とされていたmulti-agents modelであるが、大規模言語モデル(LLM)との組み合わせによってコーディングがかなり簡素なものになった印象を受けている。その社会実装を踏まえた活用について若い研究者たちが熱心に語り合っているのを見、「対話型モデル」やその「VOCへの応用」といった細かな議論にどうしても拘泥しがちな我が国における実務上の議論をはるかに超えて、もう少しすると今度は中国勢からmulti-agents modelをベースとした何か大胆なものが飛び出してくるのではないかといった期待すら抱いてしまったほどだ。他方、現場で知り合った浙江大学博士課程の女子学生曰く、AI(人工知能)の分野でPhDをとった者であっても、現在、中国勢の中では職を得ることが非常に難しいとのこと。ここにもまた、大きなリスクとチャンスが潜んでいることは間違いないと実感した。

画像

他方、この会議においてはデジタル人文学(digital humanities)のセッションも含まれており、これはどうやらウィーン工科大学(TU Wien)を抱えるオーストリア勢の拠出によって執り行われているようであった。同セッションではウィーンをベースに「デジタル人文学(digital humanities)」のグローバル・ネットワークが構築されていること等が紹介されていたものの、正直言って人文社会学出身の論者だけによる議論とあって、「ポエム」を聞いているかの様な錯覚に襲われてしまった。例えばいわゆるシンギュラリティ―(singularity)について、これは人工知能(AI)が(現状を前提とすると)過去データの内挿によるパターン・マッチングでしかないことを知っている(その意味で「手を動かすことの出来る」)研究者であれば誰でもその様なことはあり得ないと断言出来るのであるが、このセッションのパネリストたちの間ではどうやら違うようであった。汎用人工知能(GAI)が出来上がり、これが人類に匹敵することになった瞬間にこそ、人類にとって最後の「武器」となるのがデジタル人文学(digital humanities)だとでも言わんばかりの勢いなのである。これには正直びっくりした。

話を元に戻す。―――このコラムであらためて取り上げようとしている生成AIに付き物である「幻覚(hallucination)」についても、ややもすればこうした「デジタル人文学(digital humanities)」の潮流に飲み込まれかねないことのい留意しなければならないというのが筆者のまずもっての出発点だ。むしろ人工知能(AI)、そして大規模言語モデル(LLM)は過去データの内挿に基づくパターン・マッチングに過ぎない、しかし大規模言語モデル(LLM)でもヒューマン・インターフェースを対話型モデルにしてしまうと、最終的にパターンを質問とマッチ出来ずとも、何等かの「答え」を出してしまう危険性があるのであって、いわばその偶然にも近い形で生じるこうした現象に何を見出すか、という受け止め方の問題に過ぎないのだと割り切ってから、この議論は始めなければならないというのが卑見だ。かつて1980年代に我が国が取り組んだ「エキスパート・システム」の精緻化といった壮大な野望を目指しているわけではないはずなのだが、工学系の研究者だけで議論をすると、本来は社会実装が目的であったとしてもややもすると「質問に対して出てきた回答が”正解”であるかどうか」だけを見てしまいがちである。しかしこれはそもそもおかしいのであって、森羅万象のすべてを過去データでカヴァー出来ないのであって「幻覚(hallucination)」が生じるのは当然であり、そこで「誤った回答」を切捨てるよりも、そこに何等かの「意味」を見出すという人類が人類であるが故に試みることの出来る作用が働くことで人工知能科学研究も次のステップに進めるのではないかというのが卑見なのである。その意味で今年度(2024年度)はこの角度から「生成Aiと外交」というテーマ上で切り込んで行きたいと考えている次第なのだ。

この観点で大変興味深い論究に最近出会うことが出来た。[植原 23]である。

現代の哲学では、知的創造性が知的徳の1つとして位置づけられて、検討が加えられている。古代以来、哲学では長きにわたって創造性の本性についての考察が重ねられてきたが、近年では、徳認識論の研究が大きく進んだことを背景に、開かれた心や知的な謙虚さなどと並んで、称賛に価し、それゆえその涵養を目指すべき知的な卓越性——つまり知的徳(intellectual virtue)――として、知的創造性が論じられているのだえる。

このように、知的創造性が哲学の関心事であるならば、知的創造性について哲学的に考察する上で、AIは少なくとも無視することのできない存在だろう。(中略)知的な領域で従来にない新たな可能性を切り開いているケースが見受けられるからである。

[植原 23]はこの様に述べつつ、Ai(人工知能)及び認知科学の哲学を研究するマーガレット・ボーデン(Margaret Boden)の研究を取り上げる。ボーデンによれば創造性は「結合的(combinational)」「探索的(exploratory)」そして「変形的(transformational)」の3つに分かれる。そして「結合的創造性」とは、なじみのあるアイデアや人工物をなじみのない仕方で組み合わせることで新しく価値あるものを生み出すことを指している。次に「探索的創造性」とは、既存の概念空間の内部でまだ見出されていない新しいアイデアを発見することを意味している。そして最後の「変形的創造性」とは「探索的創造性」を一歩前に推し進めるものであり、概念空間そのものに根本的な変容を加えることを含んでいるとされる。

人工知能(AI)はこれら3つの内、前2者は大変得意であると[植原 23]は言う。いや、それ以上に「もはやそうしたタイプの課題はAIに積極的に任せるべき状況にある」とまで断言するのである。その一方で最後の「変形的創造性」についてはマータ・ハリナ(Marta Halina)の議論を援用しつつ、そこで述べられている心的シナリオ構築(mental scenario building)と領域特異的学習(domain-specifilc learning)に注目する。ここで前者は世界についての仮設を効率的に生成し、それを(現実の世界においてではなく)頭の中でテストすることを指している。また後者は世界のある領域のみに特化した学習を行うことを意味している。他方で[植原 23]は人間がしばしば陥りやすいバイアスの一つとして機能的固着(functional fixedness)に注目する。これはある物体を特定の機能のみを担うものととらえ、他の使い方を創造するのが困難になってしまう傾向のことをいうとされる。そして私たちが日常生活を何なくこなせているのはこの機能的固着のおかげであるが、同時にそれが領域一般的な性質についての知識を活用した変形的創造性の発揮を阻む要因となっていると[植原 23]はするのだ。そして議論をさらに一歩進め、AI(人工知能)から創造性を学ぶだけではなく、人間の創造性を直接的に高める道具としてそれを使うという方向性もあるとして次の様に語るのである。

1つは、機能的固着をはじめとする人間が陥りがちな思考スタイルの固定化をパーソナライズされた仕方でAiに明らかにしてもらうという用途である。個人の問題解決の過程をつぶさに間接し、大量のデータを収集して、問題へのアプローチに見られる各人の特徴を検出・分類する―――これはまさにAIが得意とする課題だ。そこに創造性の発揮を阻むような傾向が潜んでいることが判明した場合、それをAIに指摘させることで、思考スタイルの固定化が回避しやすくなる。もう1つは、広い変形的創造性の発揮の促進を目的に、領域一般的な性質についての認識を用いるようAiがサジェストしてくれる方向である。人間が難しい問題に取り組んでいるとき、領域特異的な解決を許さない、抜本的なアイデアを必要とする場面にしばしば突き当たる。そこでAIが当該の問題に含まれる条件や対象の持つ領域一般的な性質を検出して人間に提示すれば、それについての知識を活用した創造的な問題解決の可能性が開かれうる。

以上の[植田 23]の議論は筆者が現在、生成AIの社会実装、とりわけ外交へのそれに際して注目している大規模言語モデル(LLM)に付き物な「幻覚(hallucination)」の「正の側面」を炙り出す際、大変参考になるものである。「幻覚(hallucination)」というからには、それに出くわしたユーザーたる人間は大いなる違和感を隠せないはずだ。しかしそこに「有用性」が加わることが出来れば、一点してそれは「気づき」であるということになってくるのである。もっというならばその意味での「有用性」が気づきによって引き出される、すなわち機能的固着にはまってしまいがちなユーザー=人間における「バカの壁」を取り除いてくれるのであれば、もはや大規模言語モデル(LLM)が返してくる「回答」において真実性は無くても良いかもしれないのである。ここに社会実装にあたっての妙味があるのであって、「弱いAI(人工知能)」であればあるほど、実は有意な働きをしている場面があり得るという意味において、単なる数値的な評価基準(metrics)だけでは測りしえない「AI人工知能の真実」が見えるといっても過言ではないのだ。

筆者の人工知能研究はあくまでも人間における実社会への実装を巡る様相について、その人類社会全体にとっての「有用性」という意味での最適化を図るべく、探求するものである。その意味で以上見てきた「創造性とAi(人工知能)、そしてその周辺」を巡る論点はイヤーマークしておきたいと考え、記述した次第である。

2024年4月27日 東京・丸の内にて

株式会社原田武夫国際戦略情報研究所 代表取締役CEO/グローバルAIストラテジスト

原田 武夫記す

 

【文献一覧】

[植原 23] 植原, 亮:創造性という知的徳を人工知能から学ぶ, 『人工知能とどうつきあうか 哲学から考える』勁草書房, 2023, pp. 135-152.