お知らせ

「生成AIの憂鬱」

2023.08.01

 ChatGPT代表される生成AIが社会全体として議論となっている。様々な分野での活用を望む声と共に、どの程度の信頼性をおいて良いのかという出力に対する評価、入力としての問いかけを通して流出する情報に対する秘密保持の観点からの懸念などが指摘されている。規制ではなく、この分野の適切な発展を促す施策が望まれる。
 教育分野での利用についても同様である。一律に禁止することは実際難しく、使用者の生成AIに対する正しい理解と、適切で効果的な活用を促すことが肝要である。
 では、このような生成AIの一番の問題点はどこにあるのか。それは、生成物の評価が難しい中で、どのように生成されたのかの生成過程が不明であることにある。現状、個々の生成AIにおいて、システム全体の構造も、また、詳細も明確にされていない。各社の重要なトレードシークレットと言う点で公表が難しいことは理解できるが、出力文が作られている過程が不明では、その信頼性を評価することが難しい。GPT(Generative Pre-trained Transformer)では、質問文を出力文に変換する作業は、Transformerと呼ばれる、ある種の人工的なニューラルネットワーク(神経回路網* )をコンピュータプログラムの形で実行することで実現されている。そもそも、ニューラルネットワークは、その構造上、入力から出力への変換の根拠、理由を示すことができない* 。事前に与えられたデータから作られたニューラルネットワークを用いて、入力に対して最もありそうな言葉の列を出力しているにすぎない。加えて、このニューラルネットワークが、どのようなデータを用いて構成されたのかも不明である場合が多い。用いたデータに偏りや誤りがあれば、変換に偏りや誤りが含まれることは当然であり、構成に用いたデータの開示も重要な点である。
 このように、生成AIの出力については、それを利用する者が能動的に、その内容について吟味、評価する必要がある。あらゆる種類の質問に対する出力の品質について、総合的に客観的な評価をすることは難しいのである。使用者自身が責任を持って利用することに尽きる。かつて電卓の普及が進み家庭でも手軽に利用できるようになったとき、人の計算力の低下、特に、教育面での利用の難しさが言われた時代があった。このように、産業革命から始まる様々なシンギュラリティを人類は乗り越えてきた。今回の、生成AI、大規模言語モデルの急激な発展もそのような通過点である。

 もう一つ、蛇足がある。この分野の研究においては、このようなシステムの動作を擬人的に表す習わしが昔からある。「学習」、「訓練」、「対話」、「教師あり/なし」などの言葉は、それぞれ、「値の修正」、「最適化」、「入出力のやり取り」、「望ましい出力がある/ない」に置き換えることができる。我々は、擬人化されていることで、人間が持っている一定の倫理観のような常識が出力には当然含まれているという誤解を持ってはいけない。

-------------------------------------------------------------------------
* 生物の神経細胞の繋がり、ネットワークを、神経回路網を呼ぶ。
* 説明可能なニューラルネットワークの研究も行われている。