雑感シリーズ

生成AI(人工知能)の登場

2024.1.23更新

関東学院大学 教授
関東学院大学 材料・表面工学研究所 所長
香 西 博 明

 2022年末ごろから2023年前半にかけて、まるで人間が作ったかのような精巧な文章や画像を生み出す生成AI(人工知能)。米国発のチャットGPT(GPT: generative pretrained transformer)は公開からわずか1年で急速に普及した。これについての対応や考え方が学校・研究機関・官公庁・会社・マスコミ・政府などを巻込んだ社会的現象にもなっている。そこには否定的、肯定的を含むさまざまなリアクションも見える。そのような広範囲の影響はさておき、生成AIは私たち科学者やこれから科学研究に入る学生諸君にはどのような影響を及ぼすのでしょうか。そして、私たちの側としてはどのように対応をすれば良いのでしょうか。
 ところで、生成AIとはインターネット上にある膨大なテキストデータや画像データを学習し、質問(入力した単語)に適したオリジナルの返答を生み出す人工知能のことである。チャットGPTは一般にはとても有用な対話型AIであるが、教育現場では様々な問題を抱えている。
 教育面での問題には、容易にレポート課題を出せなくなるという点がある。チャットGPTは質問に応じてテキスト作成はもちろん、プログラミングや計算、英作文も可能である。そのため、学生がレポート作成などに容易に利用してしまうことが予想される。また、学生がチャットGPTを使ったとしても、同じ質問に対して、その返答の内容がほぼ同じであるにも関わらず表現が異なるため、剽窃チェックが難しいという現状がある。この問題に対し、教員にはレポート課題に対し、教育効果や成績評価法について相当な工夫が求められる。
 研究面での問題には、学術論文の剽窃や情報漏洩が挙げられる。剽窃については先ほども述べたが、チャットGPTの利用を剽窃チェックで判断することが難しく、不正投稿や二重投稿、著作権の侵害などの恐れが出てくる。この件については、論文作成に対する生成AIの利用に関する何らかの指針を出した方が良いのではないだろうか。情報漏洩については、チャットGPTに限って考えると、利用時に入力した情報は蓄積・学習され、それらが他人の質問の返答として使われる可能性がある。そのため、未発表の研究データなどを使って容易に学術論文を作成すると、その内容が漏洩してしまう恐れがある。
 ここまで不安を煽るような内容ばかりであったが、実際に使ってみないと分からないこともあるので実際に使ってみると、単純な専門用語の質問に対しては、納得する返答、間違いを含んでいる返答、全く見当違いの返答など様々であった。一方で、依頼文や提案書など、いわゆるビジネス文書の作成に関しては有用なツールである。
昨今、囲碁や将棋においてもカメラで盤上を把握し、AIで着手を判断し、電磁石を使ったアームで石を置く。「目」「脳」「手」を併せ持つ、家庭向けAI囲碁ロボット「Sense Robot Go」が「囲碁の日」の本年1月5日に発売された。AIによる新手が、逆に人間の新たな着想を生み出すなど、人とAIの協同作業が見られている。同様なことが研究分野でも起こっていくことが期待される。いずれにせよ、研究の方法や研究者の役割は、今後、AIの進展と共に大きく変化していくだろう。

 今回、久しぶりに雑感シリーズを執筆させていただきましたが、2024年3月発刊予定の関東学院大学工学総合研究所報(第52号)の巻頭言とほぼ同じ内容であります。