TOPICS

ChatGPT等の生成AI利用に関する本学の方針と留意事項について

学生の皆さんへ


ChatGPT等の生成AI利用に関する本学の方針と留意事項


副学長(教育担当) 大山峰生
研究科長      佐藤大輔


 

近年、AI技術の発展により、ChatGPT等の生成AIが登場し、我々の生活に入り込んできています。生成AIは既に実用化され、業務の効率化に貢献しており、今後はさらに専門性の高いAIが登場し、一般的な利用も可能になるでしょう。
生成AIは、大学教育現場においてもプラスに活用されることも考えられます。一方で、学生(学部生・大学院生)がAIを使ってレポートや学術論文を作成することで「本来の教育効果が十分に得られない」、「適切な成績評価が難しくなる」といった懸念も生じます。何より、「学生が主体的に学び研究する」高等教育機関(大学・大学院)の存在意義を否定することにも繋がりかねません。
学術界においても、生成AIの使用に対して強い懸念が示されています。Science誌では、編集方針に次のような内容が記述されています。
「AI、機械学習、または同様のアルゴリズムツールから生成されたテキストは、Science誌に掲載された論文に使用することはできません。また、これらのツールによって生成された図、画像、グラフィックも、編集者の許可なしに利用することはできません。さらに、AIプログラムはScience誌の論文の著者にはなれません。このポリシーに違反した場合は、科学的不正行為に該当します。」
また、2023年1月24日のNature誌のEditorialにおいても、以下のように指摘されています。
「科学は、その初期から、どのような技術が流行したかにかかわらず、方法と証拠についてオープンで透明性の高いものです。研究者は、不透明な方法で動作するソフトウェアを使用した場合、それによって得られた知見の透明性と信頼性がどのように維持されるかを自問すべきです。最終的に研究は、方法の透明性、著者による誠実性と正確性を有していなければなりません。これこそが、科学が進歩するための基盤なのです。」
では、本学は、生成AIとどのように付き合っていくべきなのでしょうか。慎重に議論されるべき課題ではありますが、本学は「(より)優れたQOLサポーターの育成」を教育目標として掲げており、学則において、「教育基本法および学校教育法の精神に基づき、広く保健・医療・福祉に関する専門の学芸を教授研究し、豊かな人間性と高潔な倫理性を涵養し、保健・医療・福祉に関する指導的人材の養成を目指し、もって学術文化の発展に寄与し、人類の福祉の向上に貢献すること」を目的として定めています。その実現には、「自らが学ぶこと」が不可欠です。レポートや小論文等は、学生の有する知識、アイデア、結果・考察等を他者が理解できるように表現したものであり、加えて、学位論文等は、新しい価値を創出することで、社会の発展に寄与するためのものに他なりません。つまり、学生自身が、さまざまな情報を収集・統合し、表現するというプロセスこそ、学位授与の方針(ディプロマ・ポリシー)の達成に最も重要であり、そのプロセスを経ていないレポート、小論文および学位論文等は、教育上の一切の価値を持ちません。この基本原則にもとづいて、本学の学生や教職員が正しくChatGPTなどの生成AIに接していただくことを切に願っています。
以上の点を踏まえ、生成AIの利用についての本学の方針および留意事項を以下に示します。

|本学の方針
1. 本学では、教育・研究活動における生成AIのツールとしてのメリットとデメリットを考慮し、現時点では、生成AIを正しく、賢く使うこととし、使用を禁止とすることはしません。学生・教職員の(より)優れたQOLサポーターとしての矜持を信頼し、豊かな人間性と高潔な倫理観にもとづいて、生成AIをツールとして使いこなすことを期待します。生成された情報をそのまま自身の考えとしてレポートや学位論文等に反映させることは、皆さんが生成AIに隷属することにも等しく、不適切であると言わざるを得ません。
2. 教育・研究活動において生成AIの使用が許容される程度(禁止の有無を含む)は、カリキュラム・ポリシーにおける当該科目の位置づけ、授業の目的・到達目標、授業の内容・方法、評価方法・基準、成績評価等に委ねられます。各授業担当教員の指示に従ってください。なお、入学者選抜試験における生成AIの使用が許容される程度(禁止の有無を含む)は、アドミッション・ポリシーにもとづく評価方法・基準、成績評価等によります。

|留意事項
1. 出力内容の信憑性「生成AIは、もっともらしい文章で”嘘をつく”ことがある」
生成AIは、既存のレポートや論文の要約、言語翻訳、プログラミングなど、大量のデータが蓄積されている分野においては、極めて正確な結果を生成することも多くあります。一方、その内容には、誤りや剽窃等を含むものもあり、その評価は信頼できるものには至っていません。生成AIの課題は、もっともらしい文章で”嘘をつく”ことであり、出力された内容を鵜呑みにすることは、人が考えることを放棄することにも繋がりかねません。したがって、生成AIの使用には、相当の専門的な知識が必要であり、生成された内容の真偽を見極め、修正することが求められます。

2. 倫理的な配慮と情報漏洩の危険性
生成AIは、学生・教職員の高潔な倫理観のもとで利用されることが前提となります。生成AIへの入力内容は、他者が引き出すことも可能であると認識し、教育・研究活動および社会連携活動等で知り得た情報、入学者選抜試験を含む各種試験問題、個人情報等を生成AIに入力することは絶対にあってはなりません。また、生成AIの学習データには潜在的なバイアス(性別、人種、宗教等に関する偏見や先入観)や毒性(有害・攻撃的なコンテンツを生成する能力)があることも認識する必要があります。

3. 著作権侵害や剽窃の危険性
テキスト生成および画像生成系のAIでは、入力されたデータ・画像や生成されたデータ・画像の著作権侵害に関する問題が生じています。生成AIで出力した内容が、将来的に訴訟の対象になる可能性があると認識する必要があります。また、学位論文等の作成において、生成AIでの出力内容をそのまま記載することは剽窃とみなされる場合があり、重大な研究不正になる危険性を認識すべきです。したがって、教員は、そのことを認識した上で、レポートや学位論文等を評価・審査する必要があります。

|参考
● 生成AI(Generative AI)の倫理的・法的・社会的課題(ELSI)論点の概観:2023年3月版 - 大阪大学 社会技術共創研究センター(ELSIセンター) 大阪大学 社会技術共創研究センター(ELSIセンター) ELSI_NOTE_26_2023_230410.pdf (osaka-u.ac.jp)

● 生成AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について.東京大学理事・副学長(教育・情報担当)太田邦史 https://utelecon.adm.u-tokyo.ac.jp/docs/20230403-generative-ai

● ChatGPT等の生成系AI利用に関する留意事項.東北大学デジタル教育アドバイザリ・グループ(座長:青木孝文理事・副学長)https://olg.cds.tohoku.ac.jp/forstaff/ai-tools

● 学修における生成系人工知能の使用に関する本学の考え方について.東京工業大学理事・副学長(教育担当) 井村順一 https://www.titech.ac.jp/student/students/news/2023/066590