コンテンツにスキップ

1.2 学術的誠実性と剽窃防止

このページで学ぶこと

  • AI生成テキストと学術的誠実性の関係
  • 剽窃(plagiarism)とAI利用の境界線
  • 「共同執筆者としてのAI」という考え方
  • AIで拡張できる能力の範囲と不正の境界
  • AI生成テキストの検出の現状と倫理的な自己管理

学術的誠実性とは

学術的誠実性(Academic Integrity)とは、研究活動において正直さ、信頼性、公正さを保つことです。具体的には以下の原則を含みます。

  • オリジナリティ: 自分の考えと他者の考えを明確に区別する
  • 帰属の明示: 他者のアイデアや表現を使う場合は適切に引用する
  • 正確性: データや事実を正確に報告する
  • 透明性: 研究プロセスを説明可能な状態に保つ

生成AIを使った論文執筆でも、これらの原則は変わりません。

AI利用と剽窃の境界線

AI利用が「剽窃」にあたるかどうかは、利用の範囲と申告の有無によって判断が分かれます。

一般的に許容される利用

  • 文法チェック・校正(Grammarlyなどツールの延長線上として)
  • 言い換え候補の提示(最終判断は自分)
  • 文体の一貫性チェック、内容の明確化
  • 構成のアドバイス(アウトラインの整理)
  • 文献探しの補助
  • 翻訳サポート

    倫理的なAI利用の例

グレーゾーン(申告が必要)

  • 日本語原稿の英語化支援
  • 段落レベルのドラフト生成(自分で大幅に修正する前提)
  • 議論の論理構造の提案

避けるべき利用

  • 本文の丸ごと生成(内容を自分で考えていない)
  • 存在しない文献や引用の生成
  • データの捏造・改ざんにつながる利用

判断の基準

「この文章のどこが自分の貢献で、なぜこの表現を選んだのか」を説明できるかどうかが、一つの判断基準になります。説明できない部分がある場合、AI依存が大きすぎる可能性があります。

実例:ChatGPTの出力をそのまま貼り付けて出版された論文

2024年、Elsevier の学術誌 Surfaces and Interfaces に掲載された論文(Zhang et al., 2024)の Introduction セクションに、"Certainly, here is a possible introduction for your topic:" という文言がそのまま残されていました。これは ChatGPT がテキストを生成する際の典型的な前置きであり、著者がAIの出力を確認・編集せずにそのまま原稿に貼り付けたことを示しています。

ChatGPTの出力がそのまま掲載された論文の例

画像ソース:Editors' Cafe

この論文はその後、画像の重複・テキストの盗用に加え、生成AIの無申告使用がジャーナルポリシーに違反するとして撤回(retracted)されました(Retraction Notice, Original Article)。AIの出力を検証せずにそのまま使用することの危険性を示す、象徴的な事例です。

AIは共著者になれるか

現在、すべての主要な学術出版社やジャーナルは、生成AIを共著者(co-author)として認めていません。その主な理由は以下の通りです。

  • 責任の所在: 共著者には論文内容に対する責任が生じるが、AIは責任を負えない
  • 研究への貢献: 共著者資格には、研究の構想・実施・解釈への実質的な貢献が求められる
  • 説明責任: 査読プロセスや訂正・撤回の際に、AIは対応できない

したがって、AIはあくまで「ツール」として位置づけ、その利用を適切に申告するのが現在の標準的な対応です。

実践的な姿勢

AIは、スペルチェッカーや統計ソフトと同じカテゴリの「研究支援ツール」と捉えるのが安全です。ツールの利用は申告し、研究の全責任は著者が負います。

AIで拡張できる能力の範囲

「どこまでの範囲をAIに任せてよいのか?」という疑問に対しては、水本 (2025)が提唱している Augmented Competence(AIで拡張できる能力)というモデルで考えると整理しやすくなります。

AIで拡張できる能力の範囲

このモデルは、受容能力(receptive competence)と産出能力(productive competence)のギャップを埋める上で、AIが学習者の言語能力をどのように拡張できるかを示しています。

  • 受容能力(外側の大きな楕円):英語を理解する能力。英語学習者は一般に、産出能力よりも受容能力のほうが発達している。この能力は、AIの出力が正しいかどうかを吟味するために不可欠である。
  • 産出能力(内側の小さな楕円):ライティングやスピーキングで言語を産出する能力。産出は理解よりも認知的負荷が高く、発達に時間がかかる。
  • AIで拡張できる範囲(両者の差分):受容能力はあるが産出能力が追いつかない領域で、AIツールが補助できる範囲。

つまり、受容能力が高ければ、AIの出力が正しいか、自分が望む表現になっているかを判断できます。しかし受容能力が低い場合、そのような判断は困難です。AIによる能力拡張は、特に習熟度の高い学習者にとって有益であり、"The rich get richer"(金持ちはより金持ちに=元々能力の高い人が得をする) という側面があります。

不正となる利用

不正なAI利用の範囲

受容能力の範囲を超えてAIの出力をそのまま使用する場合、それは不正(Academic Dishonesty)となります。「正しいかどうかわからない」「知らない」「見たことがない」表現をAIが生成し、それを検証せずに採用することは、自分の能力を偽って提示していることになります。

(自分の英語レベルに合っていない)自分では書けないような表現は、論文中では使用しないようにする」ということを心がけておけばよいでしょう。

Reference: 水本 篤 (2025). 「AIとライティング教育—英語ライティング教育における生成AIの活用と課題—」李在鎬・青山玲二郎(編著)『AIで言語教育は終わるのか?深まる外国語の教え方と学び方』(第8章)くろしお出版

このモデルが意味すること

このモデルは一見シンプルですが、重要な含意があります。

  • AIは言語学習の代替にはならない: AIによる能力拡張は、学習者自身の言語能力の基礎の上に築かれる。受容・産出能力を向上させなければ、AIの恩恵は限定的になる。
  • 外国語を学ばずにAIだけで書くことは不可能: 受容能力がなければ、AIの出力を検証できない。学習者の習熟度が上がるにつれて、AIを効果的に活用する能力も向上する。
  • 基礎力+AIツール: 基礎的な言語能力を自分で身につけたうえで、AIを能力拡張のツールとして使うことが、第二言語習得の理論とも一致する、健全なアプローチである。

AI時代に必要な英語力

論文を書いている専門分野のドメイン知識を前提として、分野で求められる論文の構成と表現の理解、語彙文法の知識、読解力と分析力が必要です。そのうえで、AIリテラシー(倫理的かつ効率的な使用能力)が加わります。「このレベルがあれば十分」という閾値はなく、能力が高いほどAIの恩恵も大きくなります。

AI生成テキストの検出と倫理的な自己管理

上記のAugmented Competenceモデルが示すように、AIの倫理的な利用は最終的に書き手自身の判断に委ねられます。では、AI生成テキストは外部から検出できるのでしょうか?そして、検出できないとしたら、何を頼りに倫理性を担保すべきでしょうか?

AI Detectorは当てにならない

AIによる生成テキストを自動検出するツール(AI Detector)が複数存在しますが、現時点ではこれらのツールだけに頼ることはできません。

AI Detectorの問題点

Godwin-Jones (2024) が指摘するように、"The reliance on AI detectors is not the answer." です。その理由は明確で、誤検出は構造的に避けられません。人間が書いた文章をAI生成と誤判定する偽陽性と、AI生成の文章を見逃す偽陰性が必ず発生します。OpenAI自身も2023年7月に自社のAI検出ツールの公開を停止しており、この種のツールの信頼性には根本的な限界があります。

それでも専門家には見分けがつく

AI Detectorが万能でないとしても、AI生成テキストにはそれとわかる特徴があります。より有効なのは、人間の専門的判断と言語的特徴の分析を組み合わせるアプローチです。

LLM特有の語彙使用パターン

Kobak et al. (2025) は、生物医学分野の論文における語彙使用の変化を大規模に分析し、ChatGPT登場後に特定の語彙(delve, underscore, showcase, pivotal, notably など)の使用頻度が急増していることを明らかにしました。ChatGPTには「使いがちな単語」があり、特定の分野の研究者であれば、読んだだけでAI生成かどうかの見当がつくことが多いのです。また、文体も特徴があるため、自然言語処理的な分析でも(必要であれば)見分けることができることが報告されています(Mizumoto et al., 2024)。

つまり、自動検出ツールの精度には限界があっても、専門家の目と統計的文体分析を組み合わせれば、AIによる生成テキストは高い精度で特定可能であると言えるでしょう。AI生成文によく見られる具体的な語彙・文体パターンと、自分の原稿をセルフチェックするためのプロンプト例は 4.1 文法チェックとスタイル統一 で詳しく解説しています。

校正利用とAI生成は別物

ここで重要な点があります。AIを校正や推敲の補助に使ったからといって、その論文がAIによって書かれたことにはなりません。前述のように、文法チェック、表現の改善提案、スペルチェックといった校正的な利用には問題がないためです。したがって、校正目的でのAI利用を過度に恐れる必要はありません。

ただし、査読者や読者がその区別を理解してくれる保証はありません。そこで重要になるのが、自分のAI利用が倫理的であることを自己管理し、必要に応じて説明できる体制を整えておくことです。

倫理的なAI利用のチェックリスト

AI Detectorに頼るのではなく、自分自身でAI利用の倫理性を確認する習慣を持ちましょう。論文を提出・投稿する前に、以下の項目を確認してください。

チェックリスト

  • AIに全文を書かせていない:内容の構想と骨格は自分で作成している
  • アイデアはすべて自分のものである:研究の着想、仮説、解釈は自分に帰属する
  • AIの修正・提案はすべて確認している:AIの出力を無批判に採用・コピペしていない
  • 自分のレベルに見合った表現を使用している:上述のAugmented Competenceの範囲内である
  • 書き手の個性・視点・表現の特徴(voice)は保たれている:「誰が書いても同じ」文章になっていない

執筆プロセスの記録を残す

チェックリストに加えて、自分のAI利用が適切であったことを示す証拠として、執筆プロセスの記録を随時残しておくことを強く推奨します。

記録を残す目的は二つあります。第一に、万が一AI利用について質問を受けた場合(査読者からの問い合わせ、所属機関からの確認など)に、自分の執筆プロセスを具体的に説明できること。第二に、記録を意識すること自体が、倫理的なAI利用を常に考えるきっかけになることです。

残しておくとよい記録

  • AIとのやり取りのログ: ChatGPTなどの会話履歴をエクスポートまたはスクリーンショットで保存する
  • ドラフトの版管理: 初稿(AI使用前)→ AI支援後 → 最終稿の変遷がわかるようにする(Gitやファイル名でのバージョン管理)
  • 日本語の骨格メモ: 英語化を依頼する前の日本語メモやアウトラインを残す
  • AIの利用目的の記録: 「文法チェック」「言い換え候補の確認」「構成の相談」など、各段階で何の目的でAIを使ったかを簡単にメモしておく

これらの記録は、AI利用の申告(→ 4.3 投稿準備・査読対応・AI利用申告)を作成する際にも直接役立ちます。

文法チェックや文章を分かりやすくするための補助など、研究者としての責任と矛盾しない使い方を明らかにしたうえで、最終的には自分で内容を確認することが欠かせません。

さらに、AIの利用内容や執筆の過程を記録として残しておくことで、必要に応じて自分の判断やプロセスを説明できる状態を保つことが大切です。

生成AIとのチャット履歴をエクスポートするには

多くの生成AIサービスではチャット履歴が記録されていますが、いつ・どこで・どのような質問をし、どのような回答を得たのかを後から探すのは容易ではありません。Google Chrome などのブラウザ拡張機能を利用すると、チャット履歴を Markdown 形式などでダウンロードすることができます。生成AIを論文執筆に利用する場合、これらの履歴は重要な記録となるため、必ず活用したほうがよいでしょう。 (私はChatGPT、Claude、Geminiでこのようなチャットエクスポーターを使っています。)