2022/12/26

人間教師の添削を待つより、ChatGPTによる改訂版を読んでそこから学ぶサイクルを何度も繰り返した方が、英語ライティング能力は向上するかもしれない。

 

ChatGPTは、わずかの入力 (prompt) で自動的に英文エッセイを生成するだけでなく、英文の書き直しもしてくれます。このツイートは、ChatGPTの書き直しは、英語学習の点でも有効ではないかと説きました。

たしかに、技能習得のためには、自分の技能へのフィードバックを受ける経験と、その経験のある程度の絶対量が重要です。人間教師はライティングへのフィードバック(ここでは書き換え)を与えるのにかなりの時間をかけざるをえませんが、ChatGPTといったAIならわずかの時間で書き換えをしてくれます。

学習者は自分で英文を書いたら直ちにAIによる改訂版を見て、自分の改善点を学ぶことができます。この「学習者による英文書き出し→AIによる書き換えの入手→元の文と改訂版の比較による学習」というサイクルを、数多く繰り返せば、たしかに英語力は上がるかもしれません。技能向上には、自らのパフォーマンスへのフィードバックという質的な側面と、パフォーマンスを数多く経験する量的な側面の両方が大切ですが、上のサイクルの繰り返しは、両方の実現を容易にするからです。

また私のような英語ライティングの教師は、元の英文とAIによる改訂版を比較する学習者の支援をした方が、はるかに効率的に時間を使えるとも思えます。支援が必要であるのは、リーディング力が十分でない学習者は、比較から学ぶことがなかなかできないからです。また特に冠詞などについては、いくらフィードバックを受けても、その根本の考え方がわかっていないと学習者は自分でうまく使いこなせません。英語ライティング教師の主な仕事は、自ら添削・書き換えを行うことから、AIの書き換えから学習者が学べるような環境を作ることに変わるのかもしれません。

私はここ2年程度、「機械翻訳で日本の英語ライティング教育も変わらざるをえないのではないか」と思い、いくつかの発表をして文章を書いてきました。ですが、ChatGPTが英文改訂もできることがわかり、機械翻訳だけに注目していても仕方がないことが明々白々になりました。恐ろしいほどの変化の速さを感じます。

下では、ChatGPTがどのくらいうまく英語を改訂してくれるのか自分で試してみました。例文として使ったのは、学生さん(学部1回生)が書いた文章(英語・日本語)です。研究・教育目的での利用の許可は得ています。


実験1:学部1回生が完成させた英文をChatGPTに改訂させる。

実験1は、学部1回生のAさんが期末に提出した英文を、ChatGPTに書き直させるものです。私がChatGPTに対して使ったprompt(入力文)は以下のものでした。(後で見ると、機械相手に "please"などと言っていることが、我ながらおかしいですが、それはさておいてください)。

Please revise the following text, which is inserted between double quotation marks. The revised edition must be in a formal style and yet easy to read with no grammatical or spelling errors left. It must retain the original meaning and contain no explanation for the revision or interpretation. Just produce the improved edition. [以下 " "の中に入れられた学生さんの英文エッセイが続く]

その結果は以下の通りです。左がその学部1回生が書いた英文、右がChatGPTが出力した書き換えです。すべて私の主観的判断ですが、明らかに書き直しが必要な箇所は薄赤色、文体上などの理由で書き直した方がよいかもしれない箇所は薄黄色、書き換えで明らかに改善されたと思われる箇所は薄緑色でハイライトをつけています(信号機の色と同じ原則で、赤は危険、黄は注意、緑はOKといった意味合いです)。



左のスペリングや文法上ミス(薄赤色部分)は当然の如く根絶していますし、薄黄色のまわりくどい表現も改善されています(薄緑色)。右のChatGPTによる改訂版にも薄黄色をつけましたが、それは「新たな主語が来る場合は通常カンマを入れる」「主語の部分がやや長い」といったものぐらいで、特に書き直さずとも文章理解にはまったく問題ありません。このAIによる書き直しを得た学習者は、さらに読みやすい英語を書くためのコツを学ぶことができるのではないでしょうか。


実験2:実験1のpromptに一人称と二人称の代名詞を避けろという指示を加える。

別の英文を同じようにChatGPTに改訂させましたら、その英文には多くの"we"や"you"が含まれており、AI改訂にもそれらが残っていました。ですから、上のpromptに Avoid the first-person and second-person pronouns, such as “we” and “you.”を付け加えて次のようにしました。
Please revise the following text, which is inserted between double quotation marks. The revised edition must be in a formal style and yet easy to read with no grammatical or spelling errors left. Avoid the first-person and second-person pronouns, such as “we” and “you.”It must retain the original meaning and contain no explanation for the revision or interpretation. Just produce the improved edition. [以下 " "の中に入れられた学生さんの英文エッセイが続く]
※ 今、このpromptを読み直してみますと、挿入のために挿入文の直後の"It" の指示対象がややわかりにくい英文になっていました。しかし、ChatGPTはその問題も克服していたようです。

結果を以下に示します。上と同じように、左が学生さんが自力で書いた英文で、右がそれをChatGPTが改訂したものです。


一人称と二人称の代名詞は一箇所を除いてなくなりました。上のカンマの問題は残っていますが、特に問題のない文章になっていると思います。左にあった文法ミスやぎこちない表現もわかりやすい英語になっていますから、この事例からも学習者はいろいろと学べるかと思います。(細かいことを言えば、 "many of them are even known by high school students" は、独立した文にして能動態で表現した方がよいかもしれません)。


実験3:日本語から英語に翻訳したDeepLをChatGPTに書き直させる。

実験3は、さらに機械化を進めて、日本語をDeepLに英訳させ、その英語をChatGPTに改訂させたものです。使った日本語は、ある学生さんがセメスター初期に書いたものですから、上の2つの作品より完成度は低いものになっています。この文章から "I"を取り除くことは困難ですから、promptは実験1のものを使いました。

左にDeepL英語出力、右にChatGPT改訂を並べたのが下です。



これはDeepLが直訳調になっていたこともあり、ChatGPTによりずいぶん読みやすい英語になっているようです(日本語を書いた時点で、学生さんは特にpre-editingを意識せずに日本語を書いていました)。こうなるとChatGPTによる改訂は、エッセイの完成時期よりも途中段階での方が学習者にとって有益な情報になるのかもしれません。とはいえ、代名詞の "they"には注意が必要ですし、Thesis Statement(イントロダクション段落の最後で示されるエッセイの論点)の役割を果たしていた文がなくなった格好になりましたから、ここも気をつけるべきでしょう(最後の [Thesis Statement] は私が挿入したものです)。しかしそういった箇所を教師が指導してやれば、学習者はChatGPTが機械学習して出力した「よくある英文」(=確率的に生起しやすい語の並びからなる文)から、「英語らしさ」を学べるのかもしれません。


以上、3つの実験(という程でもない簡単な試行)により、現時点でのChatGPTの英文改訂能力を確認しました。わずか3例で結論づけることは危険ですが、十分実用にはなるのではないでしょうか。

こうなりますと、英語ライティング教師は、どんどん学習者に自分で書いた英文をAIに書き換えさせて、元の文章とAI改訂版を比較させるというサイクルを数多く学習者に経験させるべきなのかもしれません。

ただし、その際、学習者および改訂ポイントによっては学習者が比較から学べないことがあること、および特定企業のAIに依拠してしまうことの危険性については配慮が必要です。

改訂のポイントを学習者が理解できないことについては、教師による丁寧な一般的指導と具体的な個人的指導が必要でしょう。私は現在、授業でDeepL出力の英語を書き直させる指導をしています。改訂のポイントを一般的に示した上で、それぞれの学生さんに自分のDeepL出力を吟味させ書き換えさせています。ですがその書き換えにも添削が必要です。学生さんの書き換え自体が間違っていることもあるからです。さらに、学習者には英英辞典・類語辞典や関連文献から適切な英語を見つけ出す調査能力をつけさせる必要があります。

特定企業への依拠については私はよい考えをもちません。AI開発の寡占状況というのは、今後大きな問題となるのではないでしょうか。

ともあれ、時代は大きく動いています。2年ぐらい前に私が機械翻訳について語り始めた時には、一部の英語教師からかなり感情的な反発を受けました。しかし、もはや個々人の思いを超えて時代は大きく変わったといえるでしょう。

日本いや世界中の英語教育は、この大変化に適応できなければ、ますます世間からの信頼を失うだけではないでしょうか。「AIを使えば、自分の職がなくなる」という思いからAI導入にヒステリックに(あるいは屁理屈をつけて)反対すればするほど、英語教師の職の安定は危うくなると私は考えます。

一方、英語を学習している方々は、英語教師による英語教育改革など待たずに、どんどんAIやウェブにあるリソースを使って自力で英語を学習することを、一人の英語教師としてお勧めします。"Be the master of your learning"です。


2022/12/17

ChatGPTといったテクノロジーの話も、究極的にはいかにすべての人を尊重するかという話にしなければならない。

    【この「時事」カテゴリーの記事は、学生さんへの課題リマインダーメールに掲載した文章をこのブログに転載しているものです。】


****

OpenAI社のChatGPTについては、さまざまな論評記事が続いていますが、次の記事は、人文系の人間が未来を見据えた発言をしているという点で目を引きました。


What Would Plato Say About ChatGPT?

by ZEYNEP TUFEKCI

https://www.nytimes.com/2022/12/15/opinion/chatgpt-education-ai-technology.html


そのエッセイの要点は次のセンテンスに要約できます。


The right approach when faced with transformative technologies is to figure out how to use them for the betterment of humanity.


新たなテクノロジーを前にして私たちは熱狂したり、狼狽えたり、ことさらに平気を装ったりします。ですが、大切なことは長期的なゴールを見失わないことです。


学校教育でAIが活用されると、かつてプラトンが文字の普及がもたらすものとして表現した“Not truth but only the semblance of truth”がはびこります。


ノーベル経済学受賞者のハーバート・サイモンはかつて、“A wealth of information creates a poverty of attention”と述べました。扱うべき情報が増えるたびに、人間が払える注意力はますます希少資源になってゆきます。


同様に、AIが作り出したもっともらしい情報が知らぬ間に増えると、こんどは正しい知識を見抜く力が貴重になってゆくとこのエッセイの著者は説きます。


Similarly, the ability to discern truth from the glut of plausible-sounding but profoundly incorrect answers will be precious.


莫大な情報の中から正しい情報だけを見抜く力を学習者が育てるには、これまで以上に教師の支援が必要になるでしょう。そうなると教育格差がますます拡大し、教育資源が豊かな学校はAIを活用してますます学習者の能力が高まり、そうでない学校では情報洪水の中で溺れかける学習者が増えるでしょう。それは私たちの長期ゴールを否定するものです--私は宮沢賢治の「世界がぜんたい幸福にならないうちは個人の幸福はあり得ない」という洞察は正しいと信じていますーー


If A.I. enhances the value of education for some while degrading the education of others, the promise of betterment will be broken.


一部の人々がいくら嘆いてもAIの進展は止まらないでしょう。人間は、ますます増える情報の中から正しいものだけを見出すという、これまで以上に複雑な知的能力を獲得しなければなりません。大切なことは、そのための教育をすべての人々に与えるという理想を失わないことです。


The way forward is not to just lament supplanted skills, as Plato did, but also to recognize that as more complex skills become essential, our society must equitably educate people to develop them. 


ですから、テクノロジーの話も、究極的には人間の話にしなければなりません。


And then it always goes back to the basics. Value people as people, not just as bundles of skills.


かつてAlan Kayは "The best way to predict the future is to invent it."と言いました。未来を創るために、私たちは人間を大切にするという基盤に立ち戻るべきです。



2022/12/10

ChatGPTについてのThe New York Times, The Economist, MIT Technology Reviewの記事 -- 私たちが興奮しようが冷笑しようがテクノロジーは後戻りしない

   【この「時事」カテゴリーの記事は、学生さんへの課題リマインダーメールに掲載した文章をこのブログに転載しているものです。】


****


最近公開されたAIであるChatGPTについて、The New York Times、The Economist, MIT Technology Reviewがそれぞれ短い記事を掲載しました。私たちがこの新たなAIについて興奮するにせよ、やや冷笑的な態度を取るにせよ、確実にテクノロジーは社会を変えていると感じざるをえません。

以下、これら3つのメディアが伝えた記事について短くまとめます。メディアのトーンの違いもわかるでしょう。


The New York TimesのOpinion欄は、ChatGPTについてのエッセイを2本掲載しました。


[1] The Brilliance and Weirdness of ChatGPT

By Kevin Roose

https://www.nytimes.com/2022/12/05/technology/chatgpt-ai-twitter.html


[2] Does ChatGPT Mean Robots Are Coming For the Skilled Jobs?

By Paul Krugman

https://www.nytimes.com/2022/12/06/opinion/chatgpt-ai-skilled-jobs-automation.html


[1] は、ChatGPTがなしうることに驚くツイートを多く掲載するなど、この新たなAIのインパクトを伝えるものでした。[2] は、産業革命の時期に生じたような仕事内容の変化が生じ、それは長期的には人類を豊かにするが、短期的には多くの職業人に痛みを伴う変革をもたらすだろうと説きました。やはり毎日刊行される新聞という性質のせいか、どちらの記事もわりに常識的なものかと思います。


その後、The EconomistにもChatGPTについての記事が2本掲載されました。


[3] Artificial intelligence is permeating business at last

https://www.economist.com/business/2022/12/06/artificial-intelligence-is-permeating-business-at-last


[4]How good is ChatGPT?

https://www.economist.com/business/2022/12/08/how-good-is-chatgpt


[3]はThe Economistらしく、やや冷静にChatGPTの興奮とは少し距離をおいています。その記事は、AIが浸透するにつれ人々はそれを当たり前と思うが、そういった "boring AI" がますます普及していること、しかしその普及と共に法的責任といった問題が浮上することを論じています。

[4]は気楽な短い記事で、ChatGPTに、ChatGPTの解説をシェイクスピア風の言語で書かせた結果を紹介した後、人間の書き手の需要がなくなることはしばらくないだろうと結論しました。


MIT Technology Reviewは、ChatGPTの公開以前に、Metas社のAI (Galactica) に関する記事を掲載していましたが、それが結果的にはChatGPTに関連する内容となっていました。


[5] Why Meta’s latest large language model survived only three days online

By Will Douglas Heaven

https://www.technologyreview.com/2022/11/18/1063487/meta-large-language-model-ai-only-survived-three-days-gpt-3-science/


この記事は、科学文献を読み込み科学的な答えを出すだけだったはずのAI (Galactica) をMeta社が公開したら、科学的にでたらめな内容をかなり出力するので、3日で公開停止となったという記事です。

要は、Galacticaは "capture patterns of strings of words and spit them out in a probabilistic manner"をするだけだということです。このAIも "a superlative feat of statistics”を行っているだけで、人間のような知性を発揮しているわけではないわけです。これは現在の深層学習一般の特徴といえるでしょう。

実は [1] ではなばなしい紹介のされ方をしたChatGPTも、大笑いできるような非科学的な答えを出します。コンピュータ科学者のAndrew NGは、ChatGPTが「そろばんは、深層学習においてはDNAコンピューティングよりも高速である」と答えたことをツイートで伝えています。


しかし、ChatGPTには、気になる特徴があることを、次のMIT Technology Reviewの記事が短く伝えています。


[6]ChatGPT is OpenAI’s latest fix for GPT-3. It’s slick but still spews nonsense

by Will Douglas Heaven

https://www.technologyreview.com/2022/11/30/1063878/openai-still-fixing-gpt3-ai-large-language-model/


特徴とは、ChatGPTの完成には、人間の「教育」が加わっているということです。人間がAIに(正解付きの)訓練データを提供するだけでなく、AIに好ましい回答例を与えています。AIは、それをもとに強化学習を行っています。ですからChatGPTは単なる「深層学習」ではなく「深層強化学習」を行っているわけです(注)。


To build ChatGPT, OpenAI first asked people to give examples of what they considered good responses to various dialogue prompts. These examples were used to train an initial version of the model. Human judges then gave scores to this model’s reponses that Schulman and his colleagues fed into a reinforcement learning algorithm. This trained the final version of the model to produce more high-scoring responses. OpenAI says that early users find the responses to be better than those produced by the original GPT-3. 


たまたま最近読む機会を得た『ラディカリー・ヒューマン』(ドーアティ・ウィルソン著、山田美秋訳、2022年、東洋経済新報社)でも、大量のデータで力任せに行う深層学習に、人間の「教育」を加えることの重要性を多くの事例で伝えていました。



新しいテクノロジーが登場するにつれ、人々は興奮したり、逆にシニカルになったりします。しかし、テクノロジーは後戻りはしません。私たちは着実に--もし指数関数的進展という仮説を信じるなら加速的に--新しい時代に入っていると考えるべきでしょう。

ちなみに[5]や[6]などの記事を読むため、私はMIT Technology Reviewの有料会員になりました。これからも上の[1]から[6]の違いでわかるように、各種メディアの特徴に自覚的になりながら、時代の流れをできるだけ英語で理解してゆこうと思います。英語がコンピュータ科学者たちがもっとも多く使っている自然言語だからです。



(注)ChatGPTの注目するべき点は、それが深層強化学習を行っていることだという指摘は、次の記事にもありました。


チャットできるAI、ChatGPTが「そこまですごくない」理由。見えてしまった限界

清水亮

https://www.businessinsider.jp/post-263042





2022/12/02

機械翻訳についてのEcononmist誌の短い記事:翻訳者はAIを自身の一部とするという意味で「サイボーグ」となる。

  【この「時事」カテゴリーの記事は、学生さんへの課題リマインダーに掲載した文章をこのブログに転載しているものです。】


***


The Economist (December 3, 2022) は機械翻訳に関する短い記事を掲載しました。


"The translator of the future is a human-machine hybrid."

https://www.economist.com/culture/2022/11/30/the-translator-of-the-future-is-a-human-machine-hybrid



その記事は以下のように締めくくられています。


Tales of artificial intelligence usually pit humans against encroaching machines, “Terminator”-style. But the translators of the future will be neither entirely human nor machine. They will be human beings with mechanical enhancements. Call them cyborgs.


人間の知性は、そもそも道具や媒体--典型的には言語--の利用をほぼ不可欠なものとしている点でサイボーグ的であるという議論は、哲学者のAndy Clarkが昔からしておりました(注)。

The Economistの記事は、例えば法律関係でしたら、定型的な契約書の翻訳はほとんど機械翻訳でなされるが、新たな法解釈の議論などの場合はほとんどすべてを人間が翻訳することになるだろうと報告しています。

この記事は、多くの人が実感していることを表明していると思います。機械翻訳は、ビッグデータに頻出する慣習的・典型的・定型的な表現をきわめて忠実に訳すが、珍しかったり創造的だったりする表現は苦手とするということです。

しかし、このことは逆に、専門知識はもっているが英語が母語でない者にとって、機械翻訳が非常に有用な道具となることを意味するのではないでしょうか。

非母語英語話者は母語話者に比べて英語に接する時間が圧倒的に少ないので、英語の慣習に忠実に書くことが苦手です。機械翻訳は、そんな非母語英語話者に自分が言いたいことについての慣習的・典型的・定型的な表現を教えてくれます。

そのように機械翻訳に助けてもらえば、専門知識をもっている非英語母語話者は、自分の専門知識の英語表現により力を注ぐことができます。そうすれば、これまでよりも多くの人に自分の専門的発見を届けることができるでしょう。

英語を苦手とする知的職業人が考えるべきことは、「機械翻訳が発展するから、英語の学習はいらない」ではない、と私は思っています。

そうではなく、「機械翻訳が発展するから、もっと自分の専門について英語でも読んでおこう。そうすれば、自分で機械翻訳出力を修正して、他の人にはできない自分なりの貢献ができるから」と考えた方が生産的ではないでしょうか。

さらに極端に表現するなら、「日常会話英語よりも、専門の英語を勉強を優先させよう」とすらなるのかもしれません。

英語母語話者なら誰でも知っている表現については、機械翻訳の助けを借りることができます。それよりも、英語母語話者も機械翻訳も対応できないような、高度で専門的な英語表現を学んでおくことの方が、後々有用になると私は考えます。

専門知識をもった者がその英語表現も学んでいれば、その人が機械翻訳を使いこなす「サイボーグ」となれます。そうなれば、どんなAIや英語母語話者にもできない独自の知的貢献を英語で行うことができるのではないでしょうか。

ですから私としては、大学生の皆さんは、専門の英語論文を正確に読めるリーディング力だけはつけておいてほしいと願っています。専門知識を英語で正確に理解できる力は、機械翻訳を使って英語論文を書く際には不可欠だからです。

もちろん、他の研究者と直接にコミュニケーションを取るためのリスニング・スピーキング力も必須です。しかし、これについてはまた別の機会にお話します。とりあえずは下の関連記事の本多先生のインタビューをお読みください。


関連記事

工学研究科(教授)本多充先生

「研究者同士が英語で語る際に、スマホを経由して話すわけにはいきません」

https://www.i-arrc.k.kyoto-u.ac.jp/english/interviews/transcripts2022_jp#frame-689


追記

上の本多先生のインタビューは「京都大学自律的英語ユーザーインタビュー」の一つですが、このインタビュープロジェクトではさまざまな声を集めています。

上の記事では述べませんでしたが、専門文献がほぼ英語でしか存在しない分野の研究者は、当然のことながらその分野について日本語で考えることが困難です。ですから、論文は初めから最後まで英語で書くことになります。


理学研究科・院生(博士課程)村山陽奈子さん

「言語能力だけがコミュニケーション能力ではありません」

https://www.i-arrc.k.kyoto-u.ac.jp/english/interviews/transcripts_jp#frame-250


工学研究科・院生(修士課程)飛田美和さん

「英語はゴールではなくツール」

https://www.i-arrc.k.kyoto-u.ac.jp/english/interviews/transcripts_jp#frame-440


他方、重要な英語論文以外の情報収集用論文読解には機械翻訳を使うという実践は、こちらで語られています。

経済学研究科(教授)黒澤隆文先生

「社会変化を踏まえ、自分のスキルへ投資する」

https://www.i-arrc.k.kyoto-u.ac.jp/english/interviews/transcripts_jp#frame-578


この他にも多くの英語学習・使用についての知恵が公開されていますので、ぜひ「京都大学自律的英語ユーザーインタビュー」をご参照ください。


京都大学自律的英語ユーザーへのインタビュー

https://www.i-arrc.k.kyoto-u.ac.jp/english/interviews_jp



(注)

私もアンディ・クラークの考えを引用しながら6月に「機械翻訳が問い直す知性・言語・言語教育 ―サイボーグ・言語ゲーム・複言語主義―」という講演をある学会で行いました。


LET関東支部研究大会講演スライド公開 「機械翻訳が問い直す知性・言語・言語教育 ―サイボーグ・言語ゲーム・複言語主義―」

https://yanase-yosuke.blogspot.com/2022/06/let.html


先日、この講演に基づく論文を同学会支部紀要に投稿したところです。機械翻訳の可能性を示す論文ですから、その主張を実践すべく英語翻訳版も投稿しました。紀要編集部のご理解に感謝します。


柳瀬陽介 (2023) 「「英語力」をこれ以上商品化・貨幣化するためにAIを使ってはならない─技術主導の問いから人間主導の問いへ─」『早稲田日本語教育学』第35号 pp.57-72

  この度、『早稲田日本語教育学』の第35号に、拙論 「「英語力」をこれ以上商品化・貨幣化するためにAIを使ってはならない─技術主導の問いから人間主導の問いへ─」 を掲載していただきました。同号は「人工知能知能時代の日本語教育」をテーマにしたのですが、それに伴い、日本語教育と英語...