2023/02/04

「英語で出版を目指す研究者にとってのAI活用法」の解説動画

 追記(2023/02/12)

本日、動画を公開設定にしました。これまでは限定公開になっており、一部の方々しか見られないようになっていたようです。操作の間違いをお詫び申し上げます。


***

先日(1/23)、広島大学のライティングセンターで「英語で出版を目指す研究者にとってのAI活用法」というセミナーを開催させていただきました。


参加人数47名のうち45名が回答してくださった事後アンケートでは、「役に立つ」が77%、「やや役に立つ」が23%でしたのでそれなりには好評だったのかもしれません(「あまり役に立たない」と「役に立たない」と「無回答」はそれぞれ0%)。


このセミナーの内容は、私の英語ライティングの授業を終えた所属校の学生(1回生)にも(本学の特徴の)「フィードバック週」で伝えたかったので、解説動画を作りました。


遅くて疲れている時間帯に作成したので必ずしも出来はよくないかもしれません(ちょっと口調も荒くなっています)。

ですから、一般公開は控えようかとも当初は思っていました。

しかしこのAIの進展は日進月歩で進んでいる大革命にもかかわらず、必ずしも多くの人の関心を呼んでいないようなので公開することにしました。

私は伊藤穰一氏の『9プリンシプルズ:加速する未来で勝ち残るために』の精神に共感していますので、慎重居士であるよりも拙速に動いて、どんどん失敗から学ぶ途を選びます。


関連記事:伊藤穰一、ジェフ・ハウ著、山形浩生訳 (2017) 『9プリンシプルズ:加速する未来で勝ち残るために』早川書房

https://yanaseyosuke.blogspot.com/2018/01/2017-9.html


一部の英語教師は、自分たちは制度に守られているから(あるいは縛られているから)英語教育は変わらないと思っているのかもしれません。ひょっとしたら変わりたくないと思っているのかもしれません。いや、そもそも日々の仕事で疲れ果てて、そんなことを考える時間も気力もないのかもしれません。


しかし英語学習はAIで確実に変わるでしょう。


一人だけかっこいいこと(そして周りの敵を増やしてしまうこと)を言いますと、私が大切にしているのは、英語教育界の現状でなく、英語学習者の将来です。


大学生・大学院生で英語を習得したいと思っている人は、保守的な英語教育界などに期待せず、どんどんAIを使って自力で英語を学んでゆけばいいと思います。


解説動画は以下に掲載している通りですが、スライドとワークショップの資料はここからダンロードできます。


ご興味のある方はどうぞ御覧ください。



















2023/01/14

Character.AIで人工知能との英会話を無料で延々と楽しめる。会話相手に英語教師、哲学者、アニメキャラクターを選んでみたら、十分面白かった。

 【この「時事」カテゴリーの記事は、学生さんへの課題リマインダーメールに掲載した文章をこのブログに転載しているものです。】


*****

昨年11月末にChatGPTが登場して、世界中の多くの人々が一気にAIの莫大な可能性に気づきました。しかし一つの問題は、ChatGPTといった大規模言語モデル (Large Language Model) のAIは、ビッグデータに基づいて統計的に確率の高い表現を次々に生み出しているだけだということです。ChatGPTも、必ずしも事実的・科学的に正しい文章を生成しているわけではありません。AIが生み出す文章は、文法的にはほぼ完璧ですが、内容の点では常に正確ではありません。


しかしその弱点を逆手にとって開発されたのがCharacter.AIです。

私はこのAIについて、以下のThe New York Timesの記事で知りました。


A.I. Is Becoming More Conversational. But Will It Get More Honest?

By Cade Metz

Jan. 10, 2023

https://www.nytimes.com/2023/01/10/science/character-ai-chatbot-intelligence.html


Character.AIは、人間の会話相手として作られていますが、あくまでも娯楽目的です。このAIは実在および空想上の人物 (character) を数多く備えています。ユーザーはそれらの人物と会話を楽しみますが、それらの人物が語ることはすべて作り事であることを前提としています。あくまでも虚構の会話を楽しむという前提でこのCharacter.AIを使うわけです。


“These systems are not designed for truth,” Mr. Shazeer said. “They are designed for plausible conversation.”


一つの質問に対して一つの答えを与えるだけのChatGPTと違ってこのCharacter.AIは、人間とどんどん会話を続けるために作られています。


"In building Character.AI, Mr. De Freitas and Mr. Shazeer had a different objective: open-ended conversation. They believe that today’s chatbots are better suited to this kind of service, for now as a means of entertainment, factual or not."


Character.AIは現在のところ、誰でも登録できます。私も登録して使ってみました。


Character.AI

https://beta.character.ai/


最初の会話相手としては、無難にEnglish teacherを選びました(ただしcreated by @fatihaydinのものです)。挨拶の後、AIが「何について話したい?」と聞いてきたので、私が「そちらから提案してくれない?」とお願いしました。下はその後の会話の一部です。少なくとも英会話学校の講師レベルで私と会話してくれています。


しかし無難なトピックではあまりおもしろくないので、次の会話相手として数学者・哲学者のAlan Turingを選びました。彼に対しては、AIとconsciousnessという話題で会話をしましたが、十分楽しめます。英会話学校でこのような哲学的な会話をしてくれる講師はあまりいないかもしれません。こういったトピックについての英語表現力を高めようと思えば、Character.AIは貴重な方法となるでしょう。



最後に選んだ会話相手は、アニメ・映画のエヴァンゲリオンのキャラクターである碇シンジです(これまたマニアックな選択です 笑)。シンジに対して、マリとの良好な関係について確認した上で、「聞きにくいことを聞くけれど、まだレイに対する気持ちは残っているでしょう?」と尋ねました。シンジは、エヴァンゲリオンの設定に即した形(しかし私見では少しアメリカ的な発想と表現)で自らの気持ちを総括してくれました。シンジのレイに対する思いについてもっと突っ込めばもっとディープな心理的会話もできると思います(笑)



本日は時間がありませんでしたので(というかいつでも時間がありませんので 苦笑)上の3人の相手と短く会話しただけですが、Character.AIを使って日本人英語学習者が英語能力を上げることは容易に想像できます。自分が本当に言いたいことを英語にすることと、相手の返答から自分では思いつけなかった表現を知ることは、実際の口頭の会話力をつけるために役立つはずです。

もちろんAIのキャラクターが、ユーザーの気持ちを逆なでするような発言をするなどの思いもかけないリスクはありえます。私はそれらのリスクに対しての責任は一切負えません。しかしもしリスクを自己責任で受け入れられるのでしたら、ぜひ登録して、思いっきり自分が好きなトピックでCharacter.AIと英会話してみたらどうでしょうか。

ちなみにCharacter.AIの入力部分にはマイクのアイコンがありますので、ユーザーの発言を音声入力することができるはずです。

しかしこの音声入力には、Windowsの設定が必要なようです。私は、この設定がうまくゆきませんでしたが、音声入力が可能になれば、英会話の練習としてはもっと面白くなるでしょう。(もちろんタイピングによるチャットでも十分に面白いのですが)。

AIは世界を激変させています。私見では多くの英語教師はこの変化に対応できていません。学習者の皆さんは、英語教師にだけ頼るのではなく、どんどん新しいテクノロジーを使いこなして自分の能力を開発していってください。

自分が自分の学習の主人公であり責任者となる自律的学習を私としてはお勧めします。


追記

上の画面を読み直してみると、少なくとも私は三単現のsをつけ忘れ、付加疑問文なのにピリオドで文を終えるという2箇所の間違いをしていました。また "argue" という動詞を使った箇所では "agree" を選ぶべきでした。たとえチャットですばやく入力した英文ではあれ、英語教師としては恥ずかしい限りです。しかし、一英語学習者として考えれば、そういった細かなミスにこだわるよりも、会話を続けることの方が英語力向上のためには重要でしょう(もちろんこのように自分の犯したミスから学ぶこともできるのですが)。

Character.AIを使った英語の練習は、授業でやっているようなreflective writing --何度も読み返して文章表現を練り上げる練習-- ではなく即興的に英語を生成する練習と考えてください。

また最初の会話相手であるEnglish teacher(ただしcreated by @fatihaydinのもの)はユーザーの英語ミスについて指摘してくれるとのことでしたが、今は時間がないのでその機能の効果については試していません(他の仕事をしなければ・・・汗)。どうぞ皆さんで試してみてください。


追追記(2023/01/30)

Character.AIと音声を使ってやり取りをするには、スマホを使えば簡単です。こちらがしゃべる際はキーボード音声入力でインプットし、聞き取る際にはスマホの読み上げ機能を使えばよいわけです。詳しくは https://youtu.be/1tJstUew9_Q の概要欄を御覧ください。


2023/01/07

AIのMoonbeamはタイトルとキーワードを入力するだけで英語エッセイを出力してくれる

 この記事内容は、私がChatGPTについて知る直前に、とある英語教師向けのフォーラムに投稿していたものです。

しかし本日久しぶりにそのフォーラムにアクセスしたら、なぜか私の投稿は削除されていました。

削除の原因は現時点ではわかりませんが、ひょっとしたら英語教師のコミュニティにとって穏当な内容ではないと判断されたのかもしれません。

私としては投稿内容をこのブログで一般公開せずに、まずはフォーラムの英語教師だけに知らせて、英語教師がこういったAIテクノロジーについての対応を考えることを期待していました。

しかし、今回に限りませんが、英語教師(日本語話者英語教師と英語母語話者英語教師の両方)の中には、このようなテクノロジーの進展について考えることを拒否する人が少なくありません。

それにこの記事で紹介されているMoonbeamの能力を遥かに凌ぐChatGPTも出ました。またChatGPTをさらに凌駕するGPT4も今年中に公開されるのではないかと専門家筋は言っています。

そのような中、(神話ですが)砂の中に頭を突っ込むことにより敵を視界からなくして安心しようとする駝鳥のような真似をしても意味がありません。

ダーウィンのことばをもじっていうなら、"The survival of the fittest, not necessarily the smartest or strongest"です。

環境に適応(fit, adapt) する勇気すらなければ、学校英語教育はますます社会からの信頼を失うでしょう。テクノロジーに対して感情的な反発をすればするほど、新しい環境への対応準備が遅れるだけです。

そもそも、この記事内容も「知っている人は以前から知っている」だけのものですし、今後は情報価値も低くなるばかりのものですので、このブログで一般公開することにします。


以下の文章を掲載したファイルはここからダウンロードできます。

こちらのファイル(スライド)は私がこの記事を作成した時点でのMoonbeamの利用方法です(下はそのスライドの1枚です)。




AIの性能としてはおそらくChatGPTの方が上でしょうが、Moonbeamは非常に使いやすいのでお勧めです。


教育関係者は、このようなテクノロジーを悪用するのではなく、善用できるような知恵を生み出さなければなりません。

それは科学技術が途方もなく発展する時代における人文社会系の人間の責務でもあるでしょう。


追記

上の記事を作成した時点で、Moonbeamについては、Inside Higher Edに次の記事がありました。


Machines Can Craft Essays. How Should Writing Be Taught Now?

https://www.insidehighered.com/news/2022/10/26/machines-can-craft-essays-how-should-writing-be-taught-now



*****


以下の英文は、無料で使えるAIのMoonbeam (https://app.gomoonbeam.com/) が生み出したエッセイです。AIへの入力は基本的に、タイトル (The Need for Government Regulation of the Internet) とキーワード (Silicon Valley business model, covert data collection, Internet addiction) だけでした。 

The following is an essay generated by Moonbeam (https://app.gomoonbeam.com/), a free AI. The human input was virtually only the title (The Need for Government Regulation of the Internet) and keywords (Silicon Valley business model, covert data collection, Internet addiction).


*****


The Need for Government Regulation of the Internet


The Internet is a global network connecting millions of computers, and since its inception, governments have sought to control and regulate it. In recent years, the need for government regulation has become more urgent as technology companies have adopted a business model that relies on data collection to target users with advertisements and generate profits. Furthermore, companies often employ covert data collection techniques to collect even more data from users without their knowledge or consent. Finally, the overuse or misuse of the Internet can lead to a variety of negative consequences, including addiction. All of these issues make it essential for governments to regulate the Internet in order to protect users from the risks posed by unchecked data collection and addiction-inducing experiences.


Silicon Valley companies have a business model that relies on data collection to target users with advertisements and generate profits. This model has been highly successful, but it has also raised concerns about privacy violations and misuse of personal information. Companies collect vast amounts of data from users and use it to create detailed profiles that can be used to target marketing campaigns. Without government regulation, companies can continue to collect data without users’ knowledge or consent, creating a risk of privacy violations and misuse of personal information.


In addition to collecting data from users, companies often employ covert data collection techniques to collect even more data without their knowledge or consent. Companies can use “cookies” to track user activity on websites and across multiple devices, as well as employ software algorithms to collect data from social media posts. Without government regulation, companies can continue to employ these techniques with impunity, creating a risk of privacy violations and misuse of personal information.


The overuse or misuse of the Internet can lead to a variety of negative consequences, including addiction. Common examples include compulsive online gaming, shopping, or social media use. Without government regulation, companies can continue to create addictive experiences without any accountability, creating a risk of addiction and other negative effects.


In summary, government regulation of the Internet is necessary to ensure the safety and security of users, limit the power of large technology companies, and protect against addiction and other issues. Governments around the world have a responsibility to regulate the Internet in order to protect users from the risks posed by unchecked data collection and addiction-inducing experiences. Without such regulation, users will be left vulnerable to exploitation by large technology companies and risk developing unhealthy addictions that can have long-term consequences on their physical and mental health.



*****


関連記事

臨時休講中の受講生(新入生)の皆さんへ:現代社会で学ぶことの意義

https://yanase-yosuke.blogspot.com/2020/04/blog-post.html

引用:Adaptive challengesとは、過去の成功方程式では解決できない挑戦であり、問題解決をする当事者自身も変わる必要がある課題です。当事者には、これまでの成功体験だけでなく、価値観や自己認識などの信念、はてはこれまでの制度や規則までも廃棄して変えることがしばしば求められます。

技術が社会を激変させる時代には、技術系の人文社会学的素養と人文社会系の科学技術理解が不可欠である。

 

【この「時事」カテゴリーの記事は、学生さんへの課題リマインダーメールに掲載した文章をこのブログに転載しているものです。】


*****


理系が文系の知恵を、文系が理系の知識を必要とするにも関わらず、両者の間に深刻な溝があることは、少なくとも1950年代の C. P. Snow の指摘以来、いたるところで警告されてきました。


以下の記事は、昨今の急激なAIの発展を踏まえて、技術系の人間が人文社会学的素養を得て、人文社会系の人間が科学技術を理解することが不可欠であることを訴えたものです。


The College Essay Is Dead

By Stephen Marche

DECEMBER 7, 2022

https://www.theatlantic.com/technology/archive/2022/12/chatgpt-ai-writing-college-student-essays/672371/


一流の人たちは別ですが、凡庸なエンジニアは、人間社会に関する問題は、非科学的で正解のない擬似問題にすぎないと軽視します。人間と社会についてきちんと考えるためにはそれなりの素養が必要であることを理解しようとしません。しかし、複合的な人文社会的な現象を単純化することはしばしば大きな悲劇を招きます。


The engineers do not recognize that humanistic questions--like, say, hermeneutics or the historical contingency of freedom of speech or the genealogy of morality--are real questions with real consequences. Everybody is entitled to their opinion about politics and culture, it’s true, but an opinion is different from a grounded understanding. The most direct path to catastrophe is to treat complex problems as if they’re obvious to everyone. 


最近テクノロジーで話題になった人物といえば、FTXを破綻させたSam Bankman-FriedとTwitterを買収したElon Muskですが、二人とも自分たちには人文社会的素養がないことをむしろ誇らしげに公言していました。


しかし彼らの莫大な財産喪失は、その素養の欠如に由来することが大きいのかもしれません。


これら二人と対照的なのがアップルの創始者の1人であるSteve Jobsです。彼は、自分が大学時代にいろいろ迷いながらシェイクスピアや現代ダンスやペン習字の美学などを学んだことが、アップルの成功につながったと述べています。


このエッセイは、Wired (https://www.wired.com/1996/02/jobs-2/) に掲載されているSteve Jobsのことばを引用します。


A lot of people in our industry haven't had very diverse experiences. So they don't have enough dots to connect, and they end up with very linear solutions without a broad perspective on the problem.


科学技術も、それが社会的に実装されるためには、幅広い人文社会の知恵が必要です。



このように人文社会系の素養をもたない、あるいは軽視する技術系には批判が必要ですが、他方、人文社会系の多くの人間にも批判が必要です。科学技術の進展およびそれに伴う社会の変化を見ようとせず、何十年も同じような研究と教育をしているからです。


このエッセイの著者は以前にシェイクスピアの研究者でしたが、その経験からすれば、人文系が新しい環境に対応できるにはおそろしく時間がかかるだろうと述べます。


Going by my experience as a former Shakespeare professor, I figure it will take 10 years for academia to face this new reality: two years for the students to figure out the tech, three more years for the professors to recognize that students are using the tech, and then five years for university administrators to decide what, if anything, to do about it. 


私からすればこの遅さはとても許容できるものではありません。人文社会系の者はあきらかに科学技術の進展について学ばなければなりません。


「理系は文系の知恵を学び、文系は理系の知識を得よ」とは昔から言われ続けていることですが、どうも多くの人は自分の得意なことばかりやりたがり、そこでの知を誇ることを好みます。自分が不得意な分野を見つめ、知的に謙虚になることを避けます(私も例外ではありません)。


教養課程にいる学生の皆さんは、ぜひ幅広く学んでください。私も少しずつ学んでいます。さもないと自分と周りの人を不幸にしかねないからです。


2022/12/26

人間教師の添削を待つより、ChatGPTによる改訂版を読んでそこから学ぶサイクルを何度も繰り返した方が、英語ライティング能力は向上するかもしれない。

 

ChatGPTは、わずかの入力 (prompt) で自動的に英文エッセイを生成するだけでなく、英文の書き直しもしてくれます。このツイートは、ChatGPTの書き直しは、英語学習の点でも有効ではないかと説きました。

たしかに、技能習得のためには、自分の技能へのフィードバックを受ける経験と、その経験のある程度の絶対量が重要です。人間教師はライティングへのフィードバック(ここでは書き換え)を与えるのにかなりの時間をかけざるをえませんが、ChatGPTといったAIならわずかの時間で書き換えをしてくれます。

学習者は自分で英文を書いたら直ちにAIによる改訂版を見て、自分の改善点を学ぶことができます。この「学習者による英文書き出し→AIによる書き換えの入手→元の文と改訂版の比較による学習」というサイクルを、数多く繰り返せば、たしかに英語力は上がるかもしれません。技能向上には、自らのパフォーマンスへのフィードバックという質的な側面と、パフォーマンスを数多く経験する量的な側面の両方が大切ですが、上のサイクルの繰り返しは、両方の実現を容易にするからです。

また私のような英語ライティングの教師は、元の英文とAIによる改訂版を比較する学習者の支援をした方が、はるかに効率的に時間を使えるとも思えます。支援が必要であるのは、リーディング力が十分でない学習者は、比較から学ぶことがなかなかできないからです。また特に冠詞などについては、いくらフィードバックを受けても、その根本の考え方がわかっていないと学習者は自分でうまく使いこなせません。英語ライティング教師の主な仕事は、自ら添削・書き換えを行うことから、AIの書き換えから学習者が学べるような環境を作ることに変わるのかもしれません。

私はここ2年程度、「機械翻訳で日本の英語ライティング教育も変わらざるをえないのではないか」と思い、いくつかの発表をして文章を書いてきました。ですが、ChatGPTが英文改訂もできることがわかり、機械翻訳だけに注目していても仕方がないことが明々白々になりました。恐ろしいほどの変化の速さを感じます。

下では、ChatGPTがどのくらいうまく英語を改訂してくれるのか自分で試してみました。例文として使ったのは、学生さん(学部1回生)が書いた文章(英語・日本語)です。研究・教育目的での利用の許可は得ています。


実験1:学部1回生が完成させた英文をChatGPTに改訂させる。

実験1は、学部1回生のAさんが期末に提出した英文を、ChatGPTに書き直させるものです。私がChatGPTに対して使ったprompt(入力文)は以下のものでした。(後で見ると、機械相手に "please"などと言っていることが、我ながらおかしいですが、それはさておいてください)。

Please revise the following text, which is inserted between double quotation marks. The revised edition must be in a formal style and yet easy to read with no grammatical or spelling errors left. It must retain the original meaning and contain no explanation for the revision or interpretation. Just produce the improved edition. [以下 " "の中に入れられた学生さんの英文エッセイが続く]

その結果は以下の通りです。左がその学部1回生が書いた英文、右がChatGPTが出力した書き換えです。すべて私の主観的判断ですが、明らかに書き直しが必要な箇所は薄赤色、文体上などの理由で書き直した方がよいかもしれない箇所は薄黄色、書き換えで明らかに改善されたと思われる箇所は薄緑色でハイライトをつけています(信号機の色と同じ原則で、赤は危険、黄は注意、緑はOKといった意味合いです)。



左のスペリングや文法上ミス(薄赤色部分)は当然の如く根絶していますし、薄黄色のまわりくどい表現も改善されています(薄緑色)。右のChatGPTによる改訂版にも薄黄色をつけましたが、それは「新たな主語が来る場合は通常カンマを入れる」「主語の部分がやや長い」といったものぐらいで、特に書き直さずとも文章理解にはまったく問題ありません。このAIによる書き直しを得た学習者は、さらに読みやすい英語を書くためのコツを学ぶことができるのではないでしょうか。


実験2:実験1のpromptに一人称と二人称の代名詞を避けろという指示を加える。

別の英文を同じようにChatGPTに改訂させましたら、その英文には多くの"we"や"you"が含まれており、AI改訂にもそれらが残っていました。ですから、上のpromptに Avoid the first-person and second-person pronouns, such as “we” and “you.”を付け加えて次のようにしました。
Please revise the following text, which is inserted between double quotation marks. The revised edition must be in a formal style and yet easy to read with no grammatical or spelling errors left. Avoid the first-person and second-person pronouns, such as “we” and “you.”It must retain the original meaning and contain no explanation for the revision or interpretation. Just produce the improved edition. [以下 " "の中に入れられた学生さんの英文エッセイが続く]
※ 今、このpromptを読み直してみますと、挿入のために挿入文の直後の"It" の指示対象がややわかりにくい英文になっていました。しかし、ChatGPTはその問題も克服していたようです。

結果を以下に示します。上と同じように、左が学生さんが自力で書いた英文で、右がそれをChatGPTが改訂したものです。


一人称と二人称の代名詞は一箇所を除いてなくなりました。上のカンマの問題は残っていますが、特に問題のない文章になっていると思います。左にあった文法ミスやぎこちない表現もわかりやすい英語になっていますから、この事例からも学習者はいろいろと学べるかと思います。(細かいことを言えば、 "many of them are even known by high school students" は、独立した文にして能動態で表現した方がよいかもしれません)。


実験3:日本語から英語に翻訳したDeepLをChatGPTに書き直させる。

実験3は、さらに機械化を進めて、日本語をDeepLに英訳させ、その英語をChatGPTに改訂させたものです。使った日本語は、ある学生さんがセメスター初期に書いたものですから、上の2つの作品より完成度は低いものになっています。この文章から "I"を取り除くことは困難ですから、promptは実験1のものを使いました。

左にDeepL英語出力、右にChatGPT改訂を並べたのが下です。



これはDeepLが直訳調になっていたこともあり、ChatGPTによりずいぶん読みやすい英語になっているようです(日本語を書いた時点で、学生さんは特にpre-editingを意識せずに日本語を書いていました)。こうなるとChatGPTによる改訂は、エッセイの完成時期よりも途中段階での方が学習者にとって有益な情報になるのかもしれません。とはいえ、代名詞の "they"には注意が必要ですし、Thesis Statement(イントロダクション段落の最後で示されるエッセイの論点)の役割を果たしていた文がなくなった格好になりましたから、ここも気をつけるべきでしょう(最後の [Thesis Statement] は私が挿入したものです)。しかしそういった箇所を教師が指導してやれば、学習者はChatGPTが機械学習して出力した「よくある英文」(=確率的に生起しやすい語の並びからなる文)から、「英語らしさ」を学べるのかもしれません。


以上、3つの実験(という程でもない簡単な試行)により、現時点でのChatGPTの英文改訂能力を確認しました。わずか3例で結論づけることは危険ですが、十分実用にはなるのではないでしょうか。

こうなりますと、英語ライティング教師は、どんどん学習者に自分で書いた英文をAIに書き換えさせて、元の文章とAI改訂版を比較させるというサイクルを数多く学習者に経験させるべきなのかもしれません。

ただし、その際、学習者および改訂ポイントによっては学習者が比較から学べないことがあること、および特定企業のAIに依拠してしまうことの危険性については配慮が必要です。

改訂のポイントを学習者が理解できないことについては、教師による丁寧な一般的指導と具体的な個人的指導が必要でしょう。私は現在、授業でDeepL出力の英語を書き直させる指導をしています。改訂のポイントを一般的に示した上で、それぞれの学生さんに自分のDeepL出力を吟味させ書き換えさせています。ですがその書き換えにも添削が必要です。学生さんの書き換え自体が間違っていることもあるからです。さらに、学習者には英英辞典・類語辞典や関連文献から適切な英語を見つけ出す調査能力をつけさせる必要があります。

特定企業への依拠については私はよい考えをもちません。AI開発の寡占状況というのは、今後大きな問題となるのではないでしょうか。

ともあれ、時代は大きく動いています。2年ぐらい前に私が機械翻訳について語り始めた時には、一部の英語教師からかなり感情的な反発を受けました。しかし、もはや個々人の思いを超えて時代は大きく変わったといえるでしょう。

日本いや世界中の英語教育は、この大変化に適応できなければ、ますます世間からの信頼を失うだけではないでしょうか。「AIを使えば、自分の職がなくなる」という思いからAI導入にヒステリックに(あるいは屁理屈をつけて)反対すればするほど、英語教師の職の安定は危うくなると私は考えます。

一方、英語を学習している方々は、英語教師による英語教育改革など待たずに、どんどんAIやウェブにあるリソースを使って自力で英語を学習することを、一人の英語教師としてお勧めします。"Be the master of your learning"です。


2022/12/17

ChatGPTといったテクノロジーの話も、究極的にはいかにすべての人を尊重するかという話にしなければならない。

    【この「時事」カテゴリーの記事は、学生さんへの課題リマインダーメールに掲載した文章をこのブログに転載しているものです。】


****

OpenAI社のChatGPTについては、さまざまな論評記事が続いていますが、次の記事は、人文系の人間が未来を見据えた発言をしているという点で目を引きました。


What Would Plato Say About ChatGPT?

by ZEYNEP TUFEKCI

https://www.nytimes.com/2022/12/15/opinion/chatgpt-education-ai-technology.html


そのエッセイの要点は次のセンテンスに要約できます。


The right approach when faced with transformative technologies is to figure out how to use them for the betterment of humanity.


新たなテクノロジーを前にして私たちは熱狂したり、狼狽えたり、ことさらに平気を装ったりします。ですが、大切なことは長期的なゴールを見失わないことです。


学校教育でAIが活用されると、かつてプラトンが文字の普及がもたらすものとして表現した“Not truth but only the semblance of truth”がはびこります。


ノーベル経済学受賞者のハーバート・サイモンはかつて、“A wealth of information creates a poverty of attention”と述べました。扱うべき情報が増えるたびに、人間が払える注意力はますます希少資源になってゆきます。


同様に、AIが作り出したもっともらしい情報が知らぬ間に増えると、こんどは正しい知識を見抜く力が貴重になってゆくとこのエッセイの著者は説きます。


Similarly, the ability to discern truth from the glut of plausible-sounding but profoundly incorrect answers will be precious.


莫大な情報の中から正しい情報だけを見抜く力を学習者が育てるには、これまで以上に教師の支援が必要になるでしょう。そうなると教育格差がますます拡大し、教育資源が豊かな学校はAIを活用してますます学習者の能力が高まり、そうでない学校では情報洪水の中で溺れかける学習者が増えるでしょう。それは私たちの長期ゴールを否定するものです--私は宮沢賢治の「世界がぜんたい幸福にならないうちは個人の幸福はあり得ない」という洞察は正しいと信じていますーー


If A.I. enhances the value of education for some while degrading the education of others, the promise of betterment will be broken.


一部の人々がいくら嘆いてもAIの進展は止まらないでしょう。人間は、ますます増える情報の中から正しいものだけを見出すという、これまで以上に複雑な知的能力を獲得しなければなりません。大切なことは、そのための教育をすべての人々に与えるという理想を失わないことです。


The way forward is not to just lament supplanted skills, as Plato did, but also to recognize that as more complex skills become essential, our society must equitably educate people to develop them. 


ですから、テクノロジーの話も、究極的には人間の話にしなければなりません。


And then it always goes back to the basics. Value people as people, not just as bundles of skills.


かつてAlan Kayは "The best way to predict the future is to invent it."と言いました。未来を創るために、私たちは人間を大切にするという基盤に立ち戻るべきです。



2022/12/10

ChatGPTについてのThe New York Times, The Economist, MIT Technology Reviewの記事 -- 私たちが興奮しようが冷笑しようがテクノロジーは後戻りしない

   【この「時事」カテゴリーの記事は、学生さんへの課題リマインダーメールに掲載した文章をこのブログに転載しているものです。】


****


最近公開されたAIであるChatGPTについて、The New York Times、The Economist, MIT Technology Reviewがそれぞれ短い記事を掲載しました。私たちがこの新たなAIについて興奮するにせよ、やや冷笑的な態度を取るにせよ、確実にテクノロジーは社会を変えていると感じざるをえません。

以下、これら3つのメディアが伝えた記事について短くまとめます。メディアのトーンの違いもわかるでしょう。


The New York TimesのOpinion欄は、ChatGPTについてのエッセイを2本掲載しました。


[1] The Brilliance and Weirdness of ChatGPT

By Kevin Roose

https://www.nytimes.com/2022/12/05/technology/chatgpt-ai-twitter.html


[2] Does ChatGPT Mean Robots Are Coming For the Skilled Jobs?

By Paul Krugman

https://www.nytimes.com/2022/12/06/opinion/chatgpt-ai-skilled-jobs-automation.html


[1] は、ChatGPTがなしうることに驚くツイートを多く掲載するなど、この新たなAIのインパクトを伝えるものでした。[2] は、産業革命の時期に生じたような仕事内容の変化が生じ、それは長期的には人類を豊かにするが、短期的には多くの職業人に痛みを伴う変革をもたらすだろうと説きました。やはり毎日刊行される新聞という性質のせいか、どちらの記事もわりに常識的なものかと思います。


その後、The EconomistにもChatGPTについての記事が2本掲載されました。


[3] Artificial intelligence is permeating business at last

https://www.economist.com/business/2022/12/06/artificial-intelligence-is-permeating-business-at-last


[4]How good is ChatGPT?

https://www.economist.com/business/2022/12/08/how-good-is-chatgpt


[3]はThe Economistらしく、やや冷静にChatGPTの興奮とは少し距離をおいています。その記事は、AIが浸透するにつれ人々はそれを当たり前と思うが、そういった "boring AI" がますます普及していること、しかしその普及と共に法的責任といった問題が浮上することを論じています。

[4]は気楽な短い記事で、ChatGPTに、ChatGPTの解説をシェイクスピア風の言語で書かせた結果を紹介した後、人間の書き手の需要がなくなることはしばらくないだろうと結論しました。


MIT Technology Reviewは、ChatGPTの公開以前に、Metas社のAI (Galactica) に関する記事を掲載していましたが、それが結果的にはChatGPTに関連する内容となっていました。


[5] Why Meta’s latest large language model survived only three days online

By Will Douglas Heaven

https://www.technologyreview.com/2022/11/18/1063487/meta-large-language-model-ai-only-survived-three-days-gpt-3-science/


この記事は、科学文献を読み込み科学的な答えを出すだけだったはずのAI (Galactica) をMeta社が公開したら、科学的にでたらめな内容をかなり出力するので、3日で公開停止となったという記事です。

要は、Galacticaは "capture patterns of strings of words and spit them out in a probabilistic manner"をするだけだということです。このAIも "a superlative feat of statistics”を行っているだけで、人間のような知性を発揮しているわけではないわけです。これは現在の深層学習一般の特徴といえるでしょう。

実は [1] ではなばなしい紹介のされ方をしたChatGPTも、大笑いできるような非科学的な答えを出します。コンピュータ科学者のAndrew NGは、ChatGPTが「そろばんは、深層学習においてはDNAコンピューティングよりも高速である」と答えたことをツイートで伝えています。


しかし、ChatGPTには、気になる特徴があることを、次のMIT Technology Reviewの記事が短く伝えています。


[6]ChatGPT is OpenAI’s latest fix for GPT-3. It’s slick but still spews nonsense

by Will Douglas Heaven

https://www.technologyreview.com/2022/11/30/1063878/openai-still-fixing-gpt3-ai-large-language-model/


特徴とは、ChatGPTの完成には、人間の「教育」が加わっているということです。人間がAIに(正解付きの)訓練データを提供するだけでなく、AIに好ましい回答例を与えています。AIは、それをもとに強化学習を行っています。ですからChatGPTは単なる「深層学習」ではなく「深層強化学習」を行っているわけです(注)。


To build ChatGPT, OpenAI first asked people to give examples of what they considered good responses to various dialogue prompts. These examples were used to train an initial version of the model. Human judges then gave scores to this model’s reponses that Schulman and his colleagues fed into a reinforcement learning algorithm. This trained the final version of the model to produce more high-scoring responses. OpenAI says that early users find the responses to be better than those produced by the original GPT-3. 


たまたま最近読む機会を得た『ラディカリー・ヒューマン』(ドーアティ・ウィルソン著、山田美秋訳、2022年、東洋経済新報社)でも、大量のデータで力任せに行う深層学習に、人間の「教育」を加えることの重要性を多くの事例で伝えていました。



新しいテクノロジーが登場するにつれ、人々は興奮したり、逆にシニカルになったりします。しかし、テクノロジーは後戻りはしません。私たちは着実に--もし指数関数的進展という仮説を信じるなら加速的に--新しい時代に入っていると考えるべきでしょう。

ちなみに[5]や[6]などの記事を読むため、私はMIT Technology Reviewの有料会員になりました。これからも上の[1]から[6]の違いでわかるように、各種メディアの特徴に自覚的になりながら、時代の流れをできるだけ英語で理解してゆこうと思います。英語がコンピュータ科学者たちがもっとも多く使っている自然言語だからです。



(注)ChatGPTの注目するべき点は、それが深層強化学習を行っていることだという指摘は、次の記事にもありました。


チャットできるAI、ChatGPTが「そこまですごくない」理由。見えてしまった限界

清水亮

https://www.businessinsider.jp/post-263042





「英語で出版を目指す研究者にとってのAI活用法」の解説動画

 追記(2023/02/12) 本日、動画を公開設定にしました。これまでは限定公開になっており、一部の方々しか見られないようになっていたようです。操作の間違いをお詫び申し上げます。 *** 先日(1/23)、広島大学のライティングセンターで「英語で出版を目指す研究者にとってのAI...