2021/04/27

松尾豊 (2020) 「人工知能 ディープラーニングの新展開」

  

 以下は、西山圭太・松尾豊・小林慶一郎 (2020) 相対化する知性』(日本評論社)の第1(pp. 1-103) である、松尾豊「人工知能 ディープラーニングの新展開」の一部を私が恣意的にまとめたものです。参照したページは明示していますが、まとめの中で、私が勝手に用語を変えてしまっているところも多々ありますので、興味をもった方は必ず原著を参照してください(現時点ではKindle版は「読み放題」の対象になっています)。


 

また、「=>」のマークがついているインデントされた段落は、私の蛇足(感想や拡大解釈)です。人工知能に関する素人として、私は誤解を恐れます。もし誤りがあればご指摘いただけたら幸いです。

 なお、この第1部の議論のいくつかは、下の論文でも展開されています。しかし、書き方は、一般書である本書の方がはるかにわかりやすいです。

  

松尾豊 (2019)

深層学習と人工物工学

https://www.jstage.jst.go.jp/article/oukan/2019/0/2019_F-5-2/_pdf

 

  

*****

 

 

■ ディープラーニングの位置づけ

 

ディープラーニング(深層学習)は、内燃機関、電気、トランジスタ、インターネットに並ぶぐらいの発明・発見と考えることができる。 (p. 4)

   初期のディープラーニングは、脳の構造にヒントを得ていたが、現在は工学的に独自の発展を遂げておりもはや脳とはあまり関係がない。これは飛行機が最初は鳥を模そうとしていたものの、発展するにつれ鳥の飛行法とは異なる形で発展したことと似ている。(pp. 45-46)

 

=> 考えてみれば、私は下の小論を書いた頃から、素人なりに人工知能について理解しようとしてきました。英語の学習と習得という得体の知れない現象を理解するには、より確実に理解されている領域を知り、その領域をとりあえずのモデルとして英語学習・習得を類比的に理解する戦略が有効かと考えてきたからです。

 

柳瀬陽介 (1991)

「効率化とフレーム問題の隠ぺい, あるいはマニュアル的思考」

https://ir.lib.hiroshima-u.ac.jp/00027404

 

 ここ最近の私の人工知能 (AI) への興味は、AIがビッグデータとディープラーニングを基盤とすることによって、翻訳や音声認識といった領域で目覚ましい進展を見せているからです。結果、英語教育もなりふりかまわず時代に適応しなければなりません。その自己変革をもたらす過程の中では、AIとは何かをせめて基本的なレベルで理解しておくことが必要かと思い、このようなまとめを作っている次第です。

 

関連記事

瀧田寧・西島佑(編著) (2019) 『機械翻訳と未来社会』 社会評論社

https://yanase-yosuke.blogspot.com/2020/12/2019_28.html

Chromeブラウザーの自動英語字幕生成機能で、リスニングを「勉強」から「楽しみ」に変える

https://yanase-yosuke.blogspot.com/2021/04/chrome.html

Wordtuneで、ある英文の10通りの表現法を生成し、表現の幅を広げる + AI時代の英語学習について

https://yanase-yosuke.blogspot.com/2021/04/wordtune10-ai.html

 

 また人工知能研究者の方も(もちろんのことながら)、AIという概念が誤解される懸念を表明しています。そういった意味からも、この記事のような素人からの試みも無意味ではないと信じます。

 

丸山宏 (2019)

人工知能研究者として私たちがすべきこと

https://japan.cnet.com/blog/maruyama/2019/12/31/entry_30022985/

 

 

 

■ ディープラーニングとは

 入出力のペア(「教師データ」)の関係をモデル化(=学習)するのに、複数の関数を用い、互いの入力と出力を直列につなぎあわせて、それを1つの関数の関数として扱うこと。このように「深い」階層をもつことで、関数の「表現力」は高くなり、非線形で複雑なさまざまな入出力関係を表すことができる。 (p. 3)

  この意味で、ディープラーニングは「表現学習」 (representation learning) とも呼ばれる。途中の多くの階層で、中間的な関数として有効な表現(もしくは素性・特徴量 features) が得られるからである。(p. 24) 

  ディープラーニングの方法が確立するまで、例えば画像認識のための特徴量は人間が決めていたが、ディープラーニングによって機械が素性・特徴量自体を学習できるようになった。 (p. 28)  ディープラーニングは、数万から数億個のパラメータの最適化を、数千から数百万サンプルのデータを使って行う。 (p. 37)

 

=> たとえば「どのような時に定冠詞を使うべきか」といった問題で、英語教師はしばしばフローチャートのようなやり方で、定冠詞使用の手順を定めようとしますが、それらはせいぜい大まかな原則を示すだけで、正用法を保証するものではありません。

  そういったアプローチは前提が根本的に間違っていると考えるべきでしょう。フローチャートで示されるわずかの特徴(=素性、特徴量、あるいは表現)だけで、冠詞の使用が決定できるという発想が素朴すぎます。

  ここでは人間の認知能力の限界が私たちの発想を大きく拘束しています。私たちは、自分たちが理解できる範囲での探究や解明しか行わないことが普通です。この点、人工知能は人間の認知能力の限界には影響されませんから、これまでの人間の科学では達成できなかった世界理解が可能です。松尾先生もこの第1部の第5章「人間を超える人工知能」でそのことを論じていますが、この点については、松尾先生も言及している下の論考を整理することによって後日改めて考えてゆきたいと思っています。

 

 

丸山宏 (2019)

高次元科学への誘い

https://japan.cnet.com/blog/maruyama/2019/05/01/entry_30022958/

 

 

 

■ ディープラーニング構築の過程

 

 ディープラーニングは、だいたい次のような過程で構築される。 (p. 46)

 

(1) プログラマーが、入力から出力をつなぐネットワークのアーキテクチャを構成する。

(2) プログラマーが、ディープラーニングの成否の指標となる損失関数を定める。

(3) 機械が学習し、教師データに対して損失関数が最小になるようなパラメータを求める。

(4) プログラマーが結果を評価する。満足する精度であれば構築は終了。そうでなければハイパーパラメータを調整したり、アーキテクチャを修正したり、データを増やすことなどを行い、(1) に戻る。

 

=> ここで、このディープラーニングを比較の対象とすることにより、「英語をシャワーのように浴びることで英語をマスターできる」という説について考えてみます。

人間は、おそらくチョムスキーの言うように普遍文法という生得的な知識をもって生まれます。そのことにより、人間は他の動物にはできない言語獲得が可能になります(動物を人間とまったく同じように育てても、人間と同じレベルでの言語獲得は不可能です)。その普遍文法の制約の中で人間は第一言語を学習しますが、その過程で、人間は第一言語には存在しない、あるいは重要でない特性(パラミター)を無視することも学びます。無用な認識は省いてしまう方が効率がよいからです。反面、第一言語の使用にとって重要な特性の認識を人間は強化します。そうやって形成された、認識のパターンを、「スキーマ」と呼んでもいいのではないかと私は考えます(この点、特に専門家のご教示を請います)。

 

関連記事

「実践報告:大学生はライティング授業を通じていかに「英語スキーマ」を学ぶか」(4/24(土)Zoomでの研究会)の発表スライドを公開します

https://yanase-yosuke.blogspot.com/2021/04/424zoom.html

 

ところが、後年、言語獲得に関する敏感期を過ぎて人間が外国語を学習する際には、第一言語には乏しいがその外国語にとっては重要な特性の認識が必要になってきます(例えば、英語を学ぶ日本人にとっての名詞の可算性・不可算性などです)。しかし、外国語学習は、人間の生存にとってさほど重要ではなく、また学習する言語データも非常に少ないものです。そういうこともあって、多くの人間は、第一言語用のスキーマを外国語学習にもそのまま使います。その結果、ある種の誤りは、たとえその外国語をそれなりに学習したとしても残り続けます。

 

関連記事

今井むつみ (2020) 『英語独習法』岩波新書

https://yanase-yosuke.blogspot.com/2020/12/2020_22.html

 

さて、ここで上のディープラーニングの (1) から (4) の過程を人間の学習になぞらえて考えてみましょう。ディープラーニングの用語を第一言語獲得での用語に置き換えてみます。「アーキテクチャ」は「普遍文法などの脳の構造」に相当するでしょうか(「プログラマー」は「DNA」でしょう)。「損失関数」は、「快・不快といった生存のための本能的知覚」かもしれません。「パラメータ」は「第一言語における重要な特徴」です。「結果の評価」を行う「プログラマー」は、第一言語獲得では基本的に学習者(子ども)自身です。そして、第一言語獲得は、生存のために非常に重要であり、言語データもたくさんあります。また言語を使用するにつれ、まわりの保護者はその言語使用に対する反応(その多くは肯定的反応)を行いますから、学習者は自分が獲得・使用している言語に対する具体的なフィードバックを得ることができます。

しかし、外国語学習は、生存のために重要でなく、言語データも言語使用の機会も少ないことは上で述べた通りです。ですから、パラメータ=言語における重要な特徴も、更新されず、第一言語の特徴を認識するために特化されたスキーマで、外国語を学習し使用しようとします。

そのような外国語学習においては、(1) の普遍文法のレベルではどうしようもないにせよ、他の段階では、他者による介入が必要です。(2) では、外国語教師が学習者にとって興味深く、学習者の生存にとって広い意味で重要な課題を導入し、学習者の本能的知覚(「損失関数」)を活性化させなければなりません。 (3) のパラメータ設定でも、人為的な介入をして、第一言語と外国語で異なる特徴に自覚を促すべきでしょう。(4) においても第一言語の影響が強い学習者は、自らの言語出力の評価が適切にはできませんし、そもそも学校では現実世界のコミュニケーションのようなフィードバックがありませんから、教師は具体的で学習を促進するようなフィードバック(=学習者の本能的知覚)を与える必要があります。必要に応じて「ハイパーパラメータ」ともいえる文法のまとめなどを調整したり、言語データの質や量を変えたりすることも重要でしょう。

そういった教師の働きかけもなしに、外国語教室で、学習者の興味をそそらない外国語をほんのわずかだけ入出力させ、「文法は不要」とばかりに適切な比較言語学的指導もせずまともなフィードバックも与えないなら、外国語は習得されることはないでしょう。

それはあたかも、ビッグデータを必要とする深層学習する機械に、ほんのわずかなデータしか与えないままに、その機械が正しい出力をすることを期待するようなものです。

以上の喩えは、深層学習という(私も含めた)多くの人間にとってあまり理解が進んでいないものを使用していますので、あまり切れがよくないかとは思いますが、1つの理解の試みとして書いた次第です。閑話休題で、松尾先生の論のまとめに戻ります。

 

 

■ 人工知能における身体性

  人工知能における「身体性」 (embodiment) とは、環境とインタラクションするために、人工知能がセンサ(感覚器官)とアクチュエータ(運動器官)を備え、センサで観測した情報でアクチュエータを作動させ、その結果をまたセンサで観測するというループを構成するということである。

 

=> この「身体性」の定義は非常に工学的であり、身体をセンサとアクチュエータおよびそれらの間でのループとみなしています。しかし、私などが神経科学などの知見をもとに述べている「身体性」の「身体」は、複合的な自己生成システム (autopoietic system) として(外からの刺激を得ながらも)情動 (emotion) を自ら生み出します。その情動の様子が、身体のモニター器官としての脳に表象されるというのが生物学的な身体であると考えます。ですからこの工学的な「身体性」を人間の学習に安直に適用するのは危ういと思います。

 

 

■ RNN (Recurrent Neural Network)

 

どのようなデータに対してどのように深い階層をもつ関数を作ればよいかというノウハウの代表的なものの1つに「リカレントニューラルネットワーク・再帰型ニューラルネットワーク」 (Recurrent Neural Network: RNN) がある。

   RNNは、自然言語のテキストや音声などの時系列のデータの扱いに適している。例えばを英語文("Hello")、とすると、{x1, x2, x3, x4, x5} の記号列と表現できる(英語の一つ一つの文字がそれぞれの記号に対応している)。他方、yを日本語文(「こんにちは」)とすると、y {y1, y2, y3, y4, y5} 5つの記号列として表現できる。この例ではたまたま記号列の長さは同じだが、このように記号列の長さが同じになるとは決まっていないので、全結合ネットワークやCNN (Convolutional Neural Network) といった方法は使えない。よって、RNNといった方法が必要となる。(p. 32)

   RNNの式は、図1のように表現できる。(p. 33の図 2.9を改編)

 


 x, h, yのそれぞれは各時点によって変化する。したがって例えばxについては {x1, x2, x3, ... xn} が存在するし、hyについても同様である。

 隠れ層 (h)には再帰のルートがあるので、それぞれの時点での学習がそれ自身に蓄積される。したがってある時点のh tとその次の時点のh t+1の中身は異なる。ゆえに、一見そうは見えないがRNNは、複数の階層をなし、深い階層も有しうる。(p. 33)  言語データで言えば、言語の入出力が重なれば重なるほど、その言語についての学習が精密になる。

 なお、xyを同じ言語での会話のペアにすれば対話をモデル化することもできる。 (p. 34)

 「ニューラル機械翻訳」(NMT) RNNを使った翻訳である。2016年にグーグルが発表した「グーグルニューラル機械翻訳」 (GNMT)もその1つである。だが、最近はトランスフォーマー (transformer) というモジュールを使う方がより効果的であることがわかっている。 (p. 34)

 

=> RNNの解説については下のページも参考になります。

 

再帰型ニューラルネットワークの「基礎の基礎」を理解する

~ディープラーニング入門|第3

 

  

■ 松尾豊先生の仮説:人間の知能は身体性のシステムのうえに記号のシステムを乗せている。

  人間の知能は、大きく2つのシステムから構成されている。1つは「知覚運動系アーキテクチャ」(注)であり、これは環境の知覚から環境をモデル化して運動制御を行うループである。このシステムは動物も有している。 (p. 54)

 

(注)松尾先生は「アーキテクチャ」ではなく「RNN」という用語を使っています。RNNが現時点では、時系列情報の処理のためには有力であるからです。だが今後、時系列処理の他のよりよい方法が出てくるでしょうから、ここではより一般的な「アーキテクチャ」という用語を用いました。なお、前述の松尾 (2019) での表現は、「知覚運動系」になっています。

 

 もう1つのシステムは、「記号系アーキテクチャ」であり、言語を入力として聞きそれを理解して、その入力に対する反応を言語で出力するループを構成している。 (p. 55)

  知覚運動系アーキテクチャと記号系アーキテクチャは連動する。ことばという入力を得た人間は、記号系アーキテクチャでその言語を処理し、知覚運動系アーキテクチャのセンサとアクチュエータの複合的な時系列的データを生成する。そのデータは、言ってみるなら、何か感覚を得ながらそれに即して動くイメージ(注)であり、「疑似体験」と呼ぶこともできるだろう(たとえば「昨日おいしいパフェを食べた」ということばを読んだ時に、人はどんな内的経験をするだろうか)。つまりことばの意味がわかるとは、ことばという記号から身体のセンサ・アクチュエータ系のデータ(イメージあるいは疑似体験)を生成することである。 (pp. 58-59)

 

(注)「イメージ」とは視覚優位の表現(換喩)であり、視覚だけに限らない人間の体験を総称するには必ずしも適した語ではないかもしれない。だが、アントニオ・ダマシオもSelf Comes to Mind: Constructing the Conscious Brainの中で、「心の中の共通媒体」といった意味で “image” という用語を使っているので、ここでもわかりやすさを優先して「イメージ」という用語を使う。

 

images are the main currency of our minds, and that the term refers to patterns of all sensory modalities, not just visual, and to abstract as well as concrete patterns. (Damasio, 2010, p. 160)

 

ただ、さらに用語にこだわるなら、「イメージ」よりも「想い」ということばを使った方がよいのかもしれない。

 

関連記事

"Image"を敢えて「想い」と翻訳することにより何かが生まれるだろうか・・・

https://yanaseyosuke.blogspot.com/2015/08/image.html

 

   逆に、思ったことや感じたことを言語で表現するということは、身体(知覚運動系アーキテクチャ)の情報を入力として、記号系アーキテクチャ系の出力(言語)を生み出すことである。このように知覚運動系アーキテクチャと記号系アーキテクチャは相互作用する。 (p. 59)

 

=> 人間の知性を、他の動物にもある知覚運動系アーキテクチャの上に、人間だけの記号系アーキテクチャが搭載され、その両者が連動しているものだという説明は、外国語学習を考える際の1つのモデルとして非常に興味深いものです。

机の上の勉強だけで、身体に実感を覚えることがほとんどない外国語学習は、知覚運動系アーキテクチャがほとんど関与していない記号系アーキテクチャの中だけでの入出力関係の学習と考えることができます。英単語と日本語訳語の対連合学習がその典型です。学習者は例えば「訪ねる」という言語入力を与えられたら、「visit」という言語出力を出すといった入出力学習に習熟します。学習者は数多くの単語についてこのような学習を行い、いわゆる「単語テスト」においては高速で正解を生み出します。だが、その記号系の学習は、知覚運動系アーキテクチャとほとんど連動していません。

したがって「訪ねる」という記号系の入力ではなく、自らの心身の中にイメージ(注) -- たとえば<自分がある場所に移動して、そこで所定の人に会うなどの目的を遂行する>といったイメージ -- が湧いて出てきた場合でも、その知覚運動系の入力が、記号系の出力(英語の「visit」)に結実しません。いわゆる「知っているけど使えない」「テストだけの知識」にしかなっていないのです。

このように首から上だけでしか外国語を勉強していない学習者は、逆方向に「visit」という記号系入力が入っても、それを運動知覚系の出力(<どこかに移動して人に会うなどの意味深い目的を果たす>というイメージを生み出すことをしません。学習者が行っている学習は「visit」と聞けば「訪ねる」と答えるだけのことです。そこに具体的に心身で感じるイメージがほとんどないため、そういった学習者は、例えば教師に「質問を尋ねるの『尋ねる』って、英語で何って言ったっけ?」と問われても、平気で「visit」と答えたりします。その学習者にとっての記号「訪ねる」には、心身で感じるイメージがほとんどないため、それはことばというより単なる「タズネル」という音声となっているからです。「訪ねる」と「尋ねる」の区別もほとんどされないからです。

 このように知覚運動系アーキテクチャとほとんど隔絶した、記号系アーキテクチャだけでの外国語学習の典型の1つは、機械的な英文和訳です。私が高校生・大学生の頃はそのような授業がほとんどで、学習者は教師の指示にしたがって英文を日本語に変換するのですが、しばしば自分でその日本語訳の意味がわかっていませんでした。もちろん、日本語の単語や文法は知っていたのですが、その日本語訳からまったくイメージが湧いてこないという点で意味がわかっていなかったのです(また、もちろんのこと文の含意も理解できていませんでした)。

 こういった経験から、多くの人は「英語の授業で日本語訳は禁止!」と訴えたり、「精読ではなく速読!」と主張したりするようになりました。しかし学習者にとって最良の思考表現媒体である母語を一律に禁止することや、きちんと書かれた英文を一語たりともおろそかにせずに読むことは、決して悪いことではありません。むしろ、英語力をある程度以上に伸ばすためには必須といえると私は考えています。また機械的な訳出とはまったく異なる吟味された翻訳は、これから人間が機械翻訳の最終チェックを行うことが増えることなどから考えると、むしろ積極的に教えられるべきだと私は考えています。

ともあれ、「訳」に関する賛否両論も、この記号系アーキテクチャと知覚運動系アーキテクチャの間の断絶という点から考えれば、すっきりとするのではないでしょうか。

 

関連記事

伊藤和夫先生の『英文解釈教室』を使った授業の感想

https://yanaseyosuke.blogspot.com/2015/08/blog-post_20.html

オメの考えなんざどうでもいいから、英文が意味していることをきっちり表現してくれ

https://yanaseyosuke.blogspot.com/2011/10/blog-post_21.html

翻訳教育の部分的導入について

https://yanaseyosuke.blogspot.com/2010/08/blog-post_26.html

 

 

 

■ 人間の知能の特徴

  人間は動物として、生命の自己保存と自己再生産を究極の目的としている。その目的およびそこから派生する(時に逸脱する)目的に即して、知能は、より少ないサンプル数でも効率的に複雑な環境をモデル化し、高い精度で予測できるように発達する。 (p. 91)

  そもそも人間も動物である以上、知覚運動系アーキテクチャが優位であり、記号系アーキテクチャはそれを補助するためのものにすぎなかったはずである (行動計画を立てるには、抽象度が高く次元が少ない情報を操る方が有利である。原始的な記号系アーキテクチャは、おそらく知覚運動系アーキテクチャの深い階層に出現したのであろう)。 (p. 65)

  しかし、いつしか人間の記号系アーキテクチャは、知覚運動系アーキテクチャから独立して稼働することができるようになった。これにより人間は、現実では体験していないもの(および体験できないもの)について想像し思考することができるようになった。 (p. 67) これにより人間の知性は、他の動物の知性とは大きく異なるものとなった。 (p. 68)

   時代がくだって、人間が読書によって大量の言語表現から知覚運動系アーキテクチャを駆動する(つまりは疑似体験をする)ようになると、人間の学習能力はさらに高まった。 (p. 62)

 

=> 読書や他人の話を聞く際、人間は、知覚運動系アーキテクチャを使って視覚・聴覚入力を記号系アーキテクチャが処理できるように言語変換します。記号系アーキテクチャは、意味素論(注)や統語論の規則および語用論の原則を活用しながら、その言語の意味を理解します。すなわち、知覚運動系アーキテクチャを脳内で作動させ、その言語から疑似体験を生み出すわけです。

 (注)「意味」という用語の混乱を避けるため、私は “semantics” を「意味論」ではなく「意味素論」と訳すことにしています。「意味」は、semanticsの占有物ではなく、語用論や世界に関する知識・イメージなど多様な要素によって構成されるからです。

 そうして意味を理解する一方、次々に大量の視覚・聴覚入力を言語に変換しなければならない知覚運動系アーキテクチャを助けるため、記号系アーキテクチャは次の言語入力を予測して、その予測を記号系アーキテクチャの中で予め活性化します。

  このようにことばを読んだり聞いたりするという一見「受け身」の営みでも、人間は疑似体験イメージの生成と次の言語入力の予測という能動的な営みを行っています。言い換えるなら、ことばを目にしたり耳にしたりしても、それらの能動的な作動が生じないなら、言語を理解しているとはいえません。なぜなら、その人は自分の中に何ら言語に即したイメージも生み出せず、次に何が起こるかも予想できないからです。

 

機械学習でも人間の学習でも、教師あり学習 (supervised learning) の教師データ (training data) は、大量の計算を得なければ得られない解を有していることがほとんどである。機械であれ人間であれ学習者は、その教師データをもとに、より少ない量の計算で同じ解に到達することができる(すなわち学習することができる)。そこで浮いた計算量を、学習者は新たな学習にあてることができる。学習者の中には新たな発見を行い、未来の世代への教師データを提供する者もでるだろう。かくして知能は社会的に進展する。これを「社会的蒸留」と呼ぶこともできる。 (pp. 69-74)

 

 

■ 現在の機械翻訳の評価

  現在の機械翻訳は、知覚運動系アーキテクチャなしの記号系アーキテクチャだけで構成されているが、それだけで人間並みの翻訳精度を達成していることは驚くべきことである(だがその対価は、人間では読みきれないぐらいの膨大なデータ量なのかもしれない)。人工知能が知覚運動系アーキテクチャも実装した時に、自然言語処理はより十全なものになるといえるだろう。 (p. 60) とはいえ、人間は言語獲得のための先天的な仕組みをもち、保護者との共同注意やその他の言語獲得を促進する文化的営みも有しているので、それらに類した仮定をプライア (prior) として実装する必要があるかもしれない。 (p. 61)

 

=> 逆に言うなら、学習者に英文から生み出されるイメージを明確にすることも求めないような機械的な英文和訳の授業ばかりで鍛えられる学習者は、英文と正しい日本語訳のペアを与えられる「教師あり学習」を、人工知能とは比較にならないぐらいの少量のデータで行っていると言えます。その訳出における着眼点の数や精度も、ディープラーニングの特徴量抽出とは比べ物になりません。そのような授業しか受けていなかった学習者は自分ではまともな翻訳ができませんから、機械翻訳に接するなら「これは便利だ」と依存してしまうだけでしょう。学習者は、日本語訳の産出という点だけで評価され、読解の中でイメージを発展させる楽しみなどを経験していないからです。

 

 

*****

 

 以上、ディープラーニングについての学部1年生以下のレベルの粗雑なまとめをした上で、そこから派生する考えを書き付けました。このような勉強が、何に結実するかはわかりませんが、私はこれまで基本的にこれまでこのようにとりあえず興味があることを自分なりにまとめる勉強をしてきましたので、ここでもその途中経過を公開した次第です。間違いがあればどうぞご教示くださいますようお願いします。お粗末。




楽しい英語学習は長続きする:アニメ・ドラマ(Netflix on Language Reactor)と漫画(LANGAKU)

本日、英語学習に意欲的な学部生と英語で話す機会を得ました。彼ら曰く、英語を身につけるためには集中的な学習が必要なのはわかるが、毎日続けるには、楽しさという要素が必要だ、ということです。ここでは彼らから教えてもらった2つの方法を共有します。 (1) Netflix上のアニメやドラマ...