2021/04/28

藤本浩司・柴原一友 (2019) 『AIにできること、できないこと』『続 AIにできること、できないこと』 日本評論社


AI(人工知能)は社会を大きく変えます。英語教育も例外でなく、AIの進展を受けて急速に進化しなければ、それは「教育しているふり」をしている茶番となるか、経済的・文化的格差を拡大する営みになると私は考えます。


私は上で「進化」と書きましたが、それはAIが要求してくる変革が甚大で深刻なので、必ずしもこれまでもっとも賢かったり強力だったりする者が生き残るのではないと思うからです。従来の考え方でもっとも合理的あるいは権力的なアプローチを取っても、対応には失敗するかもしれません。ここはとにかく動き続けて、適応する方法を模索し続けるべきだと私は考えます。進化論についてしばしば言われる "it is not the most intellectual of the species that survives; it is not the strongest that survives; but the species that survives is the one that is able best to adapt and adjust to the changing environment in which it finds itself. "  という原理を私は信じています。

https://quoteinvestigator.com/2014/05/04/adapt/



そういうわけで、私は下のような雑文を書いています。


瀧田寧・西島佑(編著) (2019) 『機械翻訳と未来社会』 社会評論社

https://yanase-yosuke.blogspot.com/2020/12/2019_28.html

Chromeブラウザーの自動英語字幕生成機能で、リスニングを「勉強」から「楽しみ」に変える

https://yanase-yosuke.blogspot.com/2021/04/chrome.html

Wordtuneで、ある英文の10通りの表現法を生成し、表現の幅を広げる + AI時代の英語学習について

https://yanase-yosuke.blogspot.com/2021/04/wordtune10-ai.html

松尾豊 (2020) 「人工知能 ディープラーニングの新展開」

https://yanase-yosuke.blogspot.com/2021/04/2020.html

松尾豊 (2015) 『人工知能は人間を超えるか』、松尾豊・塩野誠 (2016) 『人工知能はなぜ未来を変えるのか』

https://yanaseyosuke.blogspot.com/2018/01/2015-2016.html

落合陽一 『魔法の世紀』『これからの世界をつくる仲間たちへ』『超AI時代の生存戦略』

https://yanaseyosuke.blogspot.com/2018/01/blog-post.html

伊藤穰一、ジェフ・ハウ著、山形浩生訳 (2017) 『9プリンシプルズ:加速する未来で勝ち残るために』早川書房

https://yanaseyosuke.blogspot.com/2018/01/2017-9.html

伊藤穰一著、狩屋綾子訳 (2013) 『「ひらめき」を生む技術』角川EPUB選書

https://yanaseyosuke.blogspot.com/2018/03/2013-epub.html



今回取り上げる『AIにできること、できないこと』『続 AIにできること、できないこと』も、少しでもAIについて理解しようとしてなりふりかまわず読んでまとめようとしているものです。

 「生兵法は大怪我のもと」とは知りながらも、少しでも自分の理解を言語化しないと、私は自分の間違いに気がつくことができませんから、ここに自らの浅薄な理解を恥知らずにも公開している次第です。もし間違いがありましたら、どうぞご教示くださいますようお願いします。

以下、これら2冊の一部をまとめながら、私なりに考えたことを書きます。2冊とも2019年の出版なので、ページ番号を表記する場合は、そのままなら『AIにできること、できないこと』、「続」と書かれていたら『続 AIにできること、できないこと』のページ番号とご理解ください。






*****



■ AIは人間の知性を補助し増強するが、人間の知性の代わりにはならない。

まずはこれらの本では使われていなかった用語を使って、私が強くもっとも感じることを書きます。


Artificial Intelligenceとは、人間が使いこなすべき道具であり、この道具を使って人間はAssisted IntelligenceもしくはAugmented Intelligenceを発揮できる。つまりAIとは、人間の知性を補助もしくは増強する道具である。AIは人間の知性に取って代わるものではない。


関連記事

HOW ARE ASSISTED INTELLIGENCE AND AUGMENTED INTELLIGENCE DIFFERENT?

https://www.analyticsinsight.net/assisted-intelligence-augmented-intelligence-different/


もちろんこれら2冊の著者は、Assisted IntelligenceやAugumented Intellienceといった考え方は熟知しています。著者は、これらの考え方を、AIとは「コンピュータに知的な作業を行わせる技術」(p. 3) と定義することで示しています。さらに「AIは基本的に知性をもっていません。それでも知性があるかのようにみえるのは、人間(AI設計者)が自身のもつ知性を、(教師あり学習や強化学習といった枠組みの中で)AIに組み込んでいるからです」(続 p. 11) と述べています。


■ 人間の知性の4要因

そんな著者がこの2冊を通じて使っている枠組みは、知性を以下の4つの要因に分けて考えることです。(これらの用語は著者独自の用語だそうです) (p. 60)


(1)  動機:解くべき課題を見つける

(2) 目標設定:どうなったら解けたとするかを決める

(3) 思考集中:解く上で検討すべき要素を絞る

(4) 発見:課題を解く要素を見つける。


これら4つのうち、AIが得意としているのは(4)です。強いていえば(3)もそれなりにAIは成し遂げていますが、それらにしてもコンピュータの高速計算力で質を量でカバーしているというのが実情です。

(1)や(2)をAIはきわめて苦手としています。また、これら4つを統合する力もほとんどありません。 (p. 148)

言い換えるならAIは、人間が課題を数学的表現で定義できるぐらいに狭く限定的に設定し、かつ、人間の方で何が正解かを予め定めたデータを大量に与えて初めて能力を発揮する機械であると言えましょうか。

しかし人間がこの世界で生きる上では、きわめて曖昧にしか記述できない課題・目標は多くあります。端的な例は芸術です。(p. 135, 続 p. 223) そもそも何をどのように作成しようかという動機や、何をもってその創作を成功とすればよいのかという目標設定は、前もって一義的に定めることができないものです。

芸術が浮世離れしすぎているとすれば、経営を考えてみましょう。目の前には片付けなければならない課題があります。突発的に生じる不祥事もあります。他方で、中長期的に対応しなければならない課題もあります。人事上のさまざまな問題もあります。このように多くの要因が複合しさらに流動的に変化する状況の中で、何を優先課題とし、それをどこまでどうすれば良しとするのかを決定することは容易ではありません。

授業にしても、教師はある程度の計画を立てたうえで授業に望みますが、熟練教師はその時々の状況に応じて、優先事項や判断基準を変えます。もちろん衝動的に変えるのではなく、過去の歴史を踏まえ、その変化が未来にどのような影響を与えるかを考慮しながら、課題と目標設定を変えてゆきます。

また、そもそもコミュニケーションは、解決すべき課題が事前に定められているわけでもない中で行われ、話題も少しずつ変わってゆきます。(続 p. 188) これもAIが苦手とする知的行動です(注)


(注)チャットボットは一見コミュニケーションを行っているようですが、それが行っていることは、人間の大量の会話データをもとに、それが聞いた発言にもっともつながりやすい発言を推論して出力するだけです。ボットとの相互作用を意味あるものだと認識したとしても、その意味は人間の方が(いわば勝手に)見いだしたものです。(続 pp. 189-190)


そのように複合的で流動的で、かつ過去のデータが少数しかない状況では、AIは人間にかないません。

そうなるとAI時代に人間が行うべきことは、AIが苦手とする (1) 課題の発見と (2) 目標の設定、および (3) とりあえず何に集中して、何を考えないようにするかという判断の力をさらに伸ばすことでしょう。 (p. 198) その上で人間はAIを自分の知性を補助 (assist) あるいは 増強 (augument) するために活用するわけです。



■ これからの英語ライティング

英語を書くことを例にとって考えてみましょう。あなたに英語論文の作成が必要だとして、どのテーマをどのように書くべきかという課題設定をAIが代替することはできません。テーマなどが決まったとして、それをどのように構成すればよいのかという目標設定や思考の選択的集中にも多くの可能性があり、問題を絞り込むことができません。ですからこれらについてもAIがあなたの代行をしてくれるわけではありません。

ですが、あなたがそれらについて何とか考え抜き、論文の素案としての日本語の文章を書き上げたとしましょう。そうなればAIがあなたの知性を補助もしくは補強してくれます。

DeepLやGoogle Translateなどの機械翻訳アプリは、あなたの日本語をそれなりの英語にしてくれます。その英語をGrammarlyにコピーすれば、そのアプリは文法ミスを指摘し、文体についても助言をしてくれます。

もちろんそれらのAI出力は不完全なものです。ですからあなたはAIの間違いを許容し、AIの判断をあくまでも参考情報として扱う態度を貫かねばなりません。 (pp. 170-171)

その上で、DeepLやGoogle TranslateあるいはGrammarlyなどからの出力を参考にしながら、あなたは自分の英語論文を改善してゆきます。文体を豊かにしようとすればWordtuneなどを使い、さまざまな表現の可能性を知ります。しかし、その選択肢の中でどれを使うかという判断はあなたの課題です。その判断を間違えば、あなたの英語論文の文体はちぐはぐなものになるばかりです。

しかし、もしあなたの専門分野の論文が、ビッグデータを備えたものでしたら、より限定的な目的に特化した下のようなAIで、より文体を洗練させることができます。


Langsmith Editor

https://ja.langsmith.co.jp/


上にも述べましたように、問題が狭く限定されればされるほど、そしてデータが多ければ多いほど、AIは人間の知的能力を補助し増強してくれます。

しかしそもそもの人間の知的能力が、貧弱なものであれば、AIは宝の持ち腐れか、誤用・濫用の元となります。

ですからAIは経済的・文化的格差を増大させる道具となるかもしれないと私は考えています。


■ 言語系AI (BERTやGPT-3) について

この本(『続』)は、2018年にグーグルが発表した機械翻訳のBERT (Bidirectional Encoder Representations from Transformers) についても解説しています(Wikipedia, ウィキペディア)。

ですが、BERTもその後、2019年のGPT-2 (Generative Pre-trained Transformer 2) 、2020年のGPT-3  (Generative Pre-trained Transformer 3) によって凌駕されました。(BERT, GPT-2, GPT-3に共通するtransformaerについての解説はここ(Wikipedia, ウィキペディア))。


下の動画は、Open AIが作成したものです。



GPT-3のインパクトについてはこのような記事でも紹介されていますし、簡単な解説記事もあります。


関連記事

超高精度な文章生成ツール「GPT-3」は、“人間にしかできないこと”の定義を根本から揺るがした

https://wired.jp/2020/08/17/ai-text-generator-gpt-3-learning-language-fitfully/

自然言語処理モデル「GPT-3」の紹介

https://www.intellilink.co.jp/column/ai/2021/031700.aspx


私はもちろんのこと、これらのAIについての専門的知識はもっていませんから、ここではこの本から学んだ基本的な考え方についてまとめておきます。

BERTの特徴の1つは、「自然言語理解」という課題を、もう少し明確な「文の中の所定の位置に入る単語を理解する」「ある文の次に来ることができる文を理解する」という2つの課題に翻訳したことです。(続 p. 139)

特徴のもう1つは、数値化が困難と考えられていた単語を数的に表現したことです。

まず数値化が容易な例として、色について考えてみましょう。色は、その構成要素である3原色のそれぞれがどの程度の度合いになっているかという3つの数値の組み合わせで表現できます。色の度合いは色の濃淡を示していますから数値化に適しています。

しかし自然言語のさまざま単語をそのように一直線には並べることは賢い考え方ではありません。一直線に並べても、その数値の大小には何の機能も付与されないからです。

ですが、単語を複数の数値で表現すればどうでしょう。たとえば「車、ハンマー、段ボール箱、ネコ」といった単語も「硬さ」と「大きさ」という2つの観点から数値化して整理すれば、それなりの合理的な表現になります。(続 p. 160)

このように数値の組み合わせ(ベクトル)で「分散表現」することで単語も数値化することが現実的になります。BERTは1024種類の数値を使って単語を識別(表現学習)しています。 (続 p. 161)

そうやってベクトルの形で数値化すると、足し算や引き算も可能になります。実際、"king - man + woman" という計算をAIにさせると "queen" に極めて近い分散表現が得られたそうです。 (続 p. 163)



■ ゲーム系AI (AlphaZero) について

この本には「ゲーム系AI」の例としてAlphaZero(Wikipedia, ウィキペディア)についても解説されています。

AlphaZeroは、BERTのように教師あり学習を使うのではなく、強化学習を使っています。それによりAIとAIを競わせて学習をさせてゆきます。人間の手がいらないわけです。ゲームの勝敗だけを人間が定義したら、後はAIにゲームを戦わせるわけです。この点で、強化学習は「問題集を自分で作る教師あり学習」とみなすことができます。 (p. 200)

しかしそのような強化学習が有効なのは、ゲームのように比較的選択肢が少ない場合です。(続 p. 233) (「囲碁の選択肢は多いのではないか」とお考えの方は、経営者の選択肢の多さおよびそれぞれの選択肢の中のキメの細かさについて想像してみてください)。

もう1つ面白いのは、選択肢を選べる回数つまり行動できる期間が長すぎても強化学習が困難になるということです。囲碁AIの場合は、最終的にどちらが勝ったかという情報をAIにとっての「報酬」として、それぞれの手(選択肢)の良否を評価します。囲碁でしたらせいぜい数百手ぐらいの期間で勝敗が決まりますから、強化学習が有効です。最終的な勝敗と、それぞれの手(選択肢)の関係がそれなりに強いと考えられるからです。ですが、その期間が長くなり、目標達成までの段階(選択肢)が莫大な数になると、強化学習も困難ということになります。

つまり、共時的な(=ある一定の時刻での)選択肢と通時的(=期間全体にわたる)選択肢の数が莫大であれば、強化学習は効果的に行えないわけです。

前にも言いましたが「生兵法は大怪我のもと」ですが、私としてはこういった原理的な理解をして、AIができること、できないことについて少しでもまともな推論ができるようになりたいと考えています。(私がもっとも知りたいことの1つは、「ストーリーの良さ」を深層学習が認識できるようになるのかということです)。

お粗末。


【Ver. 1.1に改訂】Caring Conversation with an AI Counsellor: 英語でお悩み相談をするChatGPTプロンプト

  2024/11/27 :Ver. 1.1にして、ChatGPTが最後に対話の要約を自動的に提供するようにしました。最初はChatGPTが中途半端な要約しか提供しなかったので、要約についての指示を詳細にしました。また、ChatGPTが対話の途中で勝手にWeb検索をすることを禁じ...