2022/06/11

AIは人間の能力を補い、人間でしかできない能力の開発を促す

 【この「時事」カテゴリーの記事は、学生さん向けの文章をこのブログに転載しているものです。】


***


2022年6月11日号のThe Economist(デジタル版)はAI(人工知能)に関する記事を3つ掲載しました。

最初の記事は編集部が執筆したもので、AIによって、人間はより高度な仕事をすることが求められるだろうという予測を述べています。

How smarter AI will change creativity: The promise and perils of a breakthrough in machine intelligence

https://www.economist.com/leaders/2022/06/09/artificial-intelligences-new-frontier


Foundationと呼ばれる新しいモデルは、これまでのAIよりも柔軟であり、単純作業だけでなく、アーチストやライターやプログラマーの仕事の一部もこなします。


For years it has been said that AI-powered automation poses a threat to people in repetitive, routine jobs, and that artists, writers and programmers were safer. Foundation models challenge that assumption. 


しかしながら、AIの知性と人間の知性の違いに注目するならば、AIが人間の地位を奪う知性をもっていると考えるよりも、人間の知性を補うものだと考えるべきだと記事は示唆しています。


But they also show how ai can be used as a software sidekick to enhance productivity. This machine intelligence does not resemble the human kind, but offers something entirely different. Handled well, it is more likely to complement humanity than usurp it. 



2番めの記事はGoogleの技術者によるものです。


Artificial neural networks are making strides towards consciousness, according to Blaise Aguera y Arcas: The Google engineer explains why

https://www.economist.com/by-invitation/2022/06/09/artificial-neural-networks-are-making-strides-towards-consciousness-according-to-blaise-aguera-y-arcas


彼は、GoogleのLaMDA (Language Model for Dialog Applications)というAIと対話した文章を見せ、AIが複数の登場人物がお互いについて考えていることをあたかも正しく推測できているようであることを示します。これを彼は "the pro-social nature of intelligence"と呼び、AIの進展を示す一つの兆候と見ています。


彼は、この兆候に興奮していますが、それは社会的な知性こそが人間の知性を高めたと考えているからです。


[T]he intelligence explosion came from competition to model the most complex entities in the known universe: other people.

Humans’ ability to get inside someone else’s head and understand what they perceive, think and feel is among our species’s greatest achievements. It allows us to empathise with others, predict their behaviour and influence their actions without threat of force. Applying the same modelling capability to oneself enables introspection, rationalisation of our actions and planning for the future.


社会性を備えたAIというのは、これから大きなトピックになるのかもしれません。



しかしながら3番めの記事は、"not so fast"と言っているようです。著者は(あの知る人ぞ知る)ダグラス・ホフスタッターです。


Artificial neural networks today are not conscious, according to Douglas Hofstadter

https://www.economist.com/by-invitation/2022/06/09/artificial-neural-networks-today-are-not-conscious-according-to-douglas-hofstadter


彼は現在もっとも高度なAIの一つであるGPT-3でさえも、人間では考えられないような愚かな答えを出す例を数多く示し、次のように述べます。


I would call GPT-3’s answers not just clueless but cluelessly clueless, meaning that GPT-3 has no idea that it has no idea about what it is saying. There are no concepts behind the GPT-3 scenes; rather, there’s just an unimaginably huge amount of absorbed text upon which it draws to produce answers.


AIはたしかに記号処理では人間以上の能力を示しますが、その記号は、人間のような身体を通じて獲得されたものではありません。人間の身体はマルチモーダルな入力系をもっていますし、進化で獲得した本能と文化から獲得した行動様式をもっています。これらをもたずに、記号をただ記号として入力されたAIの知性は、やはり人間の知性とは異なるものにならざるを得ないと言えるでしょう。


こうしてみると、SF映画に出てくるようなAIが登場するのはまだまだ先で、今の課題は、人間が、AIが得意なことと人間が得意なことを見極めて、いかにAIを活用するかを学習することのように思えます。


関連記事

AIを無視も敵対視もせず、いかにAIと協働できるかを考えるのが鍵

https://yanase-yosuke.blogspot.com/2022/06/aiai.html


 

【Ver. 1.1に改訂】Caring Conversation with an AI Counsellor: 英語でお悩み相談をするChatGPTプロンプト

  2024/11/27 :Ver. 1.1にして、ChatGPTが最後に対話の要約を自動的に提供するようにしました。最初はChatGPTが中途半端な要約しか提供しなかったので、要約についての指示を詳細にしました。また、ChatGPTが対話の途中で勝手にWeb検索をすることを禁じ...