Monthly Archives: 11月 2018

23期、最終日

弊社の期末は一般の企業さんとはやや異なり、11月末でして、
今日2018年11月30日は弊社の23期の最終日です。

思い返すとこの23期も様々な出会いや気づき、新たなチャレンジがありました。

弊社の仕事は「学びの架け橋」をかけることです。
この一年、我々の築いた「学びの架け橋」を多くの方の多種多様なノウハウや知識が行き交いました。この架け橋を通して夢や希望が実現され、豊かな生活の支えとなり、社会に貢献できていれば、と願います。

期の終わりに際して、この一年をふりかえると、(橋を架けるというより灯台守ですけど)喜びも悲しみも幾歳月といいますか、まぁ色々あったなぁと遠い目になるわけですが、この23期もいい期だったなぁと思う次第です。何よりも総勢130名のスタッフが育ち、会社の成長も実感しております。

これもひとえに日頃ご愛顧いただいているお客様やご支援いただいている方々のお陰だと感謝しております。今期もありがとうございました。

 

さあ、明日から始まる24期、
「育つ喜びを、すべての人へ」のスローガンを胸に、「学びの架け橋」を築くことで貢献できるよう引き続き努めてまいります。

 

23期、ありがとうございました。

24期も引き続きご期待ください。

小学生から学ぶ『AIリテラシー』 ~加藤学園暁秀初等学校でのトレパ活用授業から~

めっきり寒くなりましたね。
三連休は皆様いかが過ごされましたか?
我が家の隣は小さな公園なのですが、そこの木々が紅の彩りを増して、ふと連休中にも関わらずこのブログを書いている研究員・岡田です。
IMG_5156
創作意欲ではないですが、風景が良いと何かしら文章を書きたくなるのは何故でしょうね?

 

岡田はますます様々な方々と会う機会が増えていて、人に会い、話し合う度に、自らの無知を知ることが多いです。

本当に、知らないことは世の中にはたくさんありますね。

 

今日は、「ある出会い」から生まれた取り組みについて書いてみたいと思います。

それは、2018年11月3日に東京・内田洋行CANVASで行われた『日本アクティブ・ラーニング学会』(http://jals2030.net/)の総会でのことでした。

デジタル・ナレッジも日本アクティブ・ラーニング学会の賛助会員でして、この度は総会に参加してきました。

その中で出会ったのが加藤学園暁秀初等学校(http://www.katoh-net.ac.jp/Elementary/)の中原先生です。

 

中原先生とは懇親会の際に名刺交換をしました。そこで、『トレパ』(https://torepa.jp/)を紹介したのです。

岡田『英文のテキストデータさえあれば、5秒でリスニング教材ができるエディターです』

と『トレパ』について紹介しました。中原先生の素直に感動された表情が今でも忘れられません。

 

AIで英語をトレーニングするシステムは他にもありますが、先生自らがエディットできる、というのはなかなかないコンセプトだと思っています。

ここで、中原先生が「今度、うちの学校で小学生が自分で英文レターを書くという授業がある。そこで使えないだろうか?」とおっしゃいました。

即座に『トレパ』の特ちょうを鋭く理解していただき、適切な活用場面を考えてくださりました。しかも、なんてタイムリー!!

 

余談ですが、こういう「タイムリー」な出会いって時々ありますよね?

それぞれが同じような課題を抱えている。あるいは、それぞれが同じような領域について今まで考えてきていた。そんな両者が出会った時に生まれるコラボレーション! この時しか生まれないものです。どちらかが一歩遅かったり、どちらかが情報不足だったりすると、このコラボレーションは生まれません。

 

その後、何度かやりとりをしながら、授業は実施されました。その報告がこちらです。(←クリックしてください。)

46510716_442627649475099_3852635619276619776_n

 

 

今回の授業でのポイントは3つあると思います。

(1)生徒各自が自分だけの英文(手紙)を書く。その内容をリスニング教材・スピーキング教材化する。

(2)小学生がリスニング・スピーキングを「楽しんだ」。

(3)同時に、「AIとは何か?」について学ぶ。(AIについてのリテラシー教育)

 

今回、(1)に加えて(3)について実施したのは、中原先生をはじめ加藤学園暁秀初等学校の先生方のファインプレーだと思います。『シンギュラリティ』の話を鵜のみにして語る方は多いのですが・・・実際、AIを使ったサービスを使ってみたことがある大人はどれくらいいるのでしょうか?

PCを触ったことない人がセキュリティ対策について語るな!という論調がありますが、同様に「自分たちでAIサービスを使ってみる」という姿勢こそ問われてくるでしょう。

自分でエディットして使えるAIツール『トレパ』を身近に置きながら、AIリテラシーについての授業展開をするというのは非常に合理的です。どこが人間と似ていて、どこが違うのか。それは使ってみてはじめて分かるものだと思います。

たびたび私がこのブログの中で主張しているのは、「AIを知ることで、人間の能力(の凄さ)を知る」ということです。

 

この子たちは、将来、AIを使いこなす「姿勢」が身についていくものと大いに期待できます。この取り組みを実施しようとした先生方の慧眼には恐れ入ります。

 

また、(2)の部分も重要です。

よく『トレパ』を紹介すると、「これは評価が厳しすぎて、子どものモチベーションが下がる可能性がある」というお声を頂戴します。

その可能性は否定しません。

しかし、一方で、実際に使っている小学生たちが『トレパ』の取り合いをしているという報告もよく聞くのです。

これは何故なのでしょうか?

もちろん、それぞれの集団の体質・風土や個性という問題もあるでしょう。もしかしたら、英語の習熟度も関係しているかもしれません。

しかし、私がこれまでお話を聞いていて、以下の2点が重要なのではないかという仮説に至りました。

【A】小学生の方が発音に関しては柔軟性を持っている

【B】自分で作った英文に関しては、発音を良くしたいという動機づけが強くなる

 

【A】に関しては、実は、大人が心配するよりも、子どもたちの方が柔軟性があるのではないか、という指摘をしたいのです。ICTについてと同様です。大人は、「タブレットとか導入して、本当に生徒は使うのか?」と心配する向きもあるそうですが、実際にはちゃんと指導すれば生徒は使います。同様に、「これがネイティブスピーカーの”耳”と”口”だよ」と紹介すれば、一生懸命に聞き、発音するように動機づけることは可能だと思います。

【B】については、もっと重要です。

先日、eラーニング・アワード2018フォーラムで、元・慶應大学教授の田中茂範先生がおっしゃっておられましたが、「自分ごとの英語」でないと、本当に生徒は学ぼうとしません。つまり、教科書などで「身近に感じられない」「自分の関心から遠い」英文で学習しようとしてもダメなのです。

IMG_4726

 

 

生徒にとって、自分が生み出した英文以上に「自分ごと」の英文は存在しません。

『このレター(英文)を届けたい!』

『(そのために)伝わる発音をしたい!』

『(そのために)正しい発音を知りたい!』

というモチベーションを発揮させるためには、手間は掛かりますが生徒一人ひとりが英文をつくり、それを教材化していく活動が最も効果的だと言えます。

これは、前回のブログで紹介した大阪府立箕面高校の森田先生の授業展開とも重なります。(https://www.digital-knowledge.co.jp/blog/archives/3570/

 

この点では、エディターとしての『トレパ』の面目躍如たるところです。

 

最後に。

箕面高校と加藤学園暁秀初等学校の生徒さん達の振る舞いで「共通項」が見つかりました。

 

 

それは・・・

 

 

タブレットを持って、教室のすみっこで発音練習すること!

※こんな感じ

46749920_733021623719871_2314044683057102848_n

箕面高校・森田先生曰く

『私には聞かれたくないけれども、AIには平気で話す』

 

これも、「恥ずかしいから」「先生の手間をとらせたくないから」という見方もありますが、ちがう観点から解釈すると、

既にモチベーションが高まっているので、自分で納得するまでやりきりたい!という内発的動機によるもの

=先生にあまり干渉されたくない

というようにも捉えられるのかな、とも思います。

この点については、今後の様々なご報告の中で明らかになっていくでしょう。

 

今後も、こんな素敵な実践報告が届くことをお待ちしております。

 

★★★『未来の教育コンテンツEXPO』にて、トークセッション開催!★★★

https://sanka-miracon.jpeca.jp/2018/b201/

※ジョイズ株式会社・柿原社長、インターカルト日本語学校・矢口さん、日本大学高等学校・田中先生を招き、AIによる外国語教育について等身大の取組みを描きだします!

AIに歩み寄る教育デザインについて~松原仁教授のヒントと森田琢也先生の実践から~

勉学の秋。みなさん、何かしら自己研鑽で勉強はされていますか?
こんにちは。秋と言えば「食欲の秋」、「岡田肥ゆる秋」と真っ先に思いうかべる「研究員」岡田です。
私は職務上、さまざまな研究会やセミナーに顔を出して、情報のキャッチアップをしなければなりません。この秋は、非常に面白い勉強会が多くて、週末は大忙しです。
最近、面白かった研究会は『<考える力>とは何か?―思考の教育における哲学系諸学の役割―』(日本学術会議第一部哲学委員会哲学・倫理・宗教教育分科会)です。2018年11月10日東京のテレコムセンターで行なわれました。
実は、一部のメディアで、私の大学院での専門が「教育心理学」だとされていますが、正解は「哲学」です。
※家庭新聞さんの記事(https://www.kyobun.co.jp/news/20181004_02/
この研究会、錚々たるメンバーが集まっておりました。
心理学の立場から批判的思考力を研究されている京都大学の楠見孝教授。楠見先生とは学習のモチベーションについての共同研究をしていたこともあり、お久しぶりにいろいろ話をさせていただきました。
指定討論者には東京大学名誉教授の一ノ瀬正樹先生。学生時代からの憧れです。科学哲学の分野で知らない方はおられないでしょう。一ノ瀬先生は、学会でお見かけすることはありましたが、話をしたことがなかったので、感激しました。
登壇者ではないのですが、私のすぐ隣には見知った顔が。公立はこだて未来大学の美馬のゆり先生がおられました。以前に一緒に仕事をしたことがあり、学習方略について叩き込まれましたw
そして、人工知能研究といえば!公立はこだてみらい大学の松原仁教授。
他の先生たちもすばらしいお話をしてくださったのですが、今回は、松原先生の次のような言葉が胸に刺さりました。
『人工知能の研究は人間とは何かの探求』
そうなんですよね。私は人工知能の研究者ではなく、あくまでもAI関連技術(AIの明確な定義がないので、最近では周辺技術の総体として「AI関連技術」と言うのが通例になりつつある)を利用した教育サービス設計者であり、AI関連技術の特性を理解した上で、その利用方法を提案する立場です。しかし、その立場からでも、この松原先生のお言葉の重みは分ります。まさに、私が対峙している事柄です。
私たちは「トレパ」(https://torepa.jp/)というAIによる「英語4技能対策授業」実現ツールを公開しております。
英文を用意していただければ、エディター機能により、AIを使ってリスニング・スピーキング・ライティングのトレーニングができるというコンセプトです。
このツールを公開してから、利用していただいている先生方から様々なお声を頂戴します。当然ながら、賞賛の声だけではありません。
UIについては、まあ、割愛するとして…根幹であるスピーキングの「精度」についてです。
この「精度」というのが曲者で、この表現の理解について一致していないことが大問題です。
大別すると、次の二つの解釈があります。
(1)「精度が良い」とは、ネイティブの発音に近い発音をした時のみ評価される。且つ、その評価基準が一定である。
(2)「精度が良い」とは、学習者の発音がどのようなものであってもそのレベルに合った評価がなされる。且つ、その評価基準が一定である。
どちらも、後半の部分は同一ですので、前半の部分の差異になっています。
実は、私も「トレパ」に取り組み始めた頃は、(2)が「精度が良い」と思っていたんです。でも、考えれば考えるほど、(2)の立場はある期待と誤解に基づいたものではないか、ということが分かってきました。
ここからが本論です。
先ほど話題にした松原仁先生は、人工知能の明確な定義というものがない理由について、『人工的に知能をつくる』という前提となっている「知能」自体、人間のどの働きをもって「知的」というかということが明確に定義されていないからだ、と説明していました。「知能」が揺らげば、「人工知能」も揺らぐ。至極当然のことです。
ところが、そのような人間の知性や知的営みということを熟考せずに、「人間が行うよりも効率的なことを工学的技術で実現できるようになった」という事実(例えば囲碁でプロ棋士に勝つとか)があった時に、『AIが人間に近づいてきた』という感覚を持つ方が多いように思います。囲碁や将棋などは、人間の知的活動の中でも高度な物だと皆さん思っているので、特にそう思うのでしょう。
《AI関連技術の擬人化》はこのように起こります。しかし、実はこの《擬人化》という作用自体、人間の想像力によって生み出されていると思います。(以前、AIの創造性についてブログを書いています。「人工知能が描いた「絵」に絵心はあるか? ピカソと幼稚園児のちがいから考える」https://www.digital-knowledge.co.jp/blog/archives/3508/
さて、先ほどの(1)(2)で論点になっている「精度」ですが、
(1)は「学習者」が歩み寄らなければならず、
(2)は「評価者」が歩み寄ってくれる、
とイメージするとその違いは分かりやすいと思います。
野球の投球になぞらえましょう。
(1)は厳密なストライクゾーンがあり、ピッチャーはそこにボールを投げないとストライクを取ることはできません。キャッチャーもアンパイアもストライク以外は認めません。
(2)は、ピッチャーがある程度ボール球を投げても、キャッチャーやアンパイアがそのボールを受けてくれます。
(2)は、学習者にとっては負担が少なく済みます。初学者にとっては必要なステップでしょう。一方で、(2)のままに留まっていることは教育目標上、好ましくありません。
(1)は、初学者にとっては非常に厳しいハードルになります。一方で、よく幼少期から英会話教室に通わせている保護者の方が通わせる理由として挙げるものに「耳を鍛えたいから」というものがあります。「ネイティブと交流することで、耳と口を鍛えたい」と。ところが、日本に来ているネイティブスピーカーの方で教育に関わっている方は、大抵はカタカナ英語を話しても受け止めてくれます。私たち日本人が、海外から来た旅行客のカタコトの日本語を受け止めるように。
さて、以上のような議論をしていると、皆さんはこう思ったのではないですか?「いやいや、教師は(1)と(2)をうまく使い分けているんだよ」と。
そうなんですよね。普通、教育ってカリキュラムというものがあり、そこで教育の目的に合わせたカリキュラムデザインがなされます。このカリキュラムデザインが下手だと、一回一回の授業やトレーニングに無理無駄が生じ、学習効果はあまり出ません。一回一回の授業やトレーニングにも、その日の授業展開・教案というものがあり、どのようなことを理解させたいのかという目標へ到達させるための工夫が必要なのです。
人間の先生はそれを自然にこなしています。(新任の先生は意識的にこなしているかもしれませんが。)
「トレパ」の場合、ストライクゾーンが「狭く」て、「厳しい」と言われます。この「厳しさ」には2種類あると思います。
(A)(1)と同じネイティブを基準とした厳しさ
(B)単文はうまく評価してくれるけれども、複数の文章(パラグラフ)のスピーキング評価は厳しい
(A)の場合、よく言われるのが、「人間と同じように(1)(2)を柔軟に使い分ければいい」ということです。
これ、言うは易く行うは難し、なのですよ。
というのが、ストライクゾーンの基準となるデータベースの設計の問題だからです。「トレパ」は現在のところIBMのWatsonのデータベースを利用しています。
これは、現在のところ、ネイティブスピーカーのデータベースとして世界最大級のものだからです。英米圏の方々が日常的に発話している「音」をデータベース化していますから、それが基準になります。言い換えると、英米圏のネイティブスピーカーが日常的に「わかりやすい発音」だと思っているものが基準となっています。(ここで「わかりやすい発音」を強調しているのは、当然ながらネイティブスピーカーでも滑舌の悪い人はいると思われるからである。日本人でもアナウンサーのような発音が理想であるが、訛っている人もいる。しかし、どこからが「わかりやすい」か、どこからが「訛っているか」という問題はさらに難しい問題となるので、ここでは詳細には触れない。)
この問題の解決方法として、「日本人の初学者の音声をAIに学習させればいい」という意見が多く聞かれます。
これ・・・本当にうまく行くのでしょうか? 例えば極端な例ですが、「日本人によるカタカナ英語」データベースができたとします。すると、私が発音した英語は、そのカタカナ英語データベースを基準として評価されます。それこそ、「上手にカタカナ英語が言えたね!」ということが褒められる可能性はないでしょうか? 極端な例では、ネイティブスピーカーの発音は「カタカナ英語としては評価できません!」と低評価になることも考えられます。
ストライクゾーンの設計
再び言いますが、人間の教師であればこのような(1)(2)をうまく調整できるのです。
この調整を行う際の教師のノウハウが明確化され、そのノウハウ自体を自動化できれば問題解決でしょう。そのノウハウ自体、教師社会の中で一定のものとして存在するのかどうか・・・
AIを利用することで、人間の教師のさりげない「すごさ」が良く分かります。
この人間の教師のすごさを解明するまでは、AIは(1)であると認めた上で利用するか、そもそもAI技術を使わずに何らかの特徴的な音声を発すれば受け入れてくれるツールを使うか、どちらかでしょう。
(B)については、どうでしょうか?
これも人間のすごさが分かります。
次の画像の中で示しているように、人間は意味に関係ない発音を「除去して」リスニングしています。ところが、AIは真面目に音を何とかテキスト化しようとするんですね。
パラグラフスピーキング
この現象は、スマートスピーカーを持っている方なら一度や二度は感じたことがあるかもしれません。我が家にAmazon Echoがあります。「アレクサ!」と呼び掛けると動くのですが、普通に妻と会話していると、何の拍子か、動き出すことがあります。こっちは意図してアレクサとは発音していませんが、スマートスピーカーは「アレクサ」と認識してしまうのです。これは精度が悪いわけではありません。たまに人間同士だってそういうことが起こります。
英語学習でいうと、人間が長文を発音する時、大抵は無駄な音を発しています。タレントさんやアナウンサーの方はそういう無駄な音がほとんどありません。しかし、下手な人がプレゼンすると大抵は「あ~」「え~」などの無駄な音が多いことに気づきます。このプレゼンの場面に照らし合わせると、日本人の英語のスピーチになぜ無駄な音が多いかもわかります。
私たちは、母国語で会話していて、特に緊張したり、言い間違いを恐れない場合には、あまり言葉に詰まることもなければ、無駄な音も出しません。例えば、母親に向かって「お腹すいた!」という時に言い淀んだ覚えはありません。ところが、高級レストランでオーダーする時にはちょっと噛んだりすることがあります。また哲学議論の時も。言葉を慎重に選びながら言う場面ですね。
英語が苦手な人が、予め決められた英文を発音するのではなく、自由にその場で言葉を紡ぎながら発音するというのはかなりハードルが高いです。このような場合、無駄な音が多少生じます。
ここから見えてくるのは、そういう無駄な音を除去する人間の知能の素晴らしさと共に、それが除去できないなら、除去しなければならない場面では(現状の)AI技術は使わないという判断が重要だということです。(「無駄」な音というように、無駄と判断している時点で、その発音・発話にとってその音が有意味か無意味かを人間が判断しているということ。AI技術では現状は意味理解が伴わない。)
つまり、「流暢さ」を身につけるためのトレーニングではAI技術は使えるが、しどろもどろでも「伝える意志」を育成する場面では使わない、ということです。
パラグラフスピーキングでは、一気にAIに評価させようとすると、パラグラフの中の一文だけ言い淀んでしまうと、他の英文の評価にも連鎖反応的に悪影響が出ます。(この辺りは文章では説明しにくいので、毎月行っているセミナーで確認してください。https://www.digital-knowledge.co.jp/archives/17380/ また、「トレパ」の新しい機能である「発音v4」や「ペアワーク」を使うとこの問題はある程度クリアされます。)
パラグラフスピーキング2
結論めいたことを言うと、「AI技術を使うべき場面で利用する」リテラシーが求められるということでしょう。
AI技術に教育を丸投げするのは、自分が受けもっているクラスを、誰とも知れない人に授業させるような怖さがあります。初任者研修や教育実習以外では、本当に信頼できる先生にしか授業は任せないはずです。
ここで、一つ、私が感動した「トレパ」を使った授業例を紹介します。大阪府立箕面高校の森田琢也先生の授業です。
2018年10月20日(土)に、大阪府立箕面高校でトレパでの授業実践の研究会をこじんまりと行いました。
そこで森田先生の模擬授業を体験しました。以下のような流れでした。
①同じ曲を演奏しているバイオリンの3つの音源を聞かせる。
②英語で、「どの音源のバイオリンが一番高価なバイオリンであるか」を問う。クイズを使って、クラスのモチベーションを上げる。
③教科書内容が音楽についてであるので、その部分をトレパでリスニング教材化。(この部分は模擬授業では割愛。)
④ペアワークとして、「どんな音楽が好きか?またその理由は?」を英語でスピーキングさせる。(一旦、言葉を紡ぐ練習をさせる。)
⑤ワークシートを使って、④をライティングとして完成させる。
⑥完成した自分だけの英文をトレパ相手にスピーキングして、ちゃんと認識されるかを確認。
⑦上記⑥の結果を、提出。※トレパはスピーキングの音声のダウンロード、評価画面のpdf化ができる。それを他のツールで先生に提出。
ここでトレパを使っているのは③⑥のみ。⑤の際に、『参考程度に』トレパの文法チェックなども使うそうですが・・・
トレパの特性をよく理解して練られた教案だと思います。森田先生の説明で興味深かったのは、以下の点です。
◆トレパはエディターなので、授業に即したリスニング教材がすぐにできること。(アプリなどでは英文をエディットできないものがほとんど。)
◆「この英文を発音しろ」というだけではなくて、どんな英文を発音しても、それが(ネイティブの耳に近い)AIがどのように聞こえたのかが明確に分かる。
◆生徒さん達は、森田先生に向かって発音するよりも、熱心にトレパに向かって発音する。どうも、先生には聞かれたくないが、ちゃんとトレパに判定してもらえる発音はしたいというモチベーションが高まっている。
また、この研究会で次のようなことも話が出てきました。
◆既存の授業を、トレパを使って代替するのではなく、トレパを使った新しい授業活動をするべき
◆プロダクト目線とユーザー目線という区別があるが、トレパのように機能に制約があるものでもプロダクト目線で使うこともアリではないか。マークシート方式もあれは受験生目線ではなく出題者側のプロダクト目線。しかし浸透した。
人間にしかできない授業。AI技術を使って手に入る授業。後者はまだまだ開拓期ではありますが、ちょっとAI技術についての過大な期待を捨てれば、できることはたくさんありそうです。
まず、トレパを体験してみませんか?
11月14日~16日「御茶ノ水ソラシティ」にて、「eラーニングアワード2018フォーラム」が行われますが、そこにデジタル・ナレッジのブースがあります。そちらで「トレパ体験したい!」と言い淀まずに言ってみてください!w
http://www.elearningawards.jp/
森田先生の教材の一部が公開されていますので、是非、ご覧ください。